YouTube vuelve a los humanos después de que la inteligencia artificial censurara demasiado

0
18
YouTube vuelve a los humanos por fallos en la Inteligencia Artificial

La plataforma de videos recurrió a la Inteligencia Artificial (IA), con la finalidad de evitar que sus usuarios subieran contenido inapropiado. Sin embargo, luego de percatarse de que la IA censuraba en exceso, YouTube vuelve a los humanos para verificar que los videos cumplan con las normas de la compañía.

Esta decisión surgió luego de que se observa que se habían eliminado más de 11 millones de videos de la plataforma, que aparentemente violaban las reglas de la empresa.

Muchos dicen que los robots de IA piensan como humanos y por ello son capaces de filtrar contenido, que imitan constantemente la red neuronal del cerebro y que poseen algoritmos poderosos. Si bien esto es en parte cierto, la realidad es que la IA no piensa ni aprende. Así que no cuenta con el mismo criterio de un humano.

YouTube vuelve a los humanos por fallos en la Inteligencia Artificial

Nuevamente la plataforma de videos ha recurrido a los humanos, para que analicen contenidos dañinos. Luego de que sus sistemas automatizados que venían utilizando, eliminaran contenido en exceso.

YouTube y la Inteligencia Artificial
YouTube vuelve a los humanos por fallos en la Inteligencia Artificial

Es importante resaltar que entre los meses de abril y junio del presente año, YouTube eliminó un aproximado de 11 millones y medio de videos. Esto lo hizo debido a que aparentemente, según la Inteligencia Artificial con la que cuentan, estos clips infringe las normas de la compañía.

Adiós a las extensiones de pago de Chrome: La Web Store oficial está lista para retirarlas

Esta cifra sin lugar a dudas, es mucho más alta que la del año pasado. En 2020 se retiraron un aproximado de 9 millones de videos de la plataforma. El aumento tan notorio de esta cifra coincide con el año en el que la compañía decidió que reduciría su personal en las oficinas. Todo, a causa de la pandemia que se ha vivido en los últimos meses a nivel mundial.

Recordemos que el equipo de moderadores encargados de monitorear el contenido de YouTube en la sede de Accenture en Dublín, recibió el mensaje de que su oficina estaba cerrando, mediante su chat grupal, en la noche del 17 de marzo.

La propagación del COVID-19 que hasta ahora ha infectado gran cantidad de personas en todo el mundo, era demasiado peligroso para que ellos siguieran trabajando en la oficina. Por su seguridad los enviaron a casa. Aunque las restricciones contractuales sugerían que no podían continuar filtrando 500 horas de metraje subidas cada minuto a la plataforma de forma remota.

Fue por esta razón que la empresa decidió utilizar la Inteligencia Artificial, para así reemplazar a los humanos, y evitar que sus usuarios subieran contenidos inapropiados, con escenas violentas, de odio, o dañinas en general.

Aplicaciones más descargadas durante el año 2020

Reconocimiento de YouTube por el error de la compañía

A través de un comunicado, YouTube informó que actualmente depende mucho de la tecnología para poder realizar el trabajo que generalmente realizan los supervisores humanos. Sin embargo, aclaró que esto ha sido negativo, ya que están eliminando gran cantidad de contenido, que puede no infringir sus políticas internas.

En dicho comunicado también aclaró que necesitan evaluadores humanos para verificar y corroborar las decisiones que toman las máquinas por sí solas.

Neal Mohan - YouTube vuelve a los humanos
La capacidad que tienen estas máquinas para eliminar de manera rápida y efectiva los contenidos que violan las normas, es totalmente limitada

Neal Mohan, es el Director de Productos de la empresa YouTube. Informó que la capacidad que tienen estas máquinas para eliminar de manera rápida y efectiva los contenidos que violan las normas, es totalmente limitada.

Es por esta razón que YouTube vuelve a los humanos, ya que necesitan evaluadores que se encuentren realmente capacitados para matizar las decisiones de la IA. En especial discursos de odio o de desinformación médica.

Explicó del mismo modo, que luego de las protestas generalizadas en contra del racismo, así como la campaña electoral realizada en Estados Unidos, se han visto cada vez más presionados para vigilar su plataforma, en busca siempre de contenido inapropiado o tóxico.

Adicionalmente, este no es solo el caso de YouTube, ya que algunas plataformas como Twitter o Facebook también han actualizado, tanto sus políticas como su tecnología, en la búsqueda de este tipo de contenido dañino. Esto es así ya que de lo contrario, podrían perder varios anunciantes que buscarían otros sitios.

Facebook podría verse obligado a salir del mercado europeo

Aún la inteligencia artificial no es suficiente

Más de la mitad de esos 11 millones de videos que fueron eliminados de la plataforma, no tuvieron ni una reproducción de un usuario real. Aproximadamente un 80% fueron retirados con menos de 10 vistas.

Es por esta razón que Claire Wardle, quien es cofundadora de First Draft, la cual es una empresa encargada de asesorar a grandes compañías respecto al contenido de las redes sociales, explicó que aún la IA no está preparada para verificar videos correctamente.

Aclaró que es especialmente es imposible que evalúen videos con varias horas de duración, de manera correcta.

Dejar respuesta

Please enter your comment!
Please enter your name here