“YouTubeRegrets” es la campaña impulsada por Mozilla que busca conseguir que Google haga más accesible para los investigadores externos el estudio de los algoritmos con los que se rige YouTube para recomendar videos.
La campaña ha recogido 28 historias de diferentes personas del mundo, como por ejemplo un usuario que buscó una vez un video sobre un aeropuerto y desde entonces solo le aparecen videos de accidentes de aviones, también la de una mujer que buscó canciones populares alemanas y le terminaron apareciendo videos relacionados con neonazis. Esas son algunas de las muchas experiencias ocurridas después de ver videos recomendados por el algoritmo de YouTube.
Con la publicación de las historias, Mozilla quiere que Google facilite la investigación para conocer cómo funcionan los algoritmos que recomiendan estos videos para así comprender el funcionamiento de la Inteligencia Artificial (IA) de Google, que selecciona contenido que cree que será del gusto del usuario. Como muestra esta campaña, en muchas oportunidades la IA falla y termina mostrando contenidos “extraños y peligrosos”.
La preocupación de la compañía es que la plataforma tiene más de 2 mil millones de usuarios al mes que constantemente ven videos recomendados, y por eso creen que YouTube debería revisar su tecnología de recomendaciones, ya que en muchos casos ha llevado a sus usuarios a un contenido inapropiado o totalmente opuesto a lo que buscaban.