Una vez que Microsoft ya estaba perdiendo el control de su IA, el sistema tuvo que cerrarse con urgencia
Solo unos días después del lanzamiento de la prueba beta de Bing AI, sus creadores han limitado drásticamente el acceso de los usuarios a su creación. Aunque, según el plan, todo debería haber sido al revés: sin aprender de ejemplos prácticos, en el curso de un diálogo animado, tal sistema nunca dejará su infancia, pero eso es exactamente lo que estaba prohibido hacer. ¿Cuál es la razón?
Microsoft ha invertido mucho en el desarrollo de IA de texto completa , pero ahora pocos recordarán que ya tuvo una experiencia similar en 2016, que terminó tristemente. La primera incursión de Microsoft en la IA fue Tay, un chatbot de redes sociales. Esta es una abreviatura de la expresión “Pensando en ti”: se suponía que el chatbot aprendería de los usuarios de las redes sociales su forma de comunicarse y pensar.
Por desgracia, Tay resultó ser un estudiante demasiado diligente, mientras que carecía por completo de pensamiento crítico. Absorbió todo lo que se le escribió, y cuando los usuarios cínicos se dieron cuenta de esto, comenzaron a enseñar deliberadamente cosas malas al chatbot: racismo, nazismo, sexismo, insultos, etc. Estos “trolls” tuvieron tanto éxito que en menos de 24 horas, Tay “odiaba” a la humanidad, a juzgar por sus líneas. Por lo tanto, Microsoft tuvo que desactivarlo urgentemente.
Con Bing AI, a juzgar por las primeras reseñas, se repite una historia similar. Es mucho más potente y más avanzado que Tay, pero tampoco cuenta con mecanismos efectivos de censura interna, o aún no han sido depurados. El chatbot ya muestra un comportamiento al borde del caos y una escalada intencionada de negatividad en los diálogos con los usuarios, pero Microsoft no tiene prisa por desconectarlo de la red. Solo queda ver a qué conducirá.
Techult