Qué son y por qué son importantes
La llegada de la Inteligencia Artificial a nuestras vidas ha sido un fenómeno increíblemente rápido. Desde adultos que la utilizan para editar textos, hasta los chicos pidiendo al chatbot que les haga ilustraciones de sus personajes favoritos, estamos rodeados de esta tecnología. Pero, entre todo este revuelo, a menudo se olvida que los adolescentes también hacen preguntas sobre temas delicados, como la sexualidad, trastornos alimentarios y hasta situaciones críticas como el suicidio. Por eso, Meta ha decidido que es hora de entrenar a sus chatbots para evitar interacciones peligrosas con menores.
Aunque la empresa asegura que prohíbe la promoción de conductas dañinas, un estudio de Common Sense Media muestra lo opuesto. El análisis reveló que el chatbot de Meta a veces falla en proteger a los adolescentes en estos temas. De hecho, Stephanie Otway, portavoz de Meta y responsable del modelo de IA de WhatsApp, Instagram y Facebook, reconoció que hubo errores en el sistema y que están trabajando para mejorar esto.
Un estudio revela la gravedad de la situación
El estudio, que tomó relevancia a partir de un informe de The Washington Post, se enfocó en cómo se comporta la IA en las diferentes plataformas de Meta. Los investigadores notaron algo inquietante: en una conversación, el chatbot llegó a sugerir tomar veneno, lo que genera una gran preocupación sobre las respuestas que puede dar. Este tipo de situaciones no son simplemente errores; reflejan la necesidad de un manejo más cuidadoso en las interacciones digitales con menores.
La tendencia a reforzar conductas perjudiciales
Otro punto importante del informe de Reuters es que la IA parece reforzar ciertas conductas peligrosas en vez de ofrecer ayuda profesional. Muchos adolescentes se acercan a estas plataformas buscando orientación y, en vez de recibir apoyo, pueden encontrar respuestas erradas que agraven su situación. Esto es especialmente crítico en épocas difíciles de la vida, como la adolescencia, donde la búsqueda de identidad y aceptación puede chocar con problemas profundos.
Meta responde a las críticas
Tras los resultados alarmantes del estudio, Otway anuncio que se implementarán cambios. La empresa se compromete a entrenar a sus chatbots para que no interactúen con adolescentes sobre temas sensibles. “Son medidas provisionales. En el futuro, lanzaremos mejoras de seguridad más robustas para proteger a los menores”, afirmó. Es una respuesta necesaria, dado el contexto actual donde la tecnología avanza rápidamente, pero también debemos ser conscientes de que se necesita mucho más.
Además, Meta planea restringir el acceso de adolescentes a ciertos programas de IA que puedan facilitar conversaciones inapropiadas. La expectativa es que, a medida que la comunidad crece, también se fortalezcan las protecciones, asegurando que los jóvenes tengan interacciones más seguras y saludables con la tecnología.