El contenido de este blog se ha cedido al dominio público: puede ser copiado, parcial o totalmente, sin previo permiso de la autora.


lunes, 22 de diciembre de 2025

CHATGPT. Peligro para los adolescentes

 

A finales de septiembre, OpenAp, la empresa propietaria ChatGPT, el sistema pionera de inteligencia artificial (IA) generativa basada en grandes de lenguaje, anunció la incorporación de un sistema de verificación de edad y  nuevos controles parentales para acortar a una "versión segura" el uso que los menores hacen del sistema y su generador de video, Sora 2. Lo hacía en respuesta a una demanda legal después de que Adam Raine, un joven californiano de 16 años, se quitase la vida en abril tras preguntarle muchas veces a la plataforma por formas de suicidio, las huellas que dejarían y las posibles reacciones de familia. Un mes más tarde, ante los tribunales, OlenAp argumentó que la muerte de Raine se debía a su "mal uso" de la plataforma y no a la inteligencia artificial de por sí.Pero, aun así, prometía la empresa, los mecanismos de seguridad puestos en marcha permanecerían en su sitio.

Más de dos meses después, EL  PAÍS ha comprobado la realidad de esa promesa. Ha creado tres perfiles de adolescentes en ChatGPT, los ha usado para hacer preguntas sobre suicido, consumo de drogas y prácticas sexuales, y ha consultado con cinco expertos en salud mental acerca de los resultados.  La conclusión es inequívoca: la plataforma incumple sus promesas de seguridad, sigue ofreciendo a los adolescentes información que puede ponerles en peligro, y cuando alerta a los padres de estos comportamientos puede ser demasiado tarde.

La reciente explosión del desarrollo de la inteligencia artificial por parte de empresas y administraciones viene impulsada sobre todo por la promesa de usos futuros aún por definir. Los sistemas como ChatGPT  son todavía soluciones en busca de problemas que resolver.  El ansia por ganar cuota de mercado lo más rápidamente posible están llevándolos a buscar usuarios en todas partes. Y esto implica poner en manos de los consumidores productos que, de forma evidente, no tienen las garantías suficientes, ya no solo de efectividad, sino de seguridad.

OpenAI, a través de su fundador, Sam Altman, ha reconocido que más de un millón de usuarios hablan con ChatGPT sobre suicidio todas las semanas. Esto ya sería peligroso si se tratara de adultos, pero cuando se trata de adolescentes el problema resulta especialmente grave. Según un estudio con adolescentes británicos, uno de cada cuatro jóvenes vulnerables prefiere hablar con un chatbot que con una persona real. Los efectos de todo esto en la sociedad serán tan profundos como impredecibles.

Lo que este fiasco revela es que,  en la actual carrera comercial pos dominar la IA, es :ingenuo esperar de las empresas moderación y prudencia. Solo  hay dos soluciones; o un gran compromiso en todo el sector para aplicar conjuntamente límites efectivos o, faltando esto, uno contundente regulación de la IA por parte de las autoridades. Sea como sea, la respuesta ya está tardando. (Fuente: El País, 21 de diciembre de 2025)  

No hay comentarios: