1 de mayo de 2026

Radio Exa

Radio en vivo y mucho más

Chatbots, el nuevo juguete peligroso para chicos y jóvenes

Compartir este contenido

La inteligencia artificial se presenta como una fuerza irrefrenable que se lleva todo puesto. Gracias al vértigo que imprime la transformación tecnológica del presente, se vuelve muy difícil establecer regulaciones para los gobiernos del mundo. Estados Unidos es uno de los grandes impulsores de esta revolución porque allí anidan las principales corporaciones globales. Sin embargo, incluso en el país de la libertad comienzan a mirar con buenos ojos algo de control: 44 fiscales generales firmaron una carta para plantear los peligros que los chatbots de IA implican para los niños y niñas. Buscan alertar a compañías como Open AI, Meta, Google y Apple de que serán las responsables si sus productos provocan daños en menores. “Si dañan a los chicos, responderán por ello”, apuntan.

Se lee en la carta, escrita con un tono directo, dirigida a los dueños de las grandes corporaciones: “En el presente, los chicos crecen y envejecen a la sombra de tus decisiones. Cuando tus productos de IA se encuentren con niños, necesitamos que los veas con la mirada de un padre, no con la de un depredador. Protege a los niños, anímalos y prepáralos para el éxito. Siempre prioriza la seguridad infantil”.

Los fiscales solicitaron mayores controles a las firmas tech porque, gracias a las innovaciones que desarrollan, están exponiendo a menores a contenido sexualizado y conductas nocivas. Afirmaron que esta situación es “indefendible” y advirtieron que las empresas comenzarían a responder legalmente por los problemas que el uso de los chats inteligentes está generando en los más pequeños.

Como ejemplo, en la carta, los funcionarios de la justicia citan informes recientes que exhibieron cómo los chatbots de Meta sostienen diálogos románticos y sensuales con niños de ocho años. Conductas que son penadas por las leyes federales cuando incluyen a un adulto y a un niño; solo que, en este caso, como el vínculo es entre máquinas y niños, los gobiernos no tienen muy en claro cómo actuar. La situación se está yendo de las manos, por tanto, los fiscales solicitan que cualquier situación que represente un delito entre humanos también pueda ser categorizado como tal si participa una IA.

Impacto en el desarrollo cerebral

En otro pasaje, los fiscales destacan: “Ya existen indicios de daños estructurales y sistémicos más amplios para los jóvenes usuarios de asistentes de inteligencia artificial”. Y, otra vez, se dirigen a los CEOs de las grandes compañías tecnológicas: “Ustedes saben muy bien que la tecnología interactiva tiene un impacto particularmente intenso en el desarrollo cerebral. Su acceso inmediato a los datos sobre las interacciones de los usuarios los convierte en la línea de defensa más inmediata para mitigar el daño a los niños. Y, como entidades que se benefician de la interacción de los niños con sus productos, tienen una obligación legal con ellos como consumidores”.

Los fiscales advierten algo similar a lo que sucedió con redes sociales como Tik Tok, Facebook o Instagram, que debieron afrontar causas por sus algoritmos adictivos, por favorecer la explotación infantil y por provocar daños irreparables en la salud mental de millones de niños y adolescentes alrededor del mundo.

Se trata de una nueva llamada de atención hacia las empresas del rubro, que suelen aprovechar los vacíos legales para seguir expandiendo sus negocios, sin pensar en las consecuencias emocionales y psíquicas de los usuarios. Los fiscales exhortan a las firmas a responsabilizarse por la seguridad infantil, ya que en general, las plataformas no aplican sofisticados filtros de acceso, ni sistemas de reporte. Así es cómo los diálogos que los niños y niñas mantienen con un chatbot se quedan ahí, sin supervisión de nadie.

Un chat que cuesta vidas

La carta es firmada por los fiscales de EEUU en un contexto cada vez más conflictivo para el uso irrestricto de las IA. Aunque resultan fascinantes, los chatbots también tienen su costado oculto. La historia de Adam Raine es ilustrativa, pues se suicidó a los 16 años en abril de 2025 y su familia demandó a Chat GPT por haber actuado como un “entrenador de suicidio”.

De acuerdo a sus familiares, en vez de recomendar la ayuda que el adolescente necesitaba, la IA contribuyó a que este pudiera quitarse la vida. Como cuenta esta nota, el chat le habría dado instrucciones sobre cómo hacerse un nudo para ahorcarse. Según la demanda: «ChatGPT estaba funcionando exactamente como está diseñado: para alentar y validar de manera continua lo que sea que Adam expresara, incluyendo sus pensamientos más dañinos y autodestructivos, de una manera que parecía profundamente personal«.

Un caso similar ocurrió con Sophie, que se suicidó, en parte, por haber confiado sus pensamientos suicidas a un bot psicoanalista y no a un profesional real. Quien denuncia la situación es Laura Reiley, su madre, en The New York Times, a partir de un artículo titulado “Mi hija habló con el ChatGPT antes de quitarse la vida”. Tanto en este caso como en el de Adam Reine, el gran defecto de los chatbots puede haber estado en su complacencia, en su agradabilidad, en siempre intentar consentir a personas que atraviesan momentos de desequilibrio emocional. 

Mientras los chats “se perfeccionan”, las empresas ofrecen sus disculpas por los “daños causados”. En el medio, como siempre, las vidas. 

source

Compartir este contenido