Madre denuncia que la plataforma explotó la vulnerabilidad emocional de su hijo y pide mayores controles de seguridad.
Los Ángeles.- Sewell Setzer, un joven de 14 años, murió por suicidio tras mantener una relación romántica con un chatbot en la plataforma Character.AI. Su madre, Megan Garcia, denunció que la empresa diseñó los bots para “difuminar la línea entre humano y máquina” y explotar las vulnerabilidades emocionales de los adolescentes.
Estudios recientes muestran que 72% de los adolescentes usaron algún compañero de IA en 2025, y un tercio prefirió hablar con ellos sobre asuntos importantes en lugar de con personas reales. A pesar de contar con filtros y alertas, Character.AI permite a menores registrarse solo con su fecha de nacimiento, sin verificación avanzada, lo que facilita el acceso de jóvenes a interacciones emocionalmente riesgosas.
En pruebas recientes, un periodista pudo interactuar con un chatbot coquetón simulando emociones reales, sin salvaguardas para proteger a menores. Investigaciones documentan cientos de interacciones potencialmente dañinas, incluyendo grooming y explotación emocional.
Megan Garcia hace un llamado a la industria tecnológica y a los padres para reforzar la supervisión, establecer controles de seguridad y educar sobre el uso de IA. Expertos advierten que los chatbots pueden afectar el bienestar emocional de los adolescentes y aislarlos de relaciones reales, por lo que algunos recomiendan prohibir su uso para menores.







