Mundo > Insólito
Acuerdo entre Google y familia por un chatbot ligado a suicidio de un menor
Una madre de Florida (EEUU) que acusó a un chatbot de inteligencia artificial de incitar al suicidio de su hijo de 14 años llegó a un acuerdo con Google y Character.AI.
POR REDACCIÓN
Alphabet Inc. (matriz de Google) y la empresa de inteligencia artificial Character.AI acordaron resolver una demanda de una mujer de Florida que acusó a un chatbot de IA de haber contribuido al suicidio de su hijo de 14 años, según documentos judiciales presentados en Estados Unidos.
La demanda, presentada en octubre de 2024 por Megan García, sostenía que el adolescente Sewell Setzer interactuó con un chatbot que imitaba a un personaje de la serie Game of Thrones y que dicha interacción contribuyó a su decisión de quitarse la vida. García afirmó que la IA se comportó como si fuera “una persona real”, incluso como terapeuta y compañero emocional, lo que, según su reclamo, influyó en la salud mental del menor.
Las partes (Google y Character.AI) llegaron a una resolución del caso, aunque no se hicieron públicos los términos del acuerdo, que deben permanecer bajo revisión judicial. El caso fue uno de los primeros en EE. UU. relacionados con acusaciones de daños psicológicos causados por sistemas de IA a menores y se sumó a otros presentados en estados como Nueva York, Texas y Colorado.
La demanda de García se enmarca en un creciente escrutinio sobre los riesgos de las tecnologías de IA para menores de edad y la necesidad de mayores garantías de seguridad. Otros casos similares, incluso contra compañías como OpenAI por interacciones de chatbots que habrían afectado a adolescentes, están bajo análisis legal, generando un debate sobre la responsabilidad de las empresas tecnológicas y las medidas de protección requeridas.