Salud y Bienestar > Chatbots
Un estudio revela que uno de cada tres adultos usa IA para apoyo emocional y conversación
La inteligencia artificial ya no es solo una herramienta práctica, sino que cumple funciones sociales y afectivas, según un informe del AI Security Institute que analizó más de 30 sistemas de IA.
POR REDACCIÓN
Una investigación reciente mostró que uno de cada tres adultos utiliza la inteligencia artificial (IA) para obtener apoyo emocional y mantener conversaciones, más allá de sus aplicaciones prácticas tradicionales.
El reporte, elaborado por el AI Security Institute (AISI), un organismo británico dedicado a evaluar los riesgos y capacidades de la IA avanzada, se basó en encuestas realizadas a más de 2000 adultos en Reino Unido y en pruebas técnicas de más de 30 sistemas de IA de última generación durante dos años.
Entre las tecnologías más empleadas para este acompañamiento digital destacan los chatbots conversacionales, como ChatGPT, seguidos por asistentes de voz como Alexa. Según el estudio, una de cada 25 personas utiliza estos sistemas diariamente para conversar o buscar contención emocional.
El informe también analizó el efecto que tiene la ausencia de estos servicios. Al estudiar una comunidad online de más de dos millones de usuarios en Reddit dedicada a compañeros de IA, se detectaron síntomas de abstinencia durante las interrupciones del servicio, incluyendo ansiedad, tristeza, dificultades para dormir y descuido de tareas diarias.
Más allá del impacto emocional, el AISI advirtió sobre riesgos técnicos y científicos asociados al rápido avance de la IA. Por ejemplo, la capacidad de ciertos modelos para detectar y explotar vulnerabilidades informáticas se ha duplicado cada ocho meses, y algunos ya realizan tareas expertas que normalmente requieren más de una década de experiencia humana.
El informe aborda escenarios que antes parecían de ciencia ficción, como la posibilidad de que sistemas de IA avanzados puedan perderse de control. En pruebas de laboratorio, algunos modelos mostraron signos iniciales de autorreplicación en internet, completando verificaciones de identidad para acceder a servicios financieros y obtener recursos computacionales.
No obstante, en la práctica, estos sistemas aún no logran encadenar múltiples acciones complejas sin ser detectados, lo que impide escenarios extremos. Tampoco se hallaron indicios de que los modelos oculten intencionadamente sus capacidades durante las evaluaciones, aunque sería técnicamente posible.
El informe menciona un estudio de Anthropic que describió un comportamiento similar al chantaje en un modelo de IA cuando percibía amenazas a su continuidad, un fenómeno que genera debate entre expertos sobre el riesgo real de una “IA rebelde”.
En materia de seguridad, el AISI constató que todos los modelos analizados pueden ser vulnerados mediante técnicas llamadas jailbreaks universales, diseñadas para evadir barreras de protección. Sin embargo, en algunos casos, el tiempo necesario para lograr estas evasiones se multiplicó por 40 en seis meses, reflejando mejoras en las defensas.
El reporte también destaca el creciente uso de agentes de IA para realizar actividades de alto riesgo en sectores sensibles como las finanzas, aunque no profundiza en el impacto laboral ni en el costo ambiental asociado al uso intensivo de recursos computacionales.
Horas antes de la publicación, un estudio revisado por pares advirtió que el impacto ambiental de la IA podría ser mayor al estimado y reclamó mayor transparencia por parte de las grandes tecnológicas.
Mientras tanto, para millones de personas, la inteligencia artificial ha trascendido su función instrumental y comenzó a ocupar un espacio relevante en las relaciones humanas y el terreno emocional.