ULTIMAS
Wanda Nara reaviva el conflicto con La China Suárez tras su viaje a Turquía con Icardi Un joven de 13 años descubre un tesoro de 180 millones de años en Neuquén ChatGPT lanza función de seguridad que alerta a contactos de confianza ante riesgo de autolesión Crisis en Medio Oriente: Trump rechaza propuesta iraní y amenaza con reactivar operación militar EE.UU. desvió 61 buques e inmovilizó cuatro para reforzar bloqueo sobre Irán en Ormuz San Luis y el CFI lanzan un paquete de financiamiento de hasta $500 millones para PyMEs El PRO rompe el silencio y cuestiona duro al Gobierno de Milei: 'Piden sacrificios que no están dispuestos a hacer' Hallan cuerpo en complejo de Río Gallegos y investigan si es jubilado desaparecido Mirtha Legrand regresó a la TV y Mariano Martínez sorprendió con su sinceridad sentimental La esperada vuelta de Mirtha Legrand a la televisión: ratings sorprendentes tras superar su enfermedad Wanda Nara reaviva el conflicto con La China Suárez tras su viaje a Turquía con Icardi Un joven de 13 años descubre un tesoro de 180 millones de años en Neuquén ChatGPT lanza función de seguridad que alerta a contactos de confianza ante riesgo de autolesión Crisis en Medio Oriente: Trump rechaza propuesta iraní y amenaza con reactivar operación militar EE.UU. desvió 61 buques e inmovilizó cuatro para reforzar bloqueo sobre Irán en Ormuz San Luis y el CFI lanzan un paquete de financiamiento de hasta $500 millones para PyMEs El PRO rompe el silencio y cuestiona duro al Gobierno de Milei: 'Piden sacrificios que no están dispuestos a hacer' Hallan cuerpo en complejo de Río Gallegos y investigan si es jubilado desaparecido Mirtha Legrand regresó a la TV y Mariano Martínez sorprendió con su sinceridad sentimental La esperada vuelta de Mirtha Legrand a la televisión: ratings sorprendentes tras superar su enfermedad

ChatGPT lanza función de seguridad que alerta a contactos de confianza ante riesgo de autolesión

11/05/2026 03:58 - Tecnologia

OpenAI presentó 'Trusted Contact', una herramienta opcional que permite que ChatGPT notifique a una persona elegida si detecta señales graves de crisis emocional durante una conversación. El sistema combina análisis automatizado con revisión humana y busca actuar como puente hacia apoyo real en momentos críticos.

Una nueva era en seguridad digital

La inteligencia artificial dio un paso histórico en responsabilidad social. OpenAI confirmó el 9 de mayo de 2026 el lanzamiento de "Trusted Contact" (Contacto de Confianza), una función diseñada para intervenir cuando el sistema detecta señales de crisis emocional severa en las conversaciones.

¿Qué es exactamente esta función?

La herramienta permite que un usuario adulto designe previamente a una persona de su círculo cercano como contacto de confianza. Si ChatGPT detecta patrones de conversación que sugieran un riesgo grave de autolesión, el sistema puede enviar una notificación a esa persona para que pueda acercarse y ofrecer apoyo.

Importante: OpenAI enfatizó que esta función no reemplaza atención profesional ni servicios de emergencia. Su objetivo es añadir una capa preventiva que conecte al usuario con apoyo humano en momentos críticos.
Cómo activar el Contacto de Confianza
  1. Acceder a Configuración: Entrar al menú de ajustes de ChatGPT.
  2. Buscar la opción: Seleccionar "Contacto de confianza".
  3. Ingresar datos: Añadir el correo electrónico del contacto elegido y, opcionalmente, su número telefónico.
  4. Confirmación: La persona designada tendrá 7 días para aceptar la invitación y completar la activación.
Protección de la privacidad
  • Las conversaciones completas nunca se comparten con el contacto.
  • Un equipo humano revisa cada caso antes de enviar cualquier alerta.
  • La función es 100% opcional y puede desactivarse en cualquier momento.
  • El usuario mantiene control total sobre la activación.

¿Cómo detecta ChatGPT el riesgo emocional?

OpenAI explicó que trabajó junto con especialistas en salud mental para desarrollar sistemas capaces de identificar patrones relacionados con:

Categoría Descripción
Psicosis Detección de pensamientos desorganizados o desconexión de la realidad
Manía Identificación de estados de euforia extrema o hiperactividad inusual
Ideación suicida Reconocimiento de pensamientos o planes de autoeliminación
Autolesión Detección de intención de causarse daño físico
Dependencia emocional hacia la IA Identificación de apego excesivo al asistente virtual

La estrategia de seguridad en 5 etapas

OpenAI detalló que su enfoque se basa en un proceso estructurado:

1
Identificación: Detectan posibles daños y riesgos en conversaciones sensibles.
2
Análisis: Examinan datos reales y pruebas internas.
3
Validación: Contrastan políticas con expertos externos en salud mental.
4
Entrenamiento: Ajustan el modelo para reducir respuestas peligrosas.
5
Actualización continua: Miden resultados y mejoran constantemente el sistema.

Un cambio de paradigma en la IA

Durante años, las plataformas digitales evitaron involucrarse en temas emocionales complejos. Esta iniciativa de OpenAI reconoce que millones de personas utilizan asistentes virtuales como espacios de desahogo emocional. Ignorar señales de crisis podría convertirse en un riesgo mayor. La nueva función abre un debate sobre privacidad, límites tecnológicos y responsabilidad digital, pero representa un paso hacia una IA más empática y socialmente responsable.

Fuente: Merca20 | 9 de mayo de 2026
Noticias de Hoy