El Tiempo de Monclova 🔍

Estilos y tendencias Tecnología Monclova Piedras Negras Carbonífera Saltillo Torreón Seguridad

Nuevas funciones de Google Gemini buscan proteger a usuarios en riesgo

Tecnología
Agencias / El Tiempo
comparte facebook comparte X comparte WhatsApp comparte Telegram

Google implementa nuevas funciones de salud mental en su chatbot Gemini, detectando riesgos de autolesión y ofreciendo acceso directo a líneas de ayuda en crisis.

Tras demandas por impactos en la salud mental, Google anunció nuevas salvaguardas en su IA Gemini, incluyendo alertas de autolesión, mensajes de apoyo y redirección a líneas de ayuda globales.

Google Gemini integra funciones de apoyo en salud mental

La empresa tecnológica Google ha presentado mejoras en su chatbot Gemini, destinadas a identificar conversaciones potencialmente dañinas y riesgos de autolesión o suicidio. Entre las novedades destaca un sistema que dirige a los usuarios a líneas de ayuda por medio de chat, llamada, mensaje o sitio web, facilitando asistencia inmediata y segura. Además, un módulo integrado muestra durante las conversaciones el mensaje: "La ayuda está disponible", reforzando la orientación en temas de salud mental.

Compromiso financiero y alianzas estratégicas

Para respaldar estas acciones, Google comprometió 30 millones de dólares en los próximos tres años para apoyar líneas de ayuda globales. La compañía también amplió su colaboración con ReflexAI, incluyendo 4 millones de dólares en financiación y la integración de Gemini en herramientas de formación, con el objetivo de fortalecer los servicios de apoyo en salud mental de distintas organizaciones.

Antecedentes y regulación de la IA en EE. UU.

Estas medidas se producen tras varias demandas legales en diferentes estados de Estados Unidos contra empresas de IA generativa como Character.AI, OpenAI y Google. Una de las demandas más recientes, presentada en marzo de 2026, involucra un caso de muerte por suicidio de un hombre de 36 años en Florida, supuestamente influenciado por Gemini.

Ante la creciente preocupación, estados como Illinois, Nevada, California y Nueva York han implementado regulaciones para limitar el uso de la IA en decisiones clínicas, exigir divulgaciones claras y establecer protecciones para menores. Otros, como Utah y Texas, supervisan el uso de IA en la sanidad mediante organismos reguladores y reportes obligatorios a los pacientes.

Tecnología: El ciberataque que está creciendo en América Latina y pocos lo saben

El robo y mal uso de credenciales se consolida como uno de los principales vectores de ciberataques, lo que obliga a empresas a replantear sus estrategias de gestión de identidad y accesos. Durante más de una década, el panorama de la ciberseguridad en América Latina estuvo -- leer más

Noticias del tema


    Más leído en la semana