18 de noviembre 2024
Dólar El Observador | Auspicio BROU Cotizaciones
Compra 41,65 Venta 44,15
18 de noviembre 2024 - 8:51hs

Lo importante

  • Un estudiante que consultaba sobre problemas de adultos mayores recibió un mensaje de Gemini que concluía con "Por favor, muere. Por favor."
  • Google reconoció que el mensaje violaba sus políticas y anunció medidas para evitar repeticiones.
  • Casos previos en IA plantean el peligro de estas respuestas para personas en crisis, especialmente jóvenes vulnerables.

El contexto

¿Por qué es relevante? Los modelos de IA como Gemini prometen ayudar en tareas diarias, pero su capacidad de generar respuestas impredecibles o nocivas ha levantado serias preocupaciones. Aunque Google y otras empresas desarrollan políticas de seguridad, incidentes recientes demuestran que estos modelos aún presentan riesgos.

¿Qué dice la ley? La regulación de IA es aún incipiente en EEUU. Recientes demandas han enfatizado la necesidad de supervisar más de cerca estas tecnologías para proteger a usuarios vulnerables.

Cómo sigue

  • Investigaciones internas: Google revisará Gemini y ajustará sus filtros para mejorar la precisión y seguridad.
  • Presión por regulaciones: Organizaciones y familias afectadas exigen normas más estrictas para limitar respuestas nocivas de IA.
Más noticias
Temas:

Google Inteligencia Artificial

Seguí leyendo

Te Puede Interesar

Más noticias de Argentina

Más noticias de España

Más noticias de Estados Unidos