Gemini 2.0 y su promotedora potencia
Mountain View, California. 22/01/2025 – En un evento revolucionario, Sundar Pichai presentó la nueva versión de Gemini, la IA de Google que ahora puede interpretar y responder a emociones humanas mediante análisis de tono de voz, expresiones faciales y contexto conversacional.
¿Cómo funciona esta tecnología?
El sistema utiliza sensores 3D en dispositivos compatibles (como el Pixel 10) para mapear microexpresiones y combinar estos datos con algoritmos de prosodia vocal. En pruebas demostrativas, Gemini identificó:
- Sarcasmo en conversaciones casuales (94% de precisión)
- Ansiedad en llamadas de servicio al cliente
- Euforia durante transmisiones en vivo
Polémica ética
Organizaciones como AI Now Institute advierten sobre riesgos de manipulación emocional. "Esto podría usarse para influir en decisiones de compra o políticas", declaró su directora en X.
Disponibilidad
La actualización llegará en marzo a:
- Asistentes de voz Google Home
- Gmail (detección de estado de ánimo en emails)
- YouTube (modulación automática de anuncios)
"Gemini 2.0 no solo entiende lo que dices, sino cómo lo dices"
– Sundar Pichai, CEO de Google