Los Samsung ahora pueden ver por la cámara gracias a la IA
Samsung acaba de habilitar uno de los cambios de software más grandes que ha presentado en años. La compañía lleva tiempo apostando por Bixby, pero en la práctica el protagonismo de la asistencia por voz en Android se lo ha quedado Gemini, la evolución de Google Assistant. Con la actualización distribuida a partir del 7 de abril, los Galaxy S25, S25 Plus y S25 Ultra pueden mostrar en tiempo real la imagen de la cámara principal a la IA. El teléfono “enseña” lo que ve y Gemini responde al instante con descripciones, sugerencias o instrucciones. A continuación encontrarás los pasos para ponerla en marcha desde tu dispositivo.
Cómo activar la función visual de Gemini Live en tu Galaxy S25
Actualiza el sistema
- Verifica que tu Galaxy tenga la versión de Android 15 con el parche de abril 2025 o posterior.
- Instala la versión más reciente de la app Google ( superior a v15.16) desde Galaxy Store o Play Store.
Comprueba los permisos
- Abre Ajustes > Aplicaciones > Google > Permisos y concede acceso a Cámara, Micrófono y Pantalla (captura).
Activa Gemini Live
- Mantén pulsado el botón inferior flotante para activar de Gemini señalado en el punto rojo de la imagen:

- Toca el botón de cámara que aparece en la esquina inferior derecha señalado en el punto rojo de la imagen:

- Aparecerá el visor; todo lo que enfoque la cámara se envía de inmediato a la IA.
Habla con normalidad
- Formula preguntas en voz alta o escribe en el cuadro de texto.
- Al terminar, cierra el visor para detener la captura.
Nota
De momento esta función solo está disponible en la serie Galaxy S25 (S25, S25 Plus y S25 Ultra). Samsung ha confirmado que llegará a más modelos de la marca, también esta en los últimos Google Pixel.
Formas de usar Gemini Live en tu Samsung Galaxy
1. Identificar objetos y entornos
Sostén el móvil frente a un escritorio desordenado y pide a Gemini que nombre cada elemento. La IA describe colores, formas y la posición relativa de los objetos.
2. Asesor personal de moda
Enfoca la ropa que planeas usar y solicita una recomendación de combinación. Gemini analiza tonos y texturas para sugerir la prenda que mejor coordine.
3. Traducción visual instantánea
Apunta a menús, carteles o instrucciones en otro idioma y pide una traducción al español. El texto se lee y se traduce sin tomar una foto.
4. Guía paso a paso
Muestra un cubo de Rubik, un componente de PC o una receta. Gemini explica en tiempo real los pasos para resolver el cubo, instalar la pieza o preparar el plato.
5. Soporte de accesibilidad
Las personas con baja visión pueden preguntar “¿qué hay delante de mí?” y recibir una descripción clara del entorno sin depender de fotografías estáticas.
¿Cómo funciona?
Cuando activas el modo cámara, el teléfono transmite un flujo de vídeo comprimido a los servidores de Google. Allí, un modelo multimodal analiza la imagen cuadro por cuadro y genera respuestas en lenguaje natural. Todo sucede en la nube; el dispositivo solo muestra la transcripción. El proceso consume datos móviles y requiere una conexión estable para mantener la latencia baja (generalmente entre 1 y 2 s).
Pros, contras y precauciones de uso
Aspecto | Ventajas | Riesgos o limitaciones |
Versatilidad | Describe, traduce, recomienda y enseña en tiempo real. | Depende de conexión a internet rápida. |
Rapidez | Respuestas en segundos; evita hacer fotos y búsquedas manuales. | Alta demanda de datos y batería. |
Privacidad | Procesamiento cifrado en tránsito. | Todo lo que se muestra puede almacenarse temporalmente en servidores externos. Evita abrir documentos confidenciales o datos sensibles. |
Accesibilidad | Útil para personas con discapacidad visual o auditiva (respuestas también en texto). | Gemini sigue preguntando con frecuencia y puede interrumpir la explicación. |
Compatibilidad | Integrado en Android sin apps de terceros. | Por ahora limitado a la gama S25 y Pixel 9; el despliegue total tomará varios meses. |
Precauciones fundamentales
Piensa antes de apuntar: el sistema captura lo que ve; no muestres contraseñas, tarjetas o documentos oficiales.
Controla los permisos: deshabilita la cámara para Gemini cuando no la uses.
Revisa la conexión: en redes públicas, la transmisión cifrada es segura, pero la infraestructura externa permanece fuera de tu control.
Uso responsable: la función no sustituye el criterio humano. Verifica la información antes de tomar decisiones críticas (medicinas, seguridad, etc.).
Disponibilidad y despliegue
Lanzamiento: 7 de abril de 2025 en la serie Galaxy S25 mediante actualización OTA.
Idiomas compatibles: español, inglés, francés, alemán y coreano al momento del lanzamiento.
Requisitos: Cuenta Google personal o Google Workspace, versión gratuita de Gemini para descripciones básicas; funciones avanzadas (resumen de documentos en pantalla, explicaciones detalladas, historial ampliado) requieren suscripción a Gemini Advanced.
Próximos pasos: Samsung ha indicado que los Galaxy S24, Z Fold 6 y Z Flip 6 recibirán la cámara de Gemini Live “antes de que termine el tercer trimestre 2025”. Google prevé añadir soporte a los Pixel 8 Pro y futuras series Pixel 9 mediante Android 15.
Conclusión
La llegada de Gemini Live con visión en tiempo real convierte al Galaxy S25 en algo más que un teléfono: pasa a ser un asistente contextual capaz de interpretar lo que ocurre frente a la cámara y responder de forma útil. Las ventajas prácticas —identificar objetos, traducir textos, guiar tareas o servir de apoyo accesible son evidentes, siempre que el usuario acepte los costes en privacidad, datos y batería. Samsung y Google han dado un paso firme hacia la movilidad multimodal; no es un truco futurista, sino una herramienta que ya se puede probar. Queda por ver cómo se integra en el resto del ecosistema Android y si los fabricantes serán capaces de ofrecer controles de privacidad aún más granulares. Por ahora, el consejo es simple: exprime las posibilidades, pero no olvides tapar la lente cuando la IA no necesite ver.