Google I/O 2025 y el fichaje de Jony Ive por OpenAI: así se redefine el futuro de la inteligencia artificial
Mayo 26, 2025

Gemini integrado en cada rincón de tu navegador. Un “Jarvis” en pruebas. Y Jony Ive diseñando el próximo gran dispositivo de inteligencia artificial. Dos gigantes, dos apuestas distintas… y una sola pregunta: ¿hacia dónde va todo esto?
Google quiere que la IA sea el nuevo Gmail
En su evento I/O 2025, Google dejó un mensaje contundente: la inteligencia artificial no va a ser una función más. Va a ser la estructura invisible detrás de todo lo que usamos.
El protagonista fue Gemini 2.5 Pro, su nuevo modelo estrella. Ya no vive en una app separada. Vive en Gmail, en la Búsqueda, en Chrome, en Meet y en Docs. La IA se vuelve parte del sistema nervioso del día a día digital.
En Gmail, redacta respuestas personalizadas según tu forma de escribir. En Google Meet, traduce conversaciones de inglés a español en tiempo real. En Docs, no solo escribe por ti, sino que entiende qué fuente usar si se lo pides. No inventa, responde con precisión.
También presentaron Google Vids, una herramienta que convierte ideas en videos profesionales: tú pones el guion (o dejas que Gemini lo escriba), y la plataforma arma todo con voz en off, animaciones, edición automática e incluso un avatar que presenta.
A eso se suma Imagen 4, que mejora la calidad de las imágenes generadas con IA y corrige errores comunes como problemas de ortografía visual. Y si todo esto no era suficiente, llegaron también prototipos como Project Astra un asistente que ve, escucha y actúa y Project Beem, que transforma videos 2D en experiencias 3D en tiempo real.
La jugada de Google es clara: que no uses “una IA”, sino que toda tu experiencia con sus productos esté atravesada por ella. Sin notarlo, sin cambiar de pestaña.
Mientras tanto, OpenAI quiere rediseñar el dispositivo mismo
Del otro lado del tablero, OpenAI no presentó una app. Presentó una visión. Y la firmó con un fichaje que dice mucho: Jony Ive, el legendario diseñador detrás del iPhone, el iPod y el iMac, ahora trabaja para ellos.
No se trata solo de un contrato glamoroso. OpenAI adquirió el estudio de Ive, LoveFrom, y lo integró dentro de la compañía. El objetivo: diseñar un nuevo “dispositivo personal de IA”. Un aparato que no tenga pantalla, que entienda el contexto del usuario, que actúe sin necesidad de mirar ni tocar nada.
Según lo que se filtró, el primer prototipo sería un dispositivo de bolsillo, pensado para acompañarte como una extensión sensorial: te escucha, te responde, te ayuda. No sería un reemplazo del celular, sino un paso más allá. Algo que mezcle inteligencia, diseño y presencia constante.
Se espera que este nuevo producto vea la luz en 2026. Pero la señal es clara: OpenAI quiere dejar de ser solo una empresa de software. Quiere entrar en el juego del hardware. Y lo quiere hacer desde el diseño, no desde la interfaz técnica.
Dos caminos que se cruzan… pero no compiten igual
Google y OpenAI están haciendo cosas distintas. Muy distintas.
Google está integrando IA en todo lo que ya usamos: Gmail, Docs, Meet, Chrome. Nos ofrece una forma más inteligente de hacer lo mismo que hacíamos antes, pero con menos fricción y más contexto.
OpenAI, en cambio, quiere repensar el punto de entrada. No solo qué hacemos con la IA, sino dónde y cómo la usamos. Y para eso, no basta con buenos modelos. Hace falta diseño.
La tensión entre estas dos estrategias va a marcar el rumbo del sector en los próximos años. Y mientras tanto, otros jugadores ya están tomando posiciones: Microsoft acelera con Copilot y GPT en Office. Meta lanza “Llama for Startups” para atraer desarrolladores con incentivos. Los gigantes asiáticos invierten fuerte en sus propios modelos.
La cancha ya no es solo técnica. También es estratégica.
¿Y qué significa todo esto para los demás?
Para quienes desarrollan, crean o emprenden, este momento no es solo interesante. Es fértil.
Con tantos modelos abiertos, plataformas expandiéndose y herramientas de bajo costo disponibles, las oportunidades aparecen en múltiples niveles:
Automatización personalizada
Modelos como Gemini, GPT-4.5 o LLaMA permiten crear productos hiperfocalizados: asistentes legales, planificadores de viajes, bots de atención al cliente o tutores educativos. Todo con IA.
Productividad empresarial
El foco está en eficiencia: resúmenes automáticos de reuniones, redacción inteligente de correos, análisis de datos instantáneos. Las empresas quieren soluciones que ahorren tiempo sin perder calidad. Y eso abre un mercado gigante para integradores y desarrolladores.
Educación transformada
Con herramientas que pueden traducir, explicar o generar contenido educativo, la IA puede reducir brechas de acceso al conocimiento. Especialmente en contextos donde los recursos humanos son escasos.
Entretenimiento sin barreras
Google Vids y Veo 3 permiten a cualquier creador generar contenido audiovisual con nivel profesional. Basta con una idea bien escrita para producir una serie animada, un video explicativo o una presentación con voz en off.
Nuevos formatos de interacción
Si el dispositivo de Ive prospera, la lógica de las interfaces va a cambiar. Ya no se trata de tocar pantallas, sino de interactuar con gestos, voz o contexto. El desafío será pensar experiencias sin interfaz visible. Y eso también es diseño.
Un futuro donde la IA no se ve, pero se siente
Lo que estas noticias nos dejan es algo más profundo que una lista de novedades. Nos muestran un cambio de era.
La IA ya no vive en laboratorios ni se limita a chatbots. Está entrando en la vida cotidiana, no como una herramienta, sino como una capa invisible que acompaña, interpreta y sugiere.
Google quiere que todo lo que ya usas sea más inteligente. OpenAI quiere que lo que todavía no existe empiece a tomar forma.
Y en ese cruce entre lo funcional y lo visionario, entre lo útil y lo deseable, está la gran oportunidad pero también la gran pregunta: ¿cómo queremos que sea esa tecnología que nos acompaña?
¿Queremos que sea útil? ¿Queremos que sea bella? ¿Queremos que sea ética?
Porque ahora que la IA está en todos lados, lo importante no es solo lo que puede hacer. Es lo que vamos a permitirle hacer.