OpenAI acelera el desarrollo de un dispositivo personal sin pantalla centrado en la voz

Última actualización: enero 2, 2026
Autor: Isaac
  • OpenAI unifica equipos de audio para preparar un dispositivo personal sin pantalla con interfaz de voz.
  • El nuevo modelo de audio, previsto para 2026, busca conversaciones más naturales y simultáneas.
  • El hardware se concibe como familia de "compañeros" audio-first, con Jony Ive implicado en el diseño.
  • La apuesta llega en plena saturación de pantallas y con dudas sobre privacidad y dispositivos siempre escuchando.

Dispositivo personal de audio sin pantalla

OpenAI está moviendo ficha para que la próxima gran etapa de la informática personal no pase por otra pantalla más, sino por un dispositivo con asistente integrado que nos escuche y hable con nosotros en cualquier momento. La compañía ha comenzado a reorganizar en silencio una parte importante de su estructura interna con la vista puesta en un dispositivo personal sin pantalla, centrado en el audio, que se apoyará en una nueva generación de modelos de voz.

Detrás de este giro hay una apuesta clara: que la interacción principal con la inteligencia artificial deje de ser visual y táctil para pasar a ser conversacional. En lugar de mirar constantemente al móvil, la idea es que un aparato discreto, pensado como «audio-first», pueda acompañar al usuario y responder mediante voz de forma fluida, con un horizonte temporal situado en torno a 2026 para el estreno del nuevo modelo de audio y de la primera oleada de hardware.

Reorganización interna para un dispositivo personal sin pantalla

OpenAI prepara hardware centrado en audio

En los últimos meses, OpenAI ha unificado equipos de ingeniería, producto e investigación que antes trabajaban de forma más separada. Según información filtrada por medios como The Information y recogida también por portales especializados, esta reestructuración tiene un objetivo muy concreto: reforzar los modelos de audio que servirán de base a un futuro dispositivo personal sin pantalla.

La compañía ha dedicado aproximadamente dos meses a estos cambios internos, con el foco puesto en modernizar su tecnología de voz para que la IA pueda mantener conversaciones más naturales. No se trata solo de que ChatGPT «suene mejor», sino de que el sistema gestione interrupciones, solapamientos y cambios de turno de palabra como lo haría una persona.

En esta hoja de ruta, OpenAI se prepara para presentar un nuevo modelo de audio a principios de 2026. Este modelo está pensado para funcionar como núcleo de una familia de dispositivos personales sin pantalla que operarían como compañeros cotidianos del usuario, en lugar de simples gadgets puntuales.

Los planes de la compañía encajan con declaraciones previas de su dirección, que ya había adelantado su intención de crear un dispositivo distinto del smartphone, capaz de «hacerlo todo» por el usuario a través de la voz. La idea pasa por un aparato consciente del contexto, que sepa cuándo merece la pena interrumpir y cuándo es mejor quedarse en segundo plano, sin reclamar atención visual constante y que pueda reconocer la voz del usuario.

Relacionado:  Cómo configurar un cañon a una laptop

Un modelo de audio capaz de hablar mientras el usuario habla

El aspecto más llamativo de esta nueva etapa es el salto cualitativo que OpenAI quiere dar en interacción por voz. Los modelos actuales suelen exigir turnos de conversación muy limpios: el usuario habla, el sistema escucha, procesa y responde. La meta ahora es que esa dinámica se acerque mucho más a una charla real.

Las filtraciones apuntan a que el próximo modelo de audio de OpenAI podrá gestionar interrupciones y solapamientos de forma más humana. Es decir, será capaz de entender cuando el usuario se corrige a mitad de frase, cuando pisa la respuesta del asistente o cuando lanza un «espera» para cambiar de tema. Esa sensibilidad al matiz conversacional es clave para que la experiencia no se sienta mecánica.

Además, se trabaja en que el sistema pueda responder mientras el usuario todavía está hablando. Hoy en día, la mayoría de asistentes de voz esperan a que el interlocutor termine para empezar a contestar, algo muy alejado de cómo conversan dos personas. Si OpenAI logra que la IA escuche y hable a la vez con cierta soltura, la sensación de rigidez y latencia podría reducirse notablemente.

Todo esto exige que los modelos de audio sean no solo más potentes, sino también más eficientes y ligeros. Parte del procesamiento deberá hacerse en el propio dispositivo para recortar tiempos de respuesta y aliviar la dependencia total de la nube, un punto especialmente sensible en entornos como Europa, donde las cuestiones de privacidad y protección de datos están más reguladas, lo que implica configurar los dispositivos de entrada y salida correctamente.

Un ecosistema de hardware sin pantalla y con vocación de «compañero»

El proyecto de OpenAI no se limita a un único aparato. La compañía estudia una familia completa de dispositivos sin pantalla, en la que cabrían desde altavoces compactos hasta posibles gafas inteligentes, y en la que el asistente de voz predeterminado jugaría un papel central. La filosofía común sería situar el audio como vía principal de interacción, relegando la pantalla a un papel secundario o, directamente, prescindir de ella.

Relacionado:  Guía de configuración JBL T360 BT para radio

Este planteamiento se alinea con la idea de computación ambiental que Sam Altman, consejero delegado de OpenAI, ha defendido en varias ocasiones: sistemas que están presentes y atentos, pero que no exigen que el usuario esté mirando un panel todo el tiempo. El dispositivo estaría ahí, escuchando órdenes o peticiones, pero sin robar protagonismo visual en cada tarea trivial.

En la práctica, estos aparatos se diseñarían para actuar como compañeros constantes más que como herramientas aisladas. Eso implica que, además de responder a preguntas, podrían ayudar a gestionar el día a día, recordar citas, contextualizar información o transcribir notas, integrándose de manera discreta en la rutina de trabajo y ocio.

Se ha mencionado incluso un proyecto de dispositivo compacto, apodado internamente como “Gumdrop”, descrito en algunos informes como un aparato del tamaño aproximado de un antiguo reproductor musical de clip, pero orientado a captar audio y contexto para alimentar las funciones de ChatGPT y otros servicios de la compañía.

Jony Ive y la búsqueda de un diseño menos adictivo

Una pieza clave en este rompecabezas es la incorporación de Jony Ive, histórico responsable de diseño en Apple, a la estrategia de hardware de OpenAI. Tras la adquisición de su estudio de diseño io por una cifra millonaria, Ive se ha convertido en una figura influyente en la forma que podría adoptar este futuro dispositivo sin pantalla.

Ive lleva tiempo expresando reservas sobre la deriva adictiva de muchos productos de consumo, en particular aquellos que dependen de atraer la mirada del usuario a una pantalla durante horas. Para él, el audio y la computación más discreta ofrecen una oportunidad de corregir algunos excesos de la última década, marcada por la guerra de notificaciones y el tiempo de pantalla.

La combinación entre el enfoque técnico de OpenAI y la visión de diseño de Ive abre la puerta a un dispositivo que intente minimizar la fricción visual y, al mismo tiempo, ofrezca una presencia constante cuando el usuario la necesite. No obstante, ese ideal choca con un riesgo evidente: un aparato que habla y escucha de continuo también puede acabar siendo intrusivo, aunque no tenga pantalla.

El reto para este nuevo hardware será encontrar un equilibrio entre utilidad, discreción y control por parte del usuario. Esto incluye desde el diseño físico y la comodidad de uso hasta las opciones claras para silenciar el micrófono, borrar interacciones o limitar qué tipo de datos se almacenan y durante cuánto tiempo.

Relacionado:  Configuración de convenio salarial por empleador con categorías ilimitadas

Un cambio de etapa: menos pantallas, más voz y más dilemas

El viraje de OpenAI hacia un dispositivo personal sin pantalla refuerza una tendencia que se viene gestando desde hace años: las pantallas ya no son siempre la mejor solución. Cocinar, conducir, caminar cargado o simplemente descansar en el sofá son momentos en los que mirar un panel resulta molesto, y en los que una interacción por voz tiene mucho sentido.

La experiencia acumulada con altavoces inteligentes y asistentes de voz en el hogar ha demostrado que existe una base de usuarios dispuesta a hablar con la tecnología para tareas cotidianas. La diferencia ahora es la ambición de llevar ese modelo a un dispositivo personal que acompañe al usuario en cualquier contexto, desde la calle hasta la oficina, pasando por el coche o el transporte público.

Al mismo tiempo, la apuesta por un aparato siempre escuchando reabre debates sobre privacidad, vigilancia y ergonomía social. Hablarle a un dispositivo en un espacio compartido no es lo mismo que teclear en silencio en un teléfono. En Europa, donde han sido frecuentes los casos en los que reguladores cuestionan prácticas de recogida de datos por parte de grandes tecnológicas, este tipo de producto llegará necesariamente bajo una lupa más estricta.

OpenAI se sitúa así en una posición delicada pero estratégica: si consigue un dispositivo personal sin pantalla que resulte verdaderamente útil, respetuoso con la intimidad y menos absorbente que un smartphone, podría impulsar un cambio profundo en la forma en que usamos la tecnología a diario. Si falla en alguna de esas patas, el experimento podría sumarse a la lista de gadgets prometedores que nunca encontraron su hueco real.

Lo que se dibuja en el horizonte es una informática más hablada y menos miradas a la pantalla, en la que un pequeño dispositivo personal de audio haga de puente permanente con la inteligencia artificial. Falta por ver si los usuarios, especialmente en España y el resto de Europa, están dispuestos a convivir con un compañero digital sin pantalla en el bolsillo o en la solapa, y qué reglas pondrán sobre la mesa legisladores y reguladores para que esa convivencia no se convierta en un problema.

Artículo relacionado:
Cómo configurar mi dispositivo con el asistente