La industria de las interfaces cerebro-computadora lleva años prometiendo una nueva forma de relacionarse con los ordenadores. Hasta ahora, la imagen dominante era la de Neuralink: un implante cerebral, cirugía de alta precisión y una conexión directa entre neuronas y máquina. Sabi, una startup de Palo Alto que acaba de salir del modo sigiloso, quiere abrir una ruta muy distinta: un sistema no invasivo, con forma de gorro o gorra, capaz de convertir habla interna en texto en pantalla.
La propuesta suena a ciencia ficción, pero lo relevante no es solo el concepto, sino el enfoque. Según Wired, Sabi trabaja en un wearable basado en EEG capaz de decodificar palabras pensadas sin necesidad de voz, teclado ni cirugía. La compañía asegura que su primer producto, una especie de beanie o gorro de lana, podría llegar a finales de 2026, y ya prepara también una versión con formato de gorra de béisbol.
Qué promete exactamente Sabi
La tesis de Sabi parte de una limitación bien conocida en el sector. Los sistemas EEG no invasivos recogen señales desde el cuero cabelludo, de modo que la actividad cerebral llega atenuada tras atravesar piel y hueso. La señal es más débil y más ruidosa que en un implante, y por eso la mayoría de los dispositivos no invasivos han chocado históricamente con un techo de precisión y de velocidad. La propia literatura científica sigue señalando ese bajo nivel de señal útil y la limitada resolución espacial como dos de los grandes obstáculos de las BCI no invasivas.
Sabi dice haber decidido atacar ese problema por dos vías. La primera es el hardware: la startup afirma haber metido entre 70.000 y 100.000 sensores miniaturizados en un gorro, muy por encima de los EEG convencionales. La segunda es el software: entrenar lo que describe como un “Brain Foundation Model” con 100.000 horas de actividad neuronal procedentes de 100 voluntarios, para intentar mapear patrones de habla interna y convertirlos en texto útil. Wired recoge además que el objetivo inicial de la empresa es alcanzar unas 30 palabras por minuto.
Ese dato ayuda a poner el anuncio en contexto. Treinta palabras por minuto no compiten todavía con un teclado físico ni con un mecanógrafo experimentado, pero sí bastan para entender por qué el sector mira con atención este proyecto. Si una interfaz así funcionara de forma razonablemente robusta, sin calibración diaria, sin molestias físicas y sin necesidad de pasar por un quirófano, el mercado potencial sería incomparablemente mayor que el de un implante destinado solo a casos clínicos concretos. Eso es, precisamente, lo que uno de sus inversores, Vinod Khosla, resume con claridad en el reportaje de Wired: si se aspira a que miles de millones de personas utilicen una BCI en su vida cotidiana, no puede ser invasiva.
El contraste con Neuralink explica por qué importa
La comparación con Neuralink surge sola, pero conviene hacerla bien. Neuralink desarrolla una interfaz implantable, el N1 Implant, pensada primero para personas con parálisis o graves limitaciones motoras. La compañía explica en su web que el dispositivo se coloca mediante cirugía robótica, es completamente implantable y registra actividad neuronal a través de 1.024 electrodos distribuidos en 64 hilos. También ha abierto estudios clínicos orientados al control de ordenadores y a la restauración del habla.
Eso le da una ventaja evidente: la señal es mucho más fuerte y directa. Pero también introduce un límite de escala evidente: no todo el mundo va a someterse a una intervención cerebral para escribir más deprisa en su ordenador. Ahí es donde Sabi plantea su gran ruptura narrativa. En lugar de buscar la máxima fidelidad a costa de una cirugía, apuesta por una señal más débil pero potencialmente utilizable por mucha más gente. Es, en cierto modo, la diferencia entre un producto médico altamente especializado y un wearable que sueña con parecerse más a unos auriculares o a un reloj inteligente.
Lo interesante es que ambas visiones no son exactamente rivales directas, al menos de momento. Neuralink sigue muy centrada en aplicaciones clínicas de alto impacto para personas con necesidades médicas concretas. Sabi, en cambio, quiere hablar ya de acceso cotidiano al ordenador, productividad y una futura relación casi natural con agentes de Inteligencia Artificial. Son dos caminos distintos dentro del mismo campo. Uno empieza en el quirófano. El otro quiere empezar en una prenda que alguien pueda ponerse al salir de casa.
La gran pregunta no es si impresiona, sino si funcionará fuera de la demo
Aquí es donde conviene enfriar el entusiasmo. Hoy por hoy, Sabi ha presentado una visión de producto muy ambiciosa y unos objetivos técnicos llamativos, pero eso no equivale todavía a una validación amplia en el mercado ni a una demostración pública independiente al nivel que exigiría una revolución del interfaz humano-máquina. En las fuentes públicas consultadas, la empresa ha expuesto arquitectura, cifras de sensores, volumen de datos y metas de lanzamiento, pero no ha acompañado ese estreno con un gran ensayo revisado por pares que cierre el debate sobre precisión, tasa de error, latencia o robustez en uso cotidiano.
Y no es una objeción menor. En los últimos años, varios trabajos científicos han advertido de lo difícil que sigue siendo descodificar habla imaginada con EEG de forma consistente, y algunos estudios recientes incluso alertan del riesgo de sobreinterpretar resultados cuando los modelos aprenden patrones espurios o se benefician de ruido, más que de señal cerebral genuina. Por eso, en este terreno, la distancia entre una idea brillante y un producto realmente transformador sigue siendo enorme.
Aun así, sería un error despachar a Sabi como simple humo. Si la startup logra demostrar que un wearable no invasivo puede traducir habla interna con una velocidad útil y sin fricción clínica, el impacto sería enorme. No solo para personas con discapacidad o dificultades de comunicación, que seguirían siendo un caso de uso muy importante, sino también para el mercado general: escribir sin hablar, controlar software sin tocar nada y, en última instancia, relacionarse con agentes de IA a la velocidad del pensamiento. La promesa es enorme. El reto técnico, también.
Sabi todavía no ha probado que vaya a cambiar la informática personal. Pero sí ha conseguido algo difícil: que la conversación sobre las interfaces cerebro-computadora deje de girar solo alrededor del bisturí y empiece a mirar también a la ropa que uno podría llevar puesta. Y si ese giro acaba funcionando, entonces sí podría empezar una nueva era del ordenador personal, una en la que el clic, el teclado y la voz ya no sean las únicas puertas de entrada.
Preguntas frecuentes
¿Qué es exactamente Sabi y qué está desarrollando?
Sabi es una startup de Palo Alto que trabaja en una interfaz cerebro-computadora no invasiva con forma de gorro o gorra. Su objetivo es convertir la habla interna o pensamiento verbal en texto en pantalla mediante EEG y modelos de IA.
¿En qué se diferencia Sabi de Neuralink?
Sabi apuesta por un sistema externo y no invasivo, mientras que Neuralink desarrolla un implante cerebral quirúrgico con 1.024 electrodos pensado inicialmente para personas con parálisis o graves limitaciones motoras.
¿Qué velocidad promete el primer dispositivo de Sabi?
Según Wired, la empresa apunta a unas 30 palabras por minuto en su primera versión comercial, prevista para finales de 2026.
¿Está demostrado ya que un EEG no invasivo pueda leer pensamientos con fiabilidad alta?
La investigación avanza, pero sigue habiendo obstáculos importantes, sobre todo por la baja relación señal-ruido y la limitada resolución espacial de los sistemas EEG no invasivos. Por ahora, el reto sigue siendo convertir esos avances en un producto robusto y reproducible fuera de entornos muy controlados.

