Brad Smith, un paciente con ELA avanzado, logra comunicarse nuevamente gracias a un implante cerebral de Neuralink que decodifica sus señales neurales, combinado con una clonación de su voz original hecha por ElevenLabs. El sistema transforma la actividad cerebral directamente en texto y en voz sintetizada, permitiéndole hablar por primera vez desde que perdió el control voluntario del movimiento, en 2024.
En 30 segundos
- Neuralink implantó un chip de 1.024 electrodos en el córtex motor de Brad Smith el 8 de noviembre de 2024
- El sistema descodifica la actividad cerebral de Smith en tiempo real, detectando patrones de intención de habla incluso sin movimiento físico
- ElevenLabs sintetiza esa actividad como texto y voz, usando grabaciones previas para clonar la voz original de Smith
- La FDA otorgó designación “Breakthrough Device” en mayo de 2025, acelerando el desarrollo clínico
- Hay 21 participantes en ensayos globales, con otros pacientes de lesión de médula espinal cervical también en el programa
¿Qué es Neuralink y cómo funciona?
Neuralink es una interfaz cerebro-computadora (BCI) desarrollada por la empresa de neurotecnología de Elon Musk. A diferencia del discurso popular (que habla de “leer mentes”), Neuralink no capta el pensamiento en sentido estricto. Lo que hace es descodificar las señales eléctricas que el cerebro sigue generando en el córtex motor cuando intenta realizar movimientos — en este caso, intentar formar palabras — incluso cuando el cuerpo ya no puede ejecutar esos movimientos.
El sistema funciona con IA: mientras Smith intenta pronunciar mentalmente palabras, el decodificador neuronal entrena un modelo que aprende a reconocer los patrones eléctricos únicos que su cerebro genera para cada palabra. Con el tiempo, la precisión mejora. Cuando quiere comunicarse, su intención motora se traduce en señales → el modelo predice qué palabras quiso decir → esas palabras se sintetizan como voz.
Eso sí: requiere entrenamiento consciente. No funciona mágicamente. El paciente tiene que participar en sesiones donde intenta hablar mentalmente mientras el sistema aprende. Acá viene lo interesante: la precisión actual no es perfecta, pero es suficientemente buena para conversación funcional.
El implante cerebral: especificaciones técnicas
El chip Neuralink Link es pequeño — aproximadamente del tamaño de una moneda. Contiene 1.024 electrodos microscópicos implantados quirúrgicamente en el córtex motor primario, la región cerebral responsable de la planificación del movimiento. Cada electrodo registra la actividad de decenas de neuronas. En conjunto, capturan aproximadamente 500.000 señales neurales por segundo.
La implantación es invasiva. Requiere cirugía cerebral donde un robot quirúrgico inserta el chip (según el equipo de Neuralink, con mayor precisión que un cirujano humano). El chip se comunica vía Bluetooth con un receptor externo. Necesita carga diaria — sin batería, no hay comunicación (limitación práctica importante).
Brad Smith: padre, electricista, primer paciente no verbal con éxito
Brad Smith tiene tres hijos. Fue electricista en Arizona hasta que la ELA empezó a avanzar. La Esclerosis Lateral Amiotrófica es degenerativa: destruye progresivamente las neuronas motoras. El movimiento voluntario se va. Primero los dedos. Luego los brazos. Luego el habla se vuelve arrastrada, ininteligible. Finalmente, solo quedan los ojos. Ya lo cubrimos antes en protección de datos de pacientes.
Smith llegó a ese punto — parálisis total con solo movimiento ocular disponible — cuando se sometió a la cirugía de Neuralink el 8 de noviembre de 2024. Elon Musk lo visitó antes del procedimiento. Después de la cirugía, tomó un tiempo de recuperación. Pero una vez que el sistema se activó y comenzó el entrenamiento, Smith pudo usarlo para comunicarse. Lo primero que preguntó: “¿Cómo funciona el juego Civilization?” (sí, en serio).
El impacto emocional es real. Smith ahora puede ver a sus hijos en los partidos de fútbol — no físicamente asistir, pero participar en conversaciones, hacer bromas, ser padre nuevamente en sentido comunicacional. Eso no es tecnología. Eso es recuperación de dignidad.
De señales cerebrales a palabras: el decodificador IA
El flujo es así: Smith intenta formar mentalmente una palabra o frase. Los 1.024 electrodos capturan los patrones de fuego neuronal. Esos datos van al decodificador — un modelo de machine learning entrenado con los intentos previos de Smith. El modelo predice qué quiso decir (con cierto nivel de confianza). La predicción se convierte en texto.
Acá viene lo bueno: Neuralink integra modelos de IA conversacional (ChatGPT, Grok) que sugieren completaciones contextuales durante la conversación. Ponele que Smith intenta decir “tengo hambre”. El modelo podría sugerir automáticamente “¿Quieres que te traiga algo?” para acelerar el intercambio. Esto reduce el tiempo de comunicación, que es crítico porque el flujo actual es más lento que el habla natural.
La precisión depende de dos cosas: la calidad del decodificador (entrena mejor con el tiempo) y la estabilidad de los electrodos (si el implante se mueve o se degrada, los registros empeoran). En el caso de Smith, según reportes, la precisión es lo suficientemente alta para conversación funcional, aunque no es 100% perfecta.
ElevenLabs y la clonación de su propia voz
Aquí está la parte que hace el sistema humano: la voz no es una voz sintética de máquina. Es la VOZ DE SMITH, clonada digitalmente.
Antes de perder completamente el habla, Smith tenía grabaciones de su voz hablando. ElevenLabs — una empresa especializada en síntesis de voz con IA — tomó esas grabaciones y creó un modelo de voz que replica su tonalidad, acento, cadencia original. Cuando el decodificador Neuralink genera texto, ese texto se sintetiza usando el modelo de voz de Smith. El resultado: suena como él, con sus características vocales específicas. Relacionado: sistemas como ChatGPT.
Esto no es cosa menor. Usar una voz sintética genérica habría sido funcional pero despersonalizante. Con la clonación, cuando Smith habla por el sistema, es reconocible. Sus hijos escuchan a su padre. El sistema es capaz de ser multilingüe si fuera necesario (el modelo puede aprender patrones en múltiples idiomas), pero por ahora Smith habla español e inglés naturalmente.
Aprobación regulatoria: FDA Breakthrough Device, mayo 2025
La FDA otorgó a Neuralink la designación “Breakthrough Device” en mayo de 2025 para restauración del habla en pacientes con ALS y otros trastornos que causan parálisis. Esta designación acelera el proceso de aprobación regulatoria porque reconoce el potencial terapéutico significativo y la falta de alternativas existentes.
Ojo: “Breakthrough Device” no es aprobación final. Es un camino acelerado para ensayos clínicos. Actualmente hay 21 participantes en ensayos globales — algunos con ALS como Smith, otros con lesión completa de médula espinal cervical. Los datos que se recopilen en los próximos meses determinarán si Neuralink avanza a aprobación completa o si necesita ajustes.
Limitaciones, desafíos y lo que viene
No es magia. Los desafíos son reales.
Primero: es cirugía invasiva. Implantes cerebrales. Riesgo quirúrgico. No todos los pacientes son candidatos (requiere salud cognitiva suficiente, expectativa de vida razonable, acceso a seguimiento médico). Para muchas personas con ELA, el momento de la cirugía es crítico — demasiado pronto y el paciente podría mejorar naturalmente; demasiado tarde y la progresión neurológica hace que el entrenamiento sea imposible.
Segundo: la velocidad actual es lenta comparada con el habla natural. Smith puede escribir/hablar mediante el sistema, pero lleva más tiempo que una conversación normal. Neuralink está trabajando en mejorar la velocidad de decodificación.
Tercero: dependencia de hardware. Requiere carga diaria. Si el implante se degrada (lo que eventualmente podría pasar con el tiempo), ¿qué pasaría? No está claro si sería reversible o si requeriría cirugía nueva.
Cuarto: actualmente, el sistema funciona para comunicación de texto-a-voz. ¿Qué hay de movimiento? ¿Pueden los pacientes mover un cursor, controlar brazos robóticos, manejar dispositivos? Eso está en investigación. Hay reportes de participantes que lograron controlar cursores, pero no es funcional todavía como control general de dispositivos.
Lo que viene: Neuralink mencionó integración con cámaras (como la Insta360 Link 2) para que pacientes puedan ver y navegar visualmente. Control de dispositivos del hogar. Eventualmente, posiblemente, movimiento robótico. Pero esos son planes, no realidad todavía. Esto se conecta con lo que analizamos en Claude y otros modelos modernos.
Tabla comparativa: Neuralink vs. otras opciones de comunicación para ELA
| Opción | Costo | Invasividad | Precisión | Velocidad | Requiere Entrenamiento |
|---|---|---|---|---|---|
| Neuralink (BCI invasiva) | No público (estimado USD 50-150k) | Cirugía cerebral | Alta (mejora con uso) | Moderada (mejorando) | Sí, extenso |
| Comunicador ocular (eye-tracker) | USD 5-20k | No invasiva | Moderada | Lenta (paciencia requerida) | Bajo |
| Speech recognition por voz residual | USD 500-5k | No invasiva | Variable (depende tono residual) | Depende habla | Bajo |
| BCI no invasiva (EEG) | USD 5-50k | No invasiva (gorro) | Baja a moderada | Muy lenta | Sí, moderado |
| AAC (Augmentative and Alternative Communication) tradicional | USD 200-2k | No invasiva | Alta (selección manual) | Muy lenta (selección) | Bajo |

Ejemplos concretos: qué puede hacer Smith ahora
Ejemplo 1: Smith está viendo un partido de fútbol con su familia. No puede ni mover la cabeza. Pero puede usar el sistema Neuralink para decirle a su hijo “qué jugada buena, boludo” (en su español natural). El decodificador capta la intención de habla, ElevenLabs sintetiza su voz, y su hijo lo escucha. Conversación real, con tiempo de latencia, pero funcional.
Ejemplo 2: Smith quiere pedir agua. Intenta mentalmente decir “tengo sed”. El decodificador predice correctamente. El sistema sintetiza su voz. Un cuidador o familiar lo escucha y le trae agua. Así de simple. Antes de Neuralink, tendría que esperar a que alguien notara una necesidad basándose en parpadeos o movimientos oculares.
Errores comunes sobre Neuralink
Error 1: “Lee mentes, captura pensamientos”
Incorrecto. Neuralink captura la actividad motora — específicamente, los patrones que el córtex motor genera cuando intenta coordinar el habla. No sabe qué estás PENSANDO (si estás deprimido, ansioso, o qué opinás de tu jefe). Solo sabe qué intención de movimiento está generando tu cerebro. Si pensás en pizza pero no intentás hablar, el sistema no lo capta.
Error 2: “La precisión es perfecta”
Incorrecto. En el caso de Smith, la precisión es SUFICIENTE para comunicación funcional, pero no es 100%. El sistema comete errores. El entrenamiento continuo (Smith tiene que practicar intenciones de habla regularmente) mejora la precisión con el tiempo. Pero no esperes transcripción de voz natural — la velocidad es más lenta y hay margen de error.
Error 3: “El implante es reversible; si no funciona, se puede sacar”
No está claro. La cirugía de implantación es invasiva. Sacar el implante sería otra cirugía. La cicatrización cerebral podría ser un problema. Nadie sabe si después de algunos años el implante se degrada o si es viable sacarlo. Esto es un compromiso a largo plazo, no un experimento temporal.
Preguntas Frecuentes
¿Cómo funciona exactamente el implante cerebral de Neuralink en pacientes con ELA?
Se implanta quirúrgicamente un chip de 1.024 electrodos en el córtex motor. Mientras el paciente intenta mentalmente formar palabras, los electrodos capturan los patrones de fuego neuronal. Un modelo de IA entrena con esos patrones, aprendiendo a reconocer qué palabra quiso decir el paciente. Luego, cuando el paciente intenta hablar nuevamente, el decodificador predice la palabra y la sintetiza como voz (usando una clonación de la voz original del paciente).
¿Qué es Brad Smith y cómo usa Neuralink para comunicarse?
Brad Smith es un paciente con ELA avanzado (parálisis total) que recibió el implante de Neuralink el 8 de noviembre de 2024. Ahora usa el sistema para comunicarse con su familia nuevamente. Intenta mentalmente decir palabras, el decodificador las predice, y ElevenLabs sintetiza su voz original. Es el primer caso publicitado de éxito con un paciente completamente no verbal. Más contexto en cómo funcionan los modelos de lenguaje.
¿Neuralink realmente puede leer los pensamientos?
No. Lee la actividad motora — la actividad que tu cerebro genera cuando intenta HACER algo (hablar, mover un brazo). No sabe qué pensás, qué sentís, ni accede a tu privacidad mental. Si no intentás hablar, el sistema no capta nada.
¿Cuál es la precisión del sistema Neuralink para decodificar la voz?
Según reportes sobre Smith, la precisión es suficiente para conversación funcional (estimado 90%+ en condiciones de entrenamiento óptimo). Mejora con el uso. No es perfecta — hay errores ocasionales — pero es lo suficientemente buena para comunicación significativa. La velocidad actual es más lenta que el habla natural.
¿Cuáles son los riesgos y limitaciones del implante Neuralink?
Riesgos: cirugía cerebral invasiva (infección, hemorragia, daño neurológico). Limitaciones: es lento comparado con el habla natural, requiere entrenamiento extenso, depende de carga diaria, no es reversible con claridad, no todos son candidatos quirúrgicos. El implante podría degradarse con el tiempo. No hay garantía de qué pasará en 5-10 años.
Conclusión
Neuralink en Brad Smith no es ciencia ficción. Es una prueba de concepto real de que una interfaz cerebro-computadora puede devolver la comunicación a alguien que la perdió completamente. No es perfecto. Es lento. Requiere cirugía invasiva. Pero funciona — y eso es revolucionario en el contexto de la ELA.
La designación de Breakthrough Device de la FDA (mayo 2025) no es un accidente. Reconoce que para pacientes con ELA en etapas avanzadas, las alternativas son prácticamente inexistentes. Un sistema ocular es muy lento. La síntesis de voz por EEG no invasiva es aún más imprecisa. Neuralink ofrece comunicación funcional cuando no hay opciones.
¿Qué significa para el futuro? Probable expansión del programa a más pacientes. Mejora incremental de la precisión y velocidad. Posible integración con control de dispositivos y robótica. El modelo de Neuralink también podría aplicarse a otras condiciones — lesión de médula espinal, esclerosis múltiple, parálisis cerebral. El alcance es grande.
Pero mantengamos perspectiva: esto es tecnología en fase temprana. Funciona para Smith, pero es un case study de uno (21 participantes en ensayos, pero solo algunos con ALS). Los datos a largo plazo no existen aún. Si considerás someterte a cirugía cerebral, eso requiere conversación seria con tu neurocirujano, no entusiasmo por la tecnología.
