BRAIN COMPUTER INTERFACES para Lectura de Pensamientos

Submitted by admin on Sun, 03/12/2023 - 12:16

 

La Agencia de Proyectos de Investigación Avanzada de Defensa (Darpa) ha estado financiando la investigación del cerebro desde la década de 1970.

En 2001, la agencia militar lanzó un programa para “desarrollar tecnologías para aumentar los combatientes”.

1) BRAIN COMPUTER INTERFACES PARA LECTURA DEL PENSAMIENTO HABLADO

A) NASA (2004)

https://www.nasa.gov/home/hqnews/2004/mar/HQ_04093_subvocal_speech.html

 Los científicos de la NASA han comenzado a computarizar la lectura silenciosa humana utilizando señales nerviosas en la garganta que controlan el habla.

En su primer experimento, los científicos "entrenaron" un software especial para reconocer seis palabras y 10 dígitos que los investigadores repetían subvocalmente. Los resultados iniciales del reconocimiento de palabras tuvieron una precisión promedio del 92 por ciento. Las primeras palabras subvocales que el sistema "aprendió" fueron "stop", "go", "left", "right", "alpha" y "omega", y los dígitos "cero" a "nueve". Pronunciando estas palabras en silencio, los científicos realizaron búsquedas simples en Internet utilizando un gráfico numérico que representaba el alfabeto para controlar un programa de navegación web.

👆👆 2004


B) Sobre DARPA

https://es.m.wikipedia.org/wiki/Defense_Advanced_Research_Projects_Agency

DARPA segun wikipedia

Wikipedia parece bastante objetiva aunque a vece falla

Esto esta extraido literalmente de la pagina anterior de wikipedia

" Algunos rumores dicen que en los 70 el Pentágono financió un proyecto para relacionar ciertos gráficos de ondas cerebrales con ciertos pensamientos con el fin de que fuera posible a través de un equipo leer los pensamientos de una persona a cierta distancia esto se ocuparía con fines de defensa según los dichos de Robert Stone.

Y uno de los proyectos activos de DARPA es DARPA Silent Talk - Un programa capaz de identificar patrones EEG de palabras y capaz de transmitirlos para comunicaciones encubiertas. 

Silent talk

 

Un programa más reciente de DARPA es el N3 (proyecto de neurotecnologías no quirúrgicas de próxima generación para soldados)

https://idstch.com/technology/biosciences/darpa-n3-developing-nonsurgical-brain-machine-interfaces-for-soldiers-to-use-his-thoughts-alone-to-control-multiple-unmanned-vehicles-or-a-bomb-disposal-robot-on-battlefield/

Todos los equipos de N3 planean usar alguna combinación de luz, ultrasonido o energía electromagnética para leer y escribir la actividad cerebral.

C) THE INITIATIVE BRAIN 

https://youtu.be/C7e4WSsDUsY

Habla Rafael Yuste 

Habla  de "THE INITIATIVE BRAIN" y dice que tendrá una duración de 15 años (hasta el 2013-2028) y un coste 6000 millones de dólares

Trabajan con implantes.

Inyectan substancias fluorescentes a animales para "iluminar' sus neuronas cuando se activaban.

Y hablaba de poder tratar enfermedades y recuperar el movimiento o poder comunicarse mediante lectura del pensamiento y una Brain Computer Interface.

El vídeo del 2018

 

La web oficial de "THE INITIATIVE BRAIN" es:

https://braininitiative.nih.gov/

También está el análogo europeo "THE HUMAN BRAIN PROJECT" cuya web es:

https://www.humanbrainproject.eu/en/

También es aproximadamente de la misma fecha

D) Sobre Facebook

https://www.abc.es/tecnologia/abci-seran-gafas-facebook-permitiran-comunicarte-mente-201908011050_noticia_amp.html

Facebook afirma, a través de un comunicado , que está progresando en el desarrollo de unas gafas que permiten al usuario escribir con la mente.

 Ya hace más de dos años que la compañía de Mark Zuckerberg anunció en la conferencia anual de desarrolladores F8 que estaba trabajando en este proyecto, sin embargo, hace tiempo que no ofrecían ninguna información sobre su estado. Según afirmaron por entonces, en 2017, el dispositivo, que consistiría en unas gafas de realidad aumentada (AR), permitiría al usuario escribir palabras simplemente imaginando que está hablando. El sistema no sería invasivo y, a su vez, no haría falta decir nada ni realizar ningún movimiento para que funcionase.

En el comunicado, Facebook se hace eco del trabajo realizado por unos investigadores de la Universidad de California, ubicada en San Francisco (USCF), que han conseguido gracias a su trabajo decodificar un pequeño grupo de palabras en un monitor en tiempo real mientras hablaban.

que el objetivo de la universidad estadounidense es desarrollar un sistema que pueda ayudar a las personas con afecciones neurológicas. De este modo, esperan que este alcance una velocidad de decodificación de 100 palabras por minuto, con un vocabulario de 1.000 palabras y con una tasa de error por palabra inferior al 17 por ciento.

El jefe del proyecto de Facebook es un exdirector de DARPA

*****************************

Y también de los investigadores de Meta (Facebook) descifrando lo que uno oye a través de las ondas cerebrales

https://time.com/6210261/meta-ai-brains-speech/

 

Investigadores de Meta , la empresa matriz de Facebook , están trabajando en una nueva forma de comprender lo que sucede en la mente de las personas. El 31 de agosto, la compañía anunció que los científicos investigadores en su laboratorio de IA han desarrollado una IA que puede “escuchar” lo que alguien está escuchando, mediante el estudio de sus ondas cerebrales.

2022

 

E) Sobre Neuralink

https://www.techspot.com/amp/news/80991-elon-musk-neuralink-aims-implant-mind-reading-sensors.html

 Neuralink de Elon Musk apunta a implantar sensores de lectura mental en cerebros humanos el próximo año

 Mirando hacia el futuro: Neuralink, la compañía de Elon Musk que tiene como objetivo crear "interfaces cerebro-máquina de ancho de banda ultra alto para conectar humanos y computadoras", ha revelado por primera vez parte de su tecnología en desarrollo.  Esto incluye un dispositivo inalámbrico implantado en el cerebro que podría permitir a los usuarios controlar teléfonos inteligentes y computadoras con sus pensamientos.


 Neuralink ha desarrollado hilos flexibles, más delgados que un cabello humano, que pueden inyectarse en el cerebro para detectar la actividad neuronal.  También ha construido un robot que utiliza una aguja de 24 micras para incrustarlos automáticamente.

 Los dispositivos solo se han probado en animales hasta el momento, incluidas ratas y monos, pero Neuralink espera obtener la aprobación de la FDA para ensayos clínicos en humanos para el próximo año.  Si funciona según lo previsto, los pacientes podrían escribir mensajes de texto y correos electrónicos simplemente pensando en las palabras.  También podrían mover el cursor del mouse y navegar por las páginas web solo con sus mentes.

F) Sobre "Alter Ego" del MIT

https://cadenaser.com/ser/2018/04/05/ciencia/1522921010_565951.html

 habla silenciosa, también conocida como subvocalización, es un hábito muy común, sobre todo entre los lectores, que consiste en decir palabras en nuestra mente sin la necesidad de expresarlas mediante la voz. El dispositivo desarrollado por el MIT aprovecha las leves señales que se producen en los músculos durante este hábito y lo interpreta para llevar a cabo las acciones deseadas.

de los altavoces inteligentes, el Instituto Tecnológico de Massachusetts (MIT) ha decidido ir un paso más allá. Un grupo de investigadores del centro ha creado recientemente AlterEgo, un sistema portátil que permite al usuario conversar con cualquier dispositivo sin la necesidad de decir ni una sola palabra. Todo ello a través del fenómeno conocido como habla silenciosa.

G) Universidad de Berkeley: Reproducir lo que uno escucha. 

https://www.dailymail.co.uk/sciencetech/article-5628953/The-Black-Mirror-style-mind-reading-device-READ-voices-internal-monologue.html

Los científicos en California han creado una máquina para leer la mente que revela la canción en la que se está pensando simplemente al estudiar la actividad eléctrica del cerebro.

El Dr. Pasley dijo: 'Algunas neuronas se preocupan por una frecuencia específica cuando escuchas un sonido real.

 

"El mismo conjunto de neuronas se preocupa por esa misma frecuencia cuando imaginas ese sonido", dijo a New Scientist .

El mes pasado, investigadores de la Universidad de California anunciaron que habían desarrollado una máquina para leer la mente que puede traducir lo que estás pensando y mostrarlo instantáneamente como texto.

Afirmaron que tiene una tasa de precisión del 90 por ciento o más y dicen que funciona interpretando consonantes y vocales en nuestro cerebro.

2018👆👆

 

H) Instituto Weill de neurociencia

 https://www.nature.com/articles/s41586-019-1119-1

La tecnología que traduce la actividad neuronal en habla sería transformadora para las personas que no pueden comunicarse como resultado de deficiencias neurológicas.

 Las redes neuronales recurrentes primero decodificaron directamente la actividad cortical registrada en representaciones del movimiento articulatorio y luego transformaron estas representaciones en acústica del habla.

Las representaciones articulatorias decodificadas se conservaron en gran medida entre los hablantes, lo que permitió que un componente del decodificador fuera transferible entre los participantes.

Además, el decodificador podía sintetizar el habla cuando un participante imitaba oraciones en silencio. Estos hallazgos hacen avanzar la viabilidad clínica del uso de la tecnología neuroprotésica del habla para restaurar la comunicación hablada.

 

*******************************

 Revista científica IOPscience

Brain2Char: a deep architecture for decoding text from brain recordings - IOPscience


https://iopscience.iop.org/article/10.1088/1741-2552/abc742/meta

RESULTADOS PRINCIPALES

En 3 de 4 participantes  Brain2Char consiguió tasas de error en palabras traducidas menores al 10.6%, 8.5%, y 7.0% respectivamente con un vocabulario de palabras cerrado de 1200 a 1900 palabras.
👆👆

(2020 )  Edward F. Chang

*********************************

 https://spectrum.ieee.org/amp/brain-computer-interface-speech-2658503518

 Este implante convierte las ondas cerebrales en palabrasUna interfaz cerebro-computadora descifra los comandos destinados al tracto vocal

En el enlace hay un YouTube donde se ve en directo a la brain computer interface traduciendo pensamientos a texto

El grupo de investigación se centra en las partes de la corteza motora del cerebro que envían órdenes de movimiento a los músculos de la cara, la garganta, la boca y la lengua.

👆👆 Edward Chang (Octubre 2022)

 

I) UNIVERSIDAD DE STANFORD

 https://www.mundodeportivo.com/urbantecno/ciencia/escribir-con-la-mente-es-posible-y-este-implante-cerebral-acaba-de-batir-un-nuevo-record

 Hemos conocido el desarrollo de una de estas "Brain Computer Interfaces", que permitirá al paciente poder transformar sus pensamientos en texto y que lo ha hecho rompiendo un récord de velocidad.

 Pudiendo transmitir información a un ritmo de 62 palabras por minuto, lo que supone realizar esa titánica tarea tres veces más rápido de lo previamente investigado

El "Brain Computer Interface" utilizado se compone de un par de electrodos implantados en el córtex cerebral, la región encargada de controlar el movimiento del cuerpo.

 

J) Equipo de la UNIVERSIDAD DE TEXAS en Austin mediante resonancia magnética funcional (Abril 2023)

https://elpais.com/ciencia/2023-05-01/un-descodificador-lee-los-pensamientos-grabados-por-un-escaner-cerebral.html

Según sus resultados, publicados hoy en la revista científica Nature Neuroscience, este descodificador que han llamado “semántico” fue capaz también de verbalizar lo que pensaban y, aún más, lo que les pasaba por la cabeza mientras veían cine mudo.

En esta investigación,  entrenaron el sistema de inteligencia artificial con las imágenes fMRI del cerebro de tres personas a las que hicieron oír 16 horas de audios de un consultorio del New York Times y del programa The Moth Radio Hour.

Este científico está “absolutamente convencido de que la información semántica se utilizará en las interfaces cerebro máquina para hablar en el futuro”.

También comprobaron que el modelo entrenado con una persona no acertaba a descifrar lo que oía o veía otra.

 

K) Using only 'brain recordings' from patients, scientists reconstruct a Pink Floyd song

https://phys.org/news/2023-08-brain-patients-scientists-reconstruct-pink.html

Un grupo de pacientes epilépticos a los cuales se le les había implantado en el cerebro un chip relativamente grande (hace unos años) para controlarles la epilepsia y mejorar su calidad de vida.

Pues ahora hicieron un experimento con ellos, les hicieron escuchar una canción de Pink Floyd 

Mientras escuchaban la canción los electrodos del chip implantado en los cerebros de los pacientes capturaron la actividad eléctrica de las regiones cerebrales conocidas por procesar los atributos de la música (tono, ritmo, armonía y palabras) mientras los investigadores reproducían un clip de tres minutos de la canción.

Y aparte de la actividad eléctrica (los voltajes) fueron capaces no sólo de reproducir la letra de la canción, sino características tales como el tono, el ritmo, la armonía

 

De todas maneras también dicen que tiene que ser con chips implantados pues el clásico electroencefalograma con electrodos en el cuero cabelludo de la cabeza no sirve pues serían señales eléctricas con mucha menos calidad

Agosto 2023

L) Cada vez está más cerca la 'pastilla' que sería capaz de devolver la capacidad de comunicación natural a los pacientes que sufren las secuelas de trastornos neurológicos. 

https://www.elmundo.es/ciencia-y-salud/salud/2023/08/23/64e616b8fc6c8338078b45bf.html

 ¿CÓMO FUNCIONAN LOS DOS SISTEMAS?

                     EL PRIMERO

Pat Bennett tiene implantados cuatro sensores del tamaño de aspirinas para bebés.

"Este sistema está entrenado para saber qué palabras deben ir antes que otras y qué fonemas forman qué palabras",

Bennett ha conseguido comunicarse a una velocidad media de 62 palabras por minuto, y se acerca a la velocidad de una conversación natural, que son alrededor de 160 palabras por minuto. El sistema logró una tasa de error de palabras del 9,1% en un vocabulario de 50 palabras en el 2021. Y también se logró una tasa de error de palabras del 23,8% en un vocabulario de 125.000 palabras.

 

                     EL SEGUNDO

El equipo de Edward F. Chang también ha puesto en marcha con éxito otra prueba de concepto de un Brain Computer Intrrface. En este caso, han empleado 253 electrodos no penetrantes que se colocan en la superficie del cerebro y detectan la actividad eléctrica de muchas células en sitios de toda la corteza del habla.

 

La traducción de cerebro a texto generó una velocidad media de 78 palabras por minuto y se aproxima aún más a la velocidad de la conversación natural. El sistema alcanzó una tasa de error de palabras del 4,9% al decodificar oraciones de un conjunto de 50 frases

Agosto 2023

M) FORO ECONÓMICO MUNDIAL DE DAVOS 

https://www.popularmechanics.com/technology/a42626684/artificial-intelligence-can-decode-your-braninwaves/

Nita Farahany (Universidad de Duke) "La batalla por tu cerebro" en el Foro Económico Mundial de Davos de enero del 2023

 Según ella, la tecnología para decodificar nuestras ondas cerebrales ya existe. Y es probable que algunas empresas ya estén probando la tecnología.

“La inteligencia artificial ha permitido avances en la decodificación de la actividad cerebral de formas que nunca antes creímos posibles. Lo que piensas, lo que sientes, son solo datos, datos que en grandes patrones pueden decodificarse usando inteligencia artificial”.

 “El futuro próximo, y me refiero al futuro a corto plazo, estos dispositivos se convierten en la forma común de interactuar con todos los demás dispositivos. Es un futuro emocionante y prometedor, pero también un futuro aterrador."

"La vigilancia del cerebro humano puede ser poderosa, útil, útil, transformar el lugar de trabajo y mejorar nuestras vidas. También tiene una posibilidad distópica de ser utilizado para explotar y traer a la superficie nuestro ser más secreto”

 “Cuando combinas la actividad de las ondas cerebrales con otras formas de tecnología de vigilancia”, dijo Farahany, “el poder se vuelve bastante preciso”.

 

2) BRAIN COMPUTER INTERFACES PARA LECTURA DEL PENSAMIENTO VISUAL

A) Equipo de Berqueley en 1999

 Yang Dan y su equipo han logrado decodificar las señales de los electrodos implantados en el tálamo de un gato de reconstruir lo que vio este gato.

https://m.youtube.com/watch?v=FLb9EIiSyG8

En este Youtube se ve el éxito del experimento de Yang Dan. Dura 1 minuto y treinta segundos, las imágenes que descodifican del gato en tiempo real salen  cuadriculadas

El equipo utilizó una serie de electrodos incrustados en el tálamo (que integra toda la información sensorial del cerebro) de gatos de ojos agudos.

Usando filtros matemáticos, los investigadores decodificaron las señales para generar películas de lo que vieron los gatos y pudieron reconstruir escenas reconocibles y objetos en movimiento.

 

B) Universidad de Berqueley en 2011

https://news.berkeley.edu/2011/09/22/brain-movies/

El equipo del profesor Jack Gallant reproduce videos de las imágenes en directo que ve una persona a partir de la actividad del cerebro medida con resonancia magnética funcional 

 

Ya en el 2008 hiciera el mismo experimento pero con fotos

 

C) Equipo de Rajesh Rao y Jeff Ojemann de la Universidad de Washington en el 2016

https://www.livescience.com/amp/53535-computer-reads-thoughts-instantaneously.html

Los investigadores pueden predecir lo que la gente está viendo basándose en las señales eléctricas provenientes de los electrodos implantados en su cerebro.

Los implantes se los colocaron en el lóbulo temporal.

La computadora pudo predecir, con un 96 por ciento de precisión, lo que la persona realmente vio.

 

 

D) Universidad Rusa en 2019


Esta inteligencia artificial es capaz de mostrarte en qué estás pensando: sólo necesita analizar tus ondas cerebrales

https://www.xataka.com/inteligencia-artificial/esta-inteligencia-artificial-capaz-mostrarte-que-estas-pensando-solo-necesita-analizar-tus-ondas-cerebrales

un equipo de científicos rusos, compuesto por investigadores tanto de la compañía Neurobotics como del Instituto de Física y Tecnología de Moscú (MIPT), han diseñado una tecnología capaz de reconstruir las imágenes que está visualizando una persona en dicho momento. Y de hacerlo, además, sin necesidad de agresivos implantes cerebrales.


esta técnica tan sólo requiere del uso de los típicos electrodos, de tal manera que sean capaces de elaborar la electroencefalografía (EEG) del sujeto. A partir de esta información, los científicos han recurrido a redes neuronales para que éstas 'traduzcan' en tiempo real la EEG y puedan recrear la información visual que está captando el cerebro.

En el enlace hay un vídeo del experimento

 

 

E) Equipo de Jacob Robinson de la Universidad Rice trabajando para DARPA dentro del programa N3 en el 2019

https://www.fanaticalfuturist.com/2019/09/new-darpa-neuro-tech-project-will-let-people-telepathically-transmit-images-to-other-peoples-brains/

El equipo dirigido de neuroingenieros se embarca en un ambicioso proyecto de cuatro años para desarrollar tecnología de auriculares que pueda vincular directamente el cerebro humano y las máquinas sin necesidad de cirugía.

Como primera prueba de concepto, el equipo planea transmitir imágenes visuales percibidas por un individuo a la mente de los pacientes ciegos.

 

 

F) Equipo de Rafael Yuste director de "Brain Initiative" en el 2019.

 https://www.reuters.com/article/us-global-tech-lawmaking-analysis-trfn-idUSKBN2BL1RH

"Podríamos hacer que el animal viera algo que no vio, como si fuera una marioneta", dijo a la Fundación Thomson Reuters en una entrevista telefónica.

 "Si podemos hacer esto hoy con un animal, seguro que podemos hacerlo mañana con un humano".

 Los avances en la ciencia del cerebro, como los realizados por el equipo de Yuste, han hecho posible penetrar en el cerebro mediante censores e implantes y acceder a cierto grado de actividad neuronal.

 

 

G) Universidad de Radboud (Países Bajos) (2022)

https://petapixel.com/2022/08/23/mind-reading-technology-translate-brainwaves-into-photos/

Los investigadores mostraron fotos de rostros a dos voluntarios dentro de un potente escáner de resonancia magnética funcional (fMRI) de lectura cerebral.

 Mientras los voluntarios miraban las imágenes de los rostros, la fMRI escaneó la actividad de las neuronas en las áreas de su cerebro responsables de la visión.

 Los investigadores introdujeron esta información en el algoritmo de inteligencia artificial (IA) de una computadora que podría generar una imagen precisa basada en la información de la resonancia magnética funcional.

 El investigador de IA y neurocientífico cognitivo, Thirza Dado , que dirigió el estudio, cree que estos impresionantes resultados demuestran el potencial de los sistemas fMRI/AI para leer la mente de manera efectiva en el futuro, según Mail Online .

 “Ya estamos desarrollando cámaras de implantes cerebrales que estimularán los cerebros de las personas para que puedan volver a ver”, dice Dado.

 

H) UNIVERSIDAD DE OSAKA (2023)

https://www.elespanol.com/elandroidelibre/noticias-y-novedades/20230303/nueva-ia-capaz-leernos-mente-imagenes-pensando/745675718_0.html 

 Eso es lo que han conseguido investigadores de la Universidad de Osaka, después de un estudio (PDF) que ha durado más de una década

En los experimentos, los investigadores obtuvieron los datos de actividad cerebral usando resonancia magnética funcional (fMRI), capaz de generar imágenes de actividad de las diversas regiones cerebrales. El sistema que crearon era capaz de interpretar esos datos para crear imágenes en alta resolución sobre lo que los voluntarios estaban pensando.

En concreto, en las pruebas a los voluntarios se les mostraron varias imágenes, y la IA era capaz de “interpretar” su actividad cerebral y crear una imagen muy parecida a la original que habían visto con sus propios ojos. Los resultados hablan por sí mismos, y aunque las imágenes resultantes no son exactamente iguales a las originales, se mantiene la idea general.

I) UNIVERSIDAD DE SINGAPUR Y STANFORD

https://www.nbcnews.com/news/amp/rcna76096

Su equipo, compuesto por investigadores de la Universidad Nacional de Singapur y la Universidad de Stanford, hizo esto mediante el uso de escáneres cerebrales de los participantes mientras miraban más de 1000 imágenes mientras estaban dentro de una máquina de resonancia magnética funcional, o fMRI, que registró las señales cerebrales resultantes a lo largo del tiempo.

La imagen generada resultante coincidía con los atributos (color, forma, etc.) y el significado semántico de la imagen original aproximadamente el 84 % de las veces.

Podría ayudar a los pacientes discapacitados a recuperar lo que ven, lo que piensan”, dijo Chen.

 En el caso ideal, agregó Chen, los humanos ni siquiera tendrán que usar teléfonos celulares para comunicarse. “Solo tenemos que pensarlo”.

 "Es lo mismo que ir a Xerox PARC en la década de 1970 y decir: 'Mira, todos vamos a tener PC en nuestros escritorios'”, dijo Gallant.

Al igual que muchos desarrollos recientes de IA, la tecnología de lectura del cerebro plantea preocupaciones éticas y legales. Algunos expertos dicen que en las manos equivocadas, el modelo de IA podría usarse para interrogatorios o vigilancia.

29 marzo 2023

J) META ha presentado un sistema de inteligencia artificial que puede decodificar representaciones visuales e incluso "escuchar" lo que alguien está escuchando estudiando sus ondas cerebrales.

https://medium.com/@affiliatemoneymaster2023/meta-just-achieved-mind-reading-with-ai-a-breakthrough-in-brain-computer-interface-technology-98cf7deb6858

El sistema utiliza magnetoencefalografía (MEG), una técnica de neuroimagen no invasiva. Al capturar miles de mediciones de actividad cerebral por segundo, la IA de Meta consta de tres componentes clave: un codificador de imágenes, un codificador cerebral y un decodificador de imágenes.

Decodificación rápida de representaciones visuales de Meta: el decodificador MEG


Meta también ha desarrollado un nuevo sistema de inteligencia artificial que puede decodificar representaciones visuales en el cerebro casi en tiempo real.

Octubre 2023

3) CONCLUSION:

Internet fue desarrollado para uso militar en 1969 pero no llego a la sociedad civil hasta el 1981

El GPS fue desarrollado por EEUU para uso militar en 1979 pero no llego a la sociedad civil hasta el 1995

Con la tecnologia de lectura de pensamientos pasa igual, empezo a investigarse por los 60 y ahora de la mano de Zuckerberg y Elon Munsk parece que va a llegar al fin a la sociedad civil.

Cuantos años van de retraso??? 20 años??? 30 años???