Tecnologías de Lectura de Pensamientos

Submitted by admin on Tue, 09/21/2021 - 12:16

Proyección de ondas electromagnéticas y uso de dispositivos neurotecnológicos para provocar efectos físicos en la víctima

mind control = control mental mediante ondas electromagnéticas y dispositivos neurotecnológicos

electronic harassment = acoso mediante ondas electromagnéticas y dispositivos neurotecnológicos

remote neural monitoring = lectura de pensamientos mediante el uso de ondas electromagnéticas y dispositivos neurotecnológicos

voice to skull (v2k) = proyección de sonidos mediante el uso combinado de ondas electromagnéticas y dispositivos neurotecnológicos

gangstalking = combina acoso con tecnologias de radiacion y control mental con el acoso fisico de individuos (entran en casa, te siguen por la calle, te cruzas con ellos en lugares publicos, etc)

Targeted individual= victima de acoso por ondas electromagnéticas dirigidas y dispositivos neurotecnológicos

*****************

 Denunciamos que grupos de crimen organizado probablemente relacionados con grupos de poder estan usando conjuntamente la tecnología de ondas electromagnéticas junto con  implantes o dispositivos neurotecnológicos en civiles inocentes, con las siguientes capacidades:

a) de leer partes del pensamiento hablado de las víctimas (probablemente tras la lectura de los voltajes del cerebro por chips)

b)  capacidad de crear voces inteligibles en las víctimas (probablemente al crear los chips voltajes en el cerebro)

c) de enfermar físicamente a la víctima mediante uso de ondas electromagnéticas y también mediante creación de corrientes o voltajes en el cuerpo por los chips

d) Capacidad para alterar y bloquear mentalmente a la víctima
probablemente mediante creación de corrientes o voltajes en el cerebro por los chips o incluso ondas electromagnéticas

 

1) SOBRE LECTURA DEL PENSAMIENTO HABLADO


A) Sobre DARPA

https://es.m.wikipedia.org/wiki/Defense_Advanced_Research_Projects_Agency

DARPA segun wikipedia

Wikipedia parece bastante objetiva aunque a vece falla

Esto esta extraido literalmente de la pagina anterior de wikipedia

" Algunos rumores dicen que en los 70 el Pentágono financió un proyecto para relacionar ciertos gráficos de ondas cerebrales con ciertos pensamientos con el fin de que fuera posible a través de un equipo leer los pensamientos de una persona a cierta distancia esto se ocuparía con fines de defensa según los dichos de Robert Stone.

Y uno de los proyectos activos de DARPA es DARPA Silent Talk - Un programa capaz de identificar patrones EEG de palabras y capaz de transmitirlos para comunicaciones encubiertas. [5]

Silent talk

B) Sobre Facebook

https://www.abc.es/tecnologia/abci-seran-gafas-facebook-permitiran-comunicarte-mente-201908011050_noticia_amp.html

Facebook afirma, a través de un comunicado , que está progresando en el desarrollo de unas gafas que permiten al usuario escribir con la mente.

 Ya hace más de dos años que la compañía de Mark Zuckerberg anunció en la conferencia anual de desarrolladores F8 que estaba trabajando en este proyecto, sin embargo, hace tiempo que no ofrecían ninguna información sobre su estado. Según afirmaron por entonces, en 2017, el dispositivo, que consistiría en unas gafas de realidad aumentada (AR), permitiría al usuario escribir palabras simplemente imaginando que está hablando. El sistema no sería invasivo y, a su vez, no haría falta decir nada ni realizar ningún movimiento para que funcionase.

En el comunicado, Facebook se hace eco del trabajo realizado por unos investigadores de la Universidad de California, ubicada en San Francisco (USCF), que han conseguido gracias a su trabajo decodificar un pequeño grupo de palabras en un monitor en tiempo real mientras hablaban.

que el objetivo de la universidad estadounidense es desarrollar un sistema que pueda ayudar a las personas con afecciones neurológicas. De este modo, esperan que este alcance una velocidad de decodificación de 100 palabras por minuto, con un vocabulario de 1.000 palabras y con una tasa de error por palabra inferior al 17 por ciento.

El jefe del proyecto de Facebook es un exdirector de DARPA

C) Sobre Neuralink

https://www.techspot.com/amp/news/80991-elon-musk-neuralink-aims-implant-mind-reading-sensors.html

 Neuralink de Elon Musk apunta a implantar sensores de lectura mental en cerebros humanos el próximo año

 Mirando hacia el futuro: Neuralink, la compañía de Elon Musk que tiene como objetivo crear "interfaces cerebro-máquina de ancho de banda ultra alto para conectar humanos y computadoras", ha revelado por primera vez parte de su tecnología en desarrollo.  Esto incluye un dispositivo inalámbrico implantado en el cerebro que podría permitir a los usuarios controlar teléfonos inteligentes y computadoras con sus pensamientos.


 Neuralink ha desarrollado hilos flexibles, más delgados que un cabello humano, que pueden inyectarse en el cerebro para detectar la actividad neuronal.  También ha construido un robot que utiliza una aguja de 24 micras para incrustarlos automáticamente.

 Los dispositivos solo se han probado en animales hasta el momento, incluidas ratas y monos, pero Neuralink espera obtener la aprobación de la FDA para ensayos clínicos en humanos para el próximo año.  Si funciona según lo previsto, los pacientes podrían escribir mensajes de texto y correos electrónicos simplemente pensando en las palabras.  También podrían mover el cursor del mouse y navegar por las páginas web solo con sus mentes.

D) Sobre "Alter Ego" del MIT

https://cadenaser.com/ser/2018/04/05/ciencia/1522921010_565951.html

 habla silenciosa, también conocida como subvocalización, es un hábito muy común, sobre todo entre los lectores, que consiste en decir palabras en nuestra mente sin la necesidad de expresarlas mediante la voz. El dispositivo desarrollado por el MIT aprovecha las leves señales que se producen en los músculos durante este hábito y lo interpreta para llevar a cabo las acciones deseadas.

de los altavoces inteligentes, el Instituto Tecnológico de Massachusetts (MIT) ha decidido ir un paso más allá. Un grupo de investigadores del centro ha creado recientemente AlterEgo, un sistema portátil que permite al usuario conversar con cualquier dispositivo sin la necesidad de decir ni una sola palabra. Todo ello a través del fenómeno conocido como habla silenciosa.

 

E) Instituto Weill de neurociencia

 https://www.nature.com/articles/s41586-019-1119-1

La tecnología que traduce la actividad neuronal en habla sería transformadora para las personas que no pueden comunicarse como resultado de deficiencias neurológicas.

 Las redes neuronales recurrentes primero decodificaron directamente la actividad cortical registrada en representaciones del movimiento articulatorio y luego transformaron estas representaciones en acústica del habla.

Las representaciones articulatorias decodificadas se conservaron en gran medida entre los hablantes, lo que permitió que un componente del decodificador fuera transferible entre los participantes.

Además, el decodificador podía sintetizar el habla cuando un participante imitaba oraciones en silencio. Estos hallazgos hacen avanzar la viabilidad clínica del uso de la tecnología neuroprotésica del habla para restaurar la comunicación hablada.

 

2) SOBRE LECTURA DEL PENSAMIENTO VISUAL

A) Equipo de Berqueley en 1999

 Yang Dan y su equipo han logrado decodificar las señales de los electrodos implantados en el tálamo de un gato de reconstruir lo que vio este gato.

https://m.youtube.com/watch?v=FLb9EIiSyG8

En este Youtube se ve el éxito del experimento de Yang Dan. Dura 1 minuto y treinta segundos, las imágenes que descodifican del gato en tiempo real salen  cuadriculadas

El equipo utilizó una serie de electrodos incrustados en el tálamo (que integra toda la información sensorial del cerebro) de gatos de ojos agudos.

Usando filtros matemáticos, los investigadores decodificaron las señales para generar películas de lo que vieron los gatos y pudieron reconstruir escenas reconocibles y objetos en movimiento.

 

B) Universidad de Berqueley en 2011

https://news.berkeley.edu/2011/09/22/brain-movies/

El equipo del profesor Jack Gallant reproduce videos de las imágenes en directo que ve una persona a partir de la actividad del cerebro medida con resonancia magnética funcional 

 

Ya en el 2008 hiciera el mismo experimento pero con fotos

 

C) Equipo de Rajesh Rao y Jeff Ojemann de la Universidad de Washington en el 2016

https://www.livescience.com/amp/53535-computer-reads-thoughts-instantaneously.html

Los investigadores pueden predecir lo que la gente está viendo basándose en las señales eléctricas provenientes de los electrodos implantados en su cerebro.

Los implantes se los colocaron en el lóbulo temporal.

La computadora pudo predecir, con un 96 por ciento de precisión, lo que la persona realmente vio.

 

 

D) Universidad Rusa en 2019


Esta inteligencia artificial es capaz de mostrarte en qué estás pensando: sólo necesita analizar tus ondas cerebrales

https://www.xataka.com/inteligencia-artificial/esta-inteligencia-artificial-capaz-mostrarte-que-estas-pensando-solo-necesita-analizar-tus-ondas-cerebrales

un equipo de científicos rusos, compuesto por investigadores tanto de la compañía Neurobotics como del Instituto de Física y Tecnología de Moscú (MIPT), han diseñado una tecnología capaz de reconstruir las imágenes que está visualizando una persona en dicho momento. Y de hacerlo, además, sin necesidad de agresivos implantes cerebrales.


esta técnica tan sólo requiere del uso de los típicos electrodos, de tal manera que sean capaces de elaborar la electroencefalografía (EEG) del sujeto. A partir de esta información, los científicos han recurrido a redes neuronales para que éstas 'traduzcan' en tiempo real la EEG y puedan recrear la información visual que está captando el cerebro.

En el enlace hay un vídeo del experimento

 

 

E) Equipo de Jacob Robinson de la Universidad Rice trabajando para DARPA dentro del programa N3 en el 2019

https://www.fanaticalfuturist.com/2019/09/new-darpa-neuro-tech-project-will-let-people-telepathically-transmit-images-to-other-peoples-brains/

El equipo dirigido de neuroingenieros se embarca en un ambicioso proyecto de cuatro años para desarrollar tecnología de auriculares que pueda vincular directamente el cerebro humano y las máquinas sin necesidad de cirugía.

Como primera prueba de concepto, el equipo planea transmitir imágenes visuales percibidas por un individuo a la mente de los pacientes ciegos.

 

 

F) Equipo de Rafael Yuste director de "Brain Initiative" en el 2019.

 https://www.reuters.com/article/us-global-tech-lawmaking-analysis-trfn-idUSKBN2BL1RH

"Podríamos hacer que el animal viera algo que no vio, como si fuera una marioneta", dijo a la Fundación Thomson Reuters en una entrevista telefónica.

 "Si podemos hacer esto hoy con un animal, seguro que podemos hacerlo mañana con un humano".

 Los avances en la ciencia del cerebro, como los realizados por el equipo de Yuste, han hecho posible penetrar en el cerebro mediante censores e implantes y acceder a cierto grado de actividad neuronal.

 

3) CONCLUSION:

Internet fue desarrollado para uso militar en 1969 pero no llego a la sociedad civil hasta el 1981

El GPS fue desarrollado por EEUU para uso militar en 1979 pero no llego a la sociedad civil hasta el 1995

Con la tecnologia de lectura de pensamientos pasa igual, empezo a investigarse por los 60 y ahora de la mano de Zuckerberg y Elon Munsk parece que va a llegar al fin a la sociedad civil.

Cuantos años van de retraso??? 20 años??? 30 años???