maiLab: Superintelligent durch Brain Machine Interface | Video der Sendung vom 28.11.2019 19:24 Uhr (28.11.2019) mit Untertitel

Superintelligent durch Brain Machine Interface - Thumbnail

Superintelligent durch Brain Machine Interface

28.11.2019 ∙ maiLab ∙ funk
UT
maiLab - Teaser

Künstliche Intelligenz, Superintelligenz, Cyborgs? Auch Elon Musk setzt nun auf Brain-Machine-Interfaces, Schnittstellen zwischen Gehirn und Maschine. Die Forschung hierzu ist weiter als die meisten wahrscheinlich vermuten! Hier ein Überblick über die faszinierende Technologie und das, was heute bereits möglich ist. ► maiLab abonnieren: http://bit.ly/2kru8qh ► Instagram @maithink: https://www.instagram.com/maithink ► Twitter @maithi_nk: https://www.twitter.com/maithi_nk maiLab wird produziert von Mai Thi Nguyen-Kim für funk (ARD & ZDF) ►funk Web-App: https://go.funk.net ►https://go.funk.net/impressum Autor: Dennis Eckmeier Redaktion: Lars Dittrich Grafik: Melanie Gath Redaktionsleitung, Produktion & Schnitt: Mai Thi Nguyen-Kim Feat. Raul Krauthausen, Aktivist für Inklusion und Barrierefreiheit Homepage: www.raul.de Kostenloser, wöchentlicher Newsletter zum Thema Inklusion & Innovation für alle Interessierten: https://raul.us8.list-manage.com/subscribe?u=ff13c518142950e1da3755149&id=c96b003a32 QUELLEN Elon Musk & seine Firma Neuralink wollen Brain Machine Interfaces mit hoher Bandbreite entwickeln. Hier das besagte Preprint-Paper: Musk, E. (2019). An integrated brain-machine interface platform with thousands of channels. Journal of medical Internet research, 21(10), e16194. https://www.jmir.org/2019/10/e16194/ Forschungsbeispiel 1. Sinneserweiterung durch BMIs Hier die Studie mit den Ratten, die lernten, Infrarotlicht zu erfühlen: Thomson, E. E., Carra, R., & Nicolelis, M. A. (2013). Perceiving invisible light through a somatosensory cortical prosthesis. Nature communications, 4, 1482. https://www.nature.com/articles/ncomms2497 Entsprechender Ausschnitt aus einem Vortrag von Nicolelis (mit Video): https://youtu.be/ZENFjtLExmE?t=1482 aus Miguel Nicolelis - The Future of Human Augmentation - Nokia Bell Labs Forschungsbeispiel 2: Prothesensteuerung durch BMIs Hier die Studie mit dem Affen, der lernte, einen Roboterarm als “dritten Arm” zu benutzen: Carmena, J. M., Lebedev, M. A., Crist, R. E., O'Doherty, J. E., Santucci, D. M., Dimitrov, D. F., ... & Nicolelis, M. A. (2003). Learning to control a brain–machine interface for reaching and grasping by primates. PLoS biology, 1(2), e42. https://journals.plos.org/plosbiology/article?id=10.1371/journal.pbio.0000042 Entsprechender Ausschnitt aus einem Vortrag von Nicolelis (mit Video): https://youtu.be/ZENFjtLExmE?t=885 aus Miguel Nicolelis - The Future of Human Augmentation - Nokia Bell Labs Forschungsbeispiel 3: Gedankenübertragung durch BMIs Hier die Studie mit den zwei Ratten, die eine Art Gedankenübertragung via BMI erlernen konnten: Pais-Vieira, M., Lebedev, M., Kunicki, C., Wang, J., & Nicolelis, M. A. (2013). A brain-to-brain interface for real-time sharing of sensorimotor information. Scientific reports, 3, 1319. https://www.nature.com/articles/srep01319?links=false Jan Scheuermann und der BMI-gesteuerte Roboterarm: https://youtu...


Bild: funk