Video: Let's Play Terraria #128 - Wirbel farmen und Gehirn kaputtmachen (November 2024)
Sind Sie bereit für Computer, die Ihre Gedanken lesen können? Laut den Rednern der dieswöchigen Techonomy-Konferenz, die mit einer Diskussion über die Konvergenz von Mensch und Maschine begann, dürfte eine Version davon nicht allzu weit entfernt sein.
Justin Sanchez, Leiter des Büros für biologische Technologien bei DARPA, zeigte in mehreren Videos, welche Technologien derzeit für gelähmte Soldaten entwickelt werden. Es handelt sich um 4 mm x 4 mm große Sensor-Arrays mit 96 Sensoren, die direkt auf der motorischen und sensorischen Kortikalis platziert werden, um einen Roboterarm zu steuern. Die Signale des Gehirns werden in Echtzeit dekodiert und an einen Roboterarm gesendet, und Sanchez spielte ein Video des Soldaten ab, der Präsident Obama die Hand schüttelte.
In einem anderen Video wurden Sensoren an den Fingerspitzen des Roboterarms angebracht und die Signale hier zurück zum sensorischen Kortex übertragen. In diesem Fall konnte der Soldat erkennen, welche Finger gedrückt wurden, und fühlte sich sogar so, als würde er eine Hand schütteln.
Dies ist alles sehr vielversprechend für Menschen mit Behinderungen, aber Sanchez, der seit fast einem Jahrzehnt an Neurotechnik arbeitet, sagte, dass dies leistungsstarke Instrumente sind und wir die ethischen, rechtlichen und sozialen Auswirkungen ihres Einsatzes berücksichtigen müssen. "Die Entscheidungen, die wir in Bezug auf die neuronale Technologie treffen, bestimmen, wer wir heute sind und wer wir in Zukunft sein können", sagte er.
Ein Eröffnungspanel über Mensch und Maschine begann mit prosaischeren Verbindungen, wie z. B. der Sprachschnittstelle. Rohit Prasad (zweiter von rechts oben), Leiter maschinelles Lernen bei Amazon Alexa, sagte, sein Fokus liege auf der Verbesserung des täglichen Komforts. "Stimme ist die natürlichste Art der Kommunikation", sagte er und sprach über den Alexa-Preis, einen Wettbewerb zum Aufbau von Social Bots, der 20 Minuten lang mit Ihnen auf Echo kommunizieren kann. Es wird jedoch einige Jahre dauern, bis dieser Punkt erreicht ist, obwohl die diesjährigen Finalisten auf der Re: Invent-Konferenz des Unternehmens bekannt gegeben werden.
Tessa Lau (Mitte), CTO von Savioke, Hersteller von Servicerobotern, wurde als "Roboterflüsterer" bezeichnet. Die ersten Roboter des Unternehmens liefern beispielsweise in Hotelzimmer und sprechen absichtlich nicht. Sie sagte, dies kratzt nur an der Oberfläche der Produkte, fügte aber hinzu, dass das Unternehmen mehr Erfahrung mit der Interaktion zwischen Roboter und Mensch benötigt. Bisher hätten die Roboter 200.000 Interaktionen mit Menschen in Hotels gehabt, und das Unternehmen arbeite daran, Systeme zu entwickeln, die mit den Situationen Schritt halten, die bei alltäglichen Interaktionen auftreten.
Die interessanteste Diskussion war Mary Lou Jepsen, die ein Startup namens Openwater ins Leben gerufen hat, um an Technologien zu arbeiten, um zu verstehen, was die Leute denken. Jepsen, Mitbegründer des Projekts "Ein Laptop pro Kind" und Mitarbeiter von Google und Facebook, diskutierte ein Wearable (etwas, das wie eine Skimütze aussieht), das die Kommunikation allein durch menschliche Gedanken ermöglicht.
Jepsen sagte, wir sehen eine Diskontinuität mit der Optik, die es Kamerachips mit LCDs ermöglicht, Infrarotlicht zu verwenden, um den Blutfluss im Gehirn abzubilden. Dies wird eine Auflösung von Kubikmikron ermöglichen, von der sie sagte, dass sie millionenfach besser ist als eine MRT.
Mit einer solchen Technologie, sagte Jepsen, könne man "sagen, was die Leute denken" und so eine Form der Telepathie erreichen.
Auf diesem Gebiet wird derzeit geforscht, und sie geht davon aus, dass die erste Anwendung die Behandlung von Gehirnerkrankungen wie Alzheimer, Parkinson, Schizophrenie und Depression sein wird. Sie erwartet, dass die ersten Produkte in zwei bis drei Jahren auf den Markt kommen.
Jepsen gab zu, dass sowohl Google X als auch Facebook ihre Vorschläge, an dieser Technologie zu arbeiten, abgelehnt haben, sagte aber, dass sie die Physik für unvermeidlich hält und dass so etwas in den nächsten 10 Jahren passieren wird. Sie sagte, es gebe eine Menge Arbeit zum Thema "Reverse Engineering des Gehirns" und zum Verständnis, wie das Abfeuern von Neuronen mit dem Denken gleichzusetzen sei.
Jepsen sprach über die Auswirkungen einer solchen Technologie, wenn sie auf Distanz funktionieren könnte, und sagte: "Können Sie sich vorstellen, sich nur in Gedanken zu versetzen?" Sie sagte jedoch, das Unternehmen sei bestrebt, ein Produkt zu entwickeln, das nur im Konsens und nach Ermessen des einzelnen Benutzers funktioniert.
Sie sagte jedoch, dass eine solche Technologie ein immenses Potenzial zur Steigerung der Intelligenz haben könnte, indem sie beispielsweise eine visuelle Idee, Musik oder das Schreiben "grob abschneidet", indem sie nur darüber nachdenkt.
Benjamin Bratton von UCSD (ganz links oben) war skeptisch und sagte, er sei misstrauisch gegenüber der Vorstellung, dass Gedanken vor Sprache, Zeichnen usw. vollständig geformt seien. Selbst wenn wir einen Gedanken spüren könnten, sagte er, wäre er wahrscheinlich laut und verschwommen. Ich bin mir nicht sicher, wie nah eine solche Technologie wirklich ist, aber es ist sicherlich interessant darüber nachzudenken.
Neugierig auf Ihre Breitband-Internetgeschwindigkeit? Testen Sie es jetzt!