HASEPOST
 
HASEPOST

Neuroethiker warnt vor dystopischem Missbrauch von Neurotechnologie

Der bekannte Neuroethiker Marcello Ienca warnt vor dem möglichen Missbrauch von Neurotechnologie und Künstlicher Intelligenz durch Staaten und Technologieunternehmen. Ienca, der an der TU München tätig ist, sieht ohne entsprechende Schutzmaßnahmen ein dystopisches Szenario vor uns, ähnlich wie in George Orwells `1984´.

Die Bedrohung durch Neurotechnologie

Marcello Ienca, Professor für Ethik der Künstlichen Intelligenz und Neurowissenschaft, äußerte im Interview mit “Der Spiegel” seine Bedenken bezüglich der zunehmenden Verbindung unseres Gehirns mit der digitalen Welt. “Im schlechtesten Fall wird es noch dystopischer als in `1984`”, warnte er. Er stellte sich eine Zukunft vor, in der “unsere Gehirne künftig ohne Schutzmaßnahmen mit der digitalen Welt verbunden würden” und wir so die Kontrolle über diese letzten Kubikzentimeter verlieren könnten.

Ienca skizziert eine neue Ära, in der Mensch und Maschine physisch verschmelzen könnten und Neurotechnologie massenhaft in Gehirnen implantiert wird. Unternehmen könnten diese Technologien nutzen, um “in Ihrem Gehirn Verlangen nach bestimmten Produkten zu wecken”. Zudem könnten Diktaturen die Gehirne von Gefangenen oder Oppositionellen hacken und deren Gedanken extrahieren.

Die Rolle der Künstlichen Intelligenz

Die rasante Entwicklung der Künstlichen Intelligenz eröffnet laut Ienca neue Perspektiven für komplexe Gehirnmanipulationen. Innerhalb der nächsten zehn Jahre könnten vielleicht Träume entschlüsselt werden und die Veränderung politischer oder religiöser Überzeugungen könne in einigen Jahrzehnten technisch möglich sein.

Die globale Entwicklung von Neurotechnologien

Während Labore auf der ganzen Welt Neurotechnologien entwickeln, greifen auch große Weltkonzerne und “Armeen der halben Welt” diese Technologien für militärische Zwecke auf, so Ienca im “Spiegel”-Interview.

Zusammen mit seinem Forscherkollegen Roberto Andorno entwickelte Ienca das Konzept der Neurorechte, um die Freiheit des Denkens vor neuen technologischen Entwicklungen zu schützen. Zuletzt wurde Ienca von der Unesco dazu eingeladen, an weltweit geltenden Neurorechten zu arbeiten, insbesondere ein Grundrecht auf geistige Selbstbestimmung.

Die Chancen und Risiken der Neurotechnologie

Trotz der möglichen Risiken sieht Ienca auch die enormen Chancen, die die Technologie bietet. “Die Neurotechnologie kann solche biblischen Wunder mithilfe künstlicher Intelligenz wahr machen”, sagte er mit Blick auf Heilungen und Verbesserungen von körperlichen Einschränkungen. Allerdings sieht er auch die Gefahr einer zunehmenden Ungleichheit in der Gesellschaft. Um dies zu verhindern, fordert Ienca Maßnahmen zur Gewährleistung von Gerechtigkeit und Gleichheit durch den allgemeinen Zugang zu diesen Technologien.

durch KI bearbeitet, .


Liebe Leserin und lieber Leser, an dieser Stelle zeigen wir Ihnen künftig regelmäßig unsere eigene Kommentarfunktion an. Sie wird zukünftig die Kommentarfunktion auf Facebook ersetzen und ermöglicht es auch Leserinnen und Lesern, die Facebook nicht nutzen, aktiv zu kommentieren. FÜr die Nutzung setzen wir ein Login mit einem Google-Account voraus.

Diese Kommentarfunktion befindet sich derzeit noch im Testbetrieb. Wir bitten um Verständnis, wenn zu Beginn noch nicht alles so läuft, wie es sollte.

 
mit Material von dts Nachrichtenagentur
mit Material von dts Nachrichtenagentur
Dieser Artikel wurde mit Material der Nachrichtenagentur dts erstellt, kann jedoch durch unsere Redaktion ergänzt oder aktualisiert worden sein.

  

   

 

Diese Artikel gefallen Ihnen sicher auch ...Lesenswert!
Empfohlen von der Redaktion