Das DARPA‑Programm SyNAPSE (Systems of Neuromorphic Adaptive Plastic Scalable Electronics) ist ein Forschungsprogramm mit dem Ziel, computerelektronische Systeme zu entwickeln, die in Architektur, Leistungsfähigkeit und Effizienz dem menschlichen Gehirn nachempfunden sind.
Die Ausgangsidee ist: Während moderne Computer zwar enorm leistungsfähig sind, verbrauchen sie bei vielen real‑weltlichen Aufgaben (z. B. Wahrnehmung, Mustererkennung, Navigation) sehr viel Energie und benötigen sehr komplexe Algorithmen. Im Gegensatz dazu funktioniert das biologische Gehirn oft mit sehr geringem Energieaufwand, hoher Anpassungsfähigkeit und autonomem Lernen.
Das SyNAPSE‑Programm möchte daher neuromorphe Elektronik entwickeln — also Schaltungen, Architekturen und Systeme, die analog zur Funktions‑ und Strukturweise von Neuronen und Synapsen aufgebaut sind.
Einige konkrete technische Ziele: Nanometer‑Skala elektronische Synapsen, Architekturen mit vielen „Neuronen“ und „Synapsen“, Systeme mit großer Skalierbarkeit, Simulation sowie physische Hardwareentwicklung.
Zum Beispiel wurde von IBM im Rahmen von SyNAPSE ein Chip mit mehr als 5 Mrd. Transistoren, ca. 250 Mio. elektronischen Synapsen und etwa 1 Mio. elektronischen Neuronen hergestellt – mit einem Stromverbrauch unter 100 Milliwatt.
Ebenso gab es Arbeiten von HRL Laboratories am Aufbau analoger Memristor‑Arrays und neuromorpher Chips, die später Stoßrichtung und Lernfähigkeit zeigen sollten.
Hrl
Das Programm dokumentierte früh eine Skalierung: etwa Systeme mit Millionen Neuronen und Milliarden Synapsen angestrebt.
NextBigFuture.com
Warum ist das wichtig – und welche Fragen wirft es auf?
Wichtig, weil:
- Solche Systeme könnten Maschinen ermöglichen, Aufgaben zu übernehmen, die bisher nur biologischen Organismen gut gelingen – z. B. flexible Sensorik, autonome Planung, situatives Lernen.
- In militärischen Kontexten (DARPA ist das Forschungsamt des US‑Verteidigungsministeriums) ergeben sich Anwendungen mit erheblichen Konsequenzen – z. B. autonome Systeme, die effizienter, klüger und weniger energieabhängig sind.
- Auch der Schritt zu neuromorphen Systemen könnte letztlich helfen, Gehirn‑Computer‑Schnittstellen, Neurotechnologien, künstliche Intelligenz auf neue Ebenen zu bringen – womit sich das in Richtung transhumanistischer Szenarien verschieben kann.
Fragen / Skepsis, weil:
Die ethischen Implikationen sind groß: Wenn Maschinen „gehirnähnlich“ funktionieren, wer kontrolliert sie? Wie beeinflussen solche Systeme menschliches Verhalten, Entscheidung, Autonomie?
Technisch bleibt vieles herausfordernd: Skalierung auf das Niveau eines vollständigen menschlichen Gehirns mit ca. 10¹¹ Neuronen und ~10¹⁵ Synapsen ist enorm.
Es gibt das Risiko, dass solche Technologien zuerst in militärischen Kontexten eingesetzt werden – weniger transparent und mit hohem Macht‑/Kontrollpotential.
Transhumanistische Fragen: Wenn Maschinen Gehirnleistung erreichen oder mit menschlichem Gehirn verschmelzen, stellt sich die Frage nach Identität, Menschsein, Freiheit – Themen, die Sie ja bereits im Sinn hatten beim Kapitel zu BrainNets.
Das SyNAPSE‑Programm ist ein Projekt zur Entwicklung von elektronischen Systemen, die das Gehirn imitieren sollen — sowohl in Struktur als auch Funktion — mit großer Bedeutung für KI, Robotik und Neurotechnologie. Gleichzeitig zeigt es exemplarisch, wie schmal der Grat ist zwischen technischer Innovation und tiefgreifenden ethischen bzw. gesellschaftlichen Fragen zum Mensch‑Maschine‑Verhältnis.
Quellen
- “The ethics of AI‑assisted warfighter enhancement research and experimentation: Historical perspectives and ethical challenges” – fand heraus, dass Schnittstellentechnologien zur Leistungs‑ bzw. Gehirn‑Enhancement im militärischen Kontext erhebliche ethische Probleme bergen. PMC
- “How DARPA’s Legal Structure Lead to Ethical Lapses?” – diskutiert die Organisationsstruktur von DARPA, insbesondere wie deren relativ geringe externe Kontrolle und hohe Autonomie Risiko für ethische Kontrolllücken darstellen. The Regulatory Review
- “Neuromorphic Computing Gets Ready For the (Really) Big Time” (Communications of the ACM) – bietet eine technologische Einordnung von SyNAPSE und zeigt gleichzeitig, dass trotz großer Fortschritte noch viele Hürden bestehen (Skalierung, Lernfähigkeit, Programmiermodell). Comunicación de la ACM
- “Neuromorphic Computing & Human Enhancement: DARPA’s Advances & Ethical Challenges” – liefert eine kritische Reflexion darüber, wie ähnliche Technologien im Kontext von menschlicher Verbesserung („human enhancement“) eingesetzt werden könnten – mit Implikationen für Autonomie, Identität und Kontrolle.
UAP Watchers - Offizielle DARPA Programmseite zu SyNAPSE – zeigt den technischen Anspruch („scale to biological levels“) und damit die ambitionierte Zielsetzung.
DARPA
Wichtige kritische Punkte zur Erwähnung
Dual‑Use & Militärischer Kontext: Technologien wie SyNAPSE, die neuronale Netzwerke in Hardware nachbilden, sind vordergründig als Energie‑effiziente Verfahren für Wahrnehmung oder Steuerung gedacht. Doch da DARPA im Verteidigungsbereich agiert, besteht das Risiko, dass solche Systeme für militärische Aufrüstung (z. B. autonome Systeme, verbesserte Soldaten) verwendet werden.
Autonomie, Identität & Kontrolle: Wenn Gehirn‑ähnliche Computer entstehen bzw. Schnittstellen zu Gehirnen möglich werden, stellt sich die Frage, in welchem Maße Individuen ihre Gedanken, Entscheidungen oder Wahrnehmungen noch selbst steuern. Erweiterung („Enhancement“) kann ebenso gut zu Verlust von Autonomie führen.
Bild: freepik.com
