Künstliche Intelligenz (KI) ist aus unserem Alltag schon heute nicht mehr wegzudenken. Nachdem Wissenschaftler das Potenzial erkannt und nutzbar gemacht haben und KI auch kommerziell in immer weitere Bereiche des täglichen Lebens integriert wird, befasst sich auch der Gesetzgeber mehr und mehr mit Fragen zur KI. 

Traditionell werden lernende Systeme, die zum Beispiel auf neuronalen Netzen basieren, mit großen Datenmengen trainiert und optimiert, um dann in Anwendungen schnelle Entscheidungen mit möglichst großer Genauigkeit zu treffen, wie etwa in der Sprach- und Bilderkennung.

Doch genau dieser massive Hunger nach Daten wird auch als der Flaschenhals der traditionellen KI gesehen. Die Entwicklung zukünftiger, leistungsfähiger Systeme wird allerdings beschränkt durch folgende drei Probleme [1]:

1. Moore’s law ist am Ende

Seit Jahrzehnten steigt die Rechenleistung der großen Rechencluster. Immer mehr Transistoren passen auf einen Chip, von denen wiederum Millionen zusammen geschaltet werden, um gemeinsam das zeitintensive Training der neuronalen Netze zu ermöglichen. Begünstigt wurde dies durch Moore’s law, der beobachteten Gesetzmäßigkeit, dass sich die Anzahl der Transistoren pro Chip in der Vergangenheit circa alle zwei Jahre verdoppelt hat. Spätestens seit den 2010er Jahren flacht dieses Wachstum allerdings immer weiter ab, die Grenzen des physisch Möglichen scheinen erreicht. Fortschritte können mithin nur noch erzielt werden, indem immer mehr Chips zu immer größeren Clustern zusammen geschaltet werden. Doch dies resultiert in einem weiteren Problem:

2. Der Stromverbrauch läuft aus dem Ruder

Vorhersagen zeigen, dass der jährliche Stromverbrauch von Rechenzentren innerhalb der nächsten zehn Jahre um mehr als das Dreifache auf bis zu 3GWh ansteigen wird. Schon heute verbrauchen Rechenzentren erhebliche Mengen an Energie, die alles andere als nachhaltig erzeugt wird. Dies erschwert nicht nur den Ausbau der Rechenkapazitäten. Auch der Mehrwert einer teuren, wissenschaftlichen Berechnung muss ökonomisch und gesellschaftlich abgewogen werden. Um zu verhindern, dass es zu einem Kampf um Ressourcen kommt, sind also energieeffizientere Rechnerarchitekturen nötig. Dabei wird der Fortschritt im Wesentlichen von einem alten Paradigma behindert:

3. Der von-Neumann-Computer ist von gestern (nicht nur wortwörtlich)

Eine der Errungenschaften des zwanzigsten Jahrhunderts ist die Entwicklung des von Neumann Computers, nach dem heute noch alle bekannten Computer aufgebaut sind. Er zeichnet sich durch die Trennung von Speicher und Rechnereinheit (CPU – central processing unit) aus. Diese klare Trennung sorgt dafür, dass die einzelnen Teile effizient separat entwickelt werden können und vielfach sogar austauschbar sind. Darauf basierend hat sich eine Hierarchie moderner Programmiersprachen entwickelt, die Stück für Stück abstrakter wird und so ermöglicht, dass bereits Schulkinder Programme schreiben können, ohne sich mit Transistoren und Schaltkreisen zu beschäftigen. Auch deshalb wird diese Computerarchitektur praktisch ohne Alternative im Schulunterricht behandelt [2].

Leider führt die Trennung von Speicher und Recheneinheit bei den heutigen, datenintensiven Algorithmen zu einem Flaschenhals. Obwohl sowohl der Speicher als auch die Rechenleistung immer weiter steigen, lähmt der nötige Datentransfer vom Speicher in die Recheneinheit die modernen Programme. Dieses Problem wird mit einer noch intensiveren Datennutzung nur noch weiter zunehmen, sodass sich zeigt:  der von Neumann Computer hat seine Grenzen erreicht.

Doch wie können alle diese Probleme überwunden werden? An welchen Lösungen arbeiten Wissenschaftler, um die Computer der Zukunft zu entwickeln?

Ein vielversprechender Ansatz ist Neuromorphic Computing, bei dem Computer der Funktionsweise unseres Gehirns nachempfunden werden sollen. Unser Gehirn ist in der Lage, sehr schnelle und vor allem energieeffiziente Entscheidungen zu treffen. So beträgt die gesamte Leistung unseres Gehirns nur 25 Watt, verglichen mit den vielen Megawatt einiger Hochleistungsrechenzentren.

Doch wie genau soll das Gehirn als Inspiration dienen, nach welchen Prinzipien sollen unsere neuromorphen Computer aufgebaut sein, wenn sie die Probleme heutiger Systeme überwinden sollen? Forscher führen drei Hauptideen an [1]:

1. Kollokation

Im Gegensatz zum von Neumann Computer, der Speicher und Recheneinheit klar trennt, kombiniert unser Gehirn beides. Die Nervenzellen unseres Gehirns, die sogenannten Neuronen, sind sowohl Speicher von Erinnerungen und Informationen als auch Recheneinheiten, die ankommende Signale verarbeiten und weitergeben. Dadurch schafft es das Gehirn, enorme Mengen an Erinnerungen schnell zu durchsuchen und Analogien aus dem Gedächtnis abzurufen.

2. Analoge Signale 

Im von Neumann Computer arbeiten nur die elementaren Transistoren mit analogen Signalen (Stromstärken), alle Ebenen darüber abstrahieren davon nach digitalen Datenstrukturen wie Einsen und Nullen, Strom an oder Strom aus. Im Gehirn entscheiden die Stärken und Zeitpunkte der ankommenden Nervensignale mit über die Antwort des Neurons. Es werden durchweg analoge Signale verwendet, die viel mehr Information enthalten.

3. Impulse

Während traditionelle Transistoren kontinuierlich Strom benötigen, geben Neuronen im Gehirn nur wenige, sehr kurze Impulse ab. Dadurch kann das Gehirn sehr energieeffizient Signale senden und gleichzeitig viel Informationen übermitteln.

Neuromorphe Computer, die auf diesen drei Hauptideen basieren, werden nicht aus klassischen Transistoren bestehen, sondern neue Elemente besitzen: die sogenannten Memristoren (memory + transistor). Memristoren sind Transistoren, die über einen veränderlichen Widerstand verfügen, und dadurch Daten speichern können. So können sie gleichzeitig Speicher und Recheneinheit sein und analoge Signale effizient in Impulsen übermitteln. 

Die Verwendung überwiegend analoger Signale erfordert allerdings eine komplett neue Computerarchitektur. Memristoren müssen zusammengeschaltet werden und große Einheiten bilden, ähnlich unserem Gehirn, welches über 100 Milliarden Nervenzellen und 1 Trillion Synapsen (Verbindungen) besitzt.

Dazu werden neue Programmiersprachen nötig sein, die die eingebaute Lernfähigkeit der Memristoren benutzen können. Am Ende steht der neuromorphe Computer, dessen Arbeitsweise stark unserem Gehirn angelehnt sein wird.

Die Vorteile eines neuromorphen Computers liegen auf der Hand: Er wird neue Formen des Programmierens und Rechnens ermöglichen und dabei energieeffizienter sein.

Nachteile sind vor allem bei der Einführung und Entwicklung zu erwarten: Aufgrund der starken Unterschiede zu bestehenden Computern, muss komplett neue Hardware und Software entwickelt werden, einschließlich Programmiersprachen und Denkmustern. Schließlich müssen auch ethische Fragen bedacht und ein gesetzlicher Rahmen geschaffen werden [3]. Eine wichtige ethische Frage für neuromorphe Computer im Vergleich zu klassischen Computern ist etwa: Sollten Computern, die auf neuromorpher Architektur basieren, die also im utopischen Fall so funktionieren wie unser menschliches Gehirn, menschliche Eigenschaften, Rechte und Pflichten zugeschrieben werden? Falls ja, ergäben sich dadurch einige interessante Fragen, wie zum Beispiel:

1. Dürfte man neuromorphe Computer überhaupt abschalten?

2. Hätten neuromorphe Computer ein Recht auf Reparatur?

3. Wie würden neuromorphe Computer bei Verbrechen bestraft werden?

In der Wissenschaft wird intensiv an den Grundlagen neuromorpher Computer geforscht [4]. Auch in Deutschland arbeiten mehrere Forschungscluster in Dresden und Jülich zum Thema neuromorphic Computing [5,6]. Dennoch steckt die Technik momentan noch in den Kinderschuhen. Mehrere große Chiphersteller wie Intel und IBM werben zwar mit „neuromorphen Chips“ [7,8], allerdings sind diese nur Attrappen, die traditionelle Transistoren auf neue Art und Weise verbinden. So werden Neuronen simuliert, allerdings noch immer auf der Basis der alten von Neumann Architektur. Trotzdem können bereits Millionen von Neuronen mit hunderten von Millionen Synapsen auf einzelnen Chips produziert werden. Weitere Fortschritte hin zu leistungsstarken und energieeffizienten neuromorphen Computern sind nur durch Forschung und Entwicklung möglich. 

Ob neuromorphe Computer sich in Zukunft durchsetzen und die Probleme heutiger KI Systeme lösen werden, oder ob vielleicht doch Quantencomputer [9], oder aber eine gänzlich andere, noch nicht erfundene Technologie vorherrschen wird, die vorherrschende Technologie sein werden, bleibt abzuwarten. Wahrscheinlich ist aber, dass die KI der Zukunft nicht mehr ausschließlich auf unseren von-Neumann-Computern arbeiten wird.

Quellen:

  1. D. Christensen et al., 2022 roadmap on neuromorphic computing and engineering, 2022,  Neuromorphic Computing and Engineering, https://iopscience.iop.org/article/10.1088/2634-4386/ac4a83
  2. Ministerium für Bildung, Kultur und Wissenschaft Saarland, Lehrplan Informatik, https://www.saarland.de/SharedDocs/Downloads/DE/mbk/Lehrplaene/Lehrplaene_GOS_ab_2019_2020/Informatik/INEinfphFeb2006.pdf?__blob=publicationFile&v=3
  3. A. Mannino et al., Artificial Intelligence: Opportunities and Risks. Policy paper by the Effective Altruism Foundation, 2015, https://ea-foundation.org/files/ai-opportunities-and-risks.pdf
  4. CogniGron – Groningen Cognitive Systems and Materials Center, https://www.rug.nl/research/fse/cognitive-systems-and-materials/?lang=en
  5. Fraunhofer Institute for Photonic Microsystems, https://www.ipms.fraunhofer.de/en/Strategic-Research-Areas/Neuromorphic-Computing.html
  6. Forschungszentrum Jülich, Peter Grünberg Institute, https://www.fz-juelich.de/pgi/EN/Home/home_node.html
  7. Intel labs, https://www.intel.com/content/www/us/en/research/neuromorphic-computing.html
  8. IBM Research Blog, https://www.ibm.com/blogs/research/category/neuromorphic-computing/
  9. J. Wahl, Neues aus der Welt der künstlichen Intelligenz, Algoright blog, https://algoright.de/2021/10/14/neues-aus-der-welt-der-kuenstlichen-intelligenz/

Weitere interessante links: