In Teil 1 und 2 unserer prisma-Serie haben wir uns dem Thema der Algorithmen ganz allgemein genähert. Die kontrovers diskutierte Frage, der wir uns im dritten und letzten Teil widmen wollen, lautet: Wohin führen uns Algorithmen, die Muster und Strukturen selbstständig erkennen, sich anpassen und verändern und ihrerseits neue Algorithmen entwickeln können?

Die Einschätzungen, auf die fernere Zukunft bezogen, reichen von phantastischen Perspektiven mit intelligenten Maschinen und Robotern, die für uns Menschen alles Unangenehme erledigen, bis hin zu düsteren Aussichten einer Beherrschung der Menschen durch sich selbstständig und unkontrollierbar weiterentwickelnde Maschinen. So weit sind wir allerdings noch lange nicht. Um zu einer realistischen Einschätzung zu kommen, schauen wir uns deshalb an, was heute schon möglich ist. Aktuelle Algorithmen des Maschinellen Lernens (ML) werden zum Beispiel zur Gesichts- und Spracherkennung eingesetzt.

Nehmen wir als leicht verständliches Beispiel die Unterscheidung weiblich/männlich bei der Gesichtserkennung. Als man dafür noch keine der neuen ML-Methoden verwendete, musste man im Algorithmus festlegen (einprogrammieren), anhand welcher charakteristischen Daten und biometrischen Werte die Unterscheidung vorgenommen werden sollte. Beim Maschinellen Lernen aber findet der Algorithmus anhand einer Fülle von Beispielen diese Kriterien selbst. Mit Millionen von Beispielen wird der Algorithmus trainiert. Nach dieser Trainingsphase trifft er die Unterscheidung dann selbst.

Neuronale Netze

Solche selbstlernenden Algorithmen sind Gegenstand der Forschung und Entwicklung in einer riesigen Fülle von Anwendungen in Technik, Biologie, Medizin und Wirtschaft. Bezogen auf Gesichter versuchen sie etwa, menschliche Stimmungen zu erkennen und Persönlichkeitsmerkmale zu erfassen – und angesichts des geradezu unbegrenzten Trainingsmaterials aus dem Internet sind die Analysemöglichkeiten atemberaubend. Bei einer aktuellen Methode des Maschinellen Lernens (beim "Deep Learning") werden dazu spezielle "neuronale Netze" benutzt, die durch eine große Anzahl von Beispielen trainiert werden und sich im Laufe des Trainingsprozesses so verändern und anpassen, dass schließlich (fast) alle vorgelegten Aufgaben selbstständig richtig gelöst werden.

Die Bezeichnung "neuronale Netze" deutet zwar auf eine Verwandtschaft mit dem Gehirn hin – tatsächlich handelt es sich aber um eine statistische Methode, die durch einfache Modelle biologischer Neuronen inspiriert wurde. Sind mit diesen atemberaubenden Perspektiven aber nicht auch die Möglichkeiten der Kontrolle und des Eindringens in die Privatsphäre atemberaubend beängstigend? Und wenn man nicht nur Gesichter in dieser Weise interpretiert, sondern die viel umfassenderen Informationen des Internets über seine Nutzer in die Analyse mit einbezieht? Und für gefilterte Informationen oder sogar für Entscheidungen (über Kreditvergabe oder Stellenbesetzungen) verwendet, die weit über Systeme wohlmeinender Empfehlungen hinausgehen? Dass totalitäre politische Systeme die umfassenden Kenntnisse und Einblicke in die Privatsphäre der Nutzer missbrauchen und sich der Kontroll- und Beeinflussungsmöglichkeiten zu bedienen versuchen, ist zwar naheliegend, aber nicht akzeptabel. Politische Systeme, für die Grund rechte, Persönlichkeitsrechte und der Schutz der Privatsphäre konstitutiv und fundamental sind, müssen und können die technischen und algorithmischen Entwicklungen und deren Anwendungen so begrenzen, dass diese Rechte nicht verletzt werden.

Sicherheit und Freiheit

Die Politik muss auch hier die richtige Balance finden zwischen Sicherheit und angemessener, begrenzter Überwachung auf der einen und Freiheit und Schutz der Privatsphäre auf der anderen Seite – und durch eine adäquate Gesetzgebung gestalten. Doch dazu müssen die Politik, das Parlament und die Rechtsprechung die digitalen, algorithmischen Entwicklungen und Gefährdungen verstehen – nicht im Detail, aber im Prinzip.

Bloß: Wie kann dieses Verständnis erreicht werden? Es besteht immer die Gefahr, dass die Politik und die Gesetzgebung zu spät kommen und den technologischen Entwicklungen hinterherlaufen. Der Dialog zwischen Politikern und Technologen ist in Bezug auf die digitale Entwicklung beides: äußerst wichtig und äußerst mühsam. Alle Parteien, viele Politiker reden über die "Digitalisierung". Aber wissen sie, was sie damit meinen? Nach Jahren ernüchternder Bemühungen, die Politik zu beraten, halten viele Experten die algorithmische Aufklärung der politischen Instanzen, der Medien und der allgemeinen Öffentlichkeit für überaus dringend und überfällig.

Und diese Aufklärung muss, womit wir wieder bei unserem Einstiegsbeispiel vom kleinen Einmaleins wären, in der Schule anfangen: Zur Medienkompetenz der Schülerinnen und Schüler gehören Basiskenntnisse über die technologischen Grundlagen des Digitalen und ein fundiertes Verständnis für die Möglichkeiten und Grenzen, Chancen und Gefahren der aktuellen algorithmischen Entwicklungen, insbesondere im Bereich der Künstlichen Intelligenz.

Bücher zum Thema

  • Reimund Neugebauer (Hrsg.): "Digitalisierung – Schlüsseltechnologien für Wirtschaft & Gesellschaft", erschienen 2018 bei Springer Vieweg, 411 Seiten, 19,99 Euro.
  • Max Tegmark: "Leben 3.0: Mensch sein im Zeitalter Künstlicher Intelligenz", erschienen 2017 bei Ullstein, 528 Seiten, 26 Euro (hier bei Amazon bestellen).
  • Erik Brynjolfsson und Andrew McAfee: "The Second Machine Age", erschienen 2014 im Plassen-Verlag, 368 Seiten, 24,99 Euro (hier bei Amazon bestellen).
  • Klaus Mainzer: "Die Berechnung der Welt", erschienen 2014 bei C.H.Beck, 352 Seiten, 24,95 Euro (hier bei Amazon bestellen).

Lesen Sie hier Teil 1 und Teil 2 unserer prisma-Serie: