Meine Rede im Sächsischen Landtag zur Fachregierungserklärung zum Thema: „Sachsens Stärken für das KI-Zeitalter“
78. Sitzung des 7. Sächsischen Landtags, Mittwoch, 08.11.2023, TOP 4
– Es gilt das gesprochene Wort –
Sehr geehrter Herr Präsident,
sehr geehrte Kolleginnen und Kollegen,
ich würde gern mit der Antwort von 738 KI-Wissenschaftler*innen auf eine Frage beginnen, die das AI Impact Survey im Oktober 2022 gestellt hat. Die Frage lautete: „Für wie wahrscheinlich halten Sie es, dass die menschliche Unfähigkeit, zukünftige fortgeschrittene KI-Systeme zu kontrollieren, zum Aussterben der Menschheit oder einer ähnlich dauerhaften und schwerwiegenden Entmachtung der menschlichen Spezies führt?” Wohlgemerkt hier steht keine Jahreszahl in der Frage.
Die Hälfte der KI-Forscher geht davon aus, dass es eine zehnprozentig oder höhere Wahrscheinlichkeit gibt, dass dies eintrifft. Würden Sie in ein Flugzeug steigen, von dem die Hälfte der Ingenieurinnen und Ingenieure sagt, dass sie bei jedem zehnten Flug abstürzen?
Ich persönlich kann diese Frage nicht mit Sicherheit beantworten. Es gibt viele gute Gründe, die dagegen sprechen. Aber ich glaube, dass es eine deutlich drängendere Frage gibt, die uns alle sehr viel eher beschäftigen muss. Aber dazu später mehr.
Auswirkung von KI bisher
Wenn wir also Künstliche Intelligenz in Zukunft in vielen Bereichen des öffentlichen und privaten Lebens vermehrt einsetzen wollen, und das halte ich für sinnvoll, dann sollten wir uns gut überlegen wie. Dass wir alle bereits seit langer Zeit mit den Auswirkungen von KI konfrontiert sind und die Chance verpasst haben, mit Regulierungen gegen ungünstige Effekte gegenzusteuern, sieht man an einem anderen verwandten Beispiel, den sozialen Netzwerken. Dort wurde anfangs auch mit Nützlichkeit geworben, z.B. dass jeder eine Stimme erhält, dass man Gleichgesinnte einfacher findet oder Produkte besser platziert werden können. Was jedoch in der Realität passiert und worüber meiner Meinung nach zu wenig gesprochen wird, sind die Auswirkung dieser auf Engagement optimierten KI-Algorithmen. Apps werden absichtlich so programmiert, dass man immer weiter scrolled. Das führt zur Abhängigkeit, schlechter mentaler Gesundheit, verkürzten Aufmerksamkeitsspannen, Polarisation in der Gesellschaft oder Desinformation. All das hat selbstverständlich wiederum Auswirkungen auf Politik, Wahlen, das Aufwachsen, Journalismus und viele weitere. Wenn wir KI in Zukunft verstärkt einsetzen wollen, dann müssen die Rahmenbedingungen klar und sicher sein.
Was ist das überhaupt?
Aber vielleicht lohnt es sich, noch mal einen Schritt zurückzutreten und zu klären, worüber wir eigentlich reden. Der Unterschied zwischen KI-Algorithmen und „normalem”, also regelbasiertem Programmieren. Während bisher die Eingabe und die Regeln zur Verarbeitung der Eingabe bekannt waren und die Ausgabe gesucht wurde, verläuft das bei KI-Systemen anders. Hier ist die Eingabe und die Ausgabe bekannt, aber die Regeln zur Verarbeitung der Eingabe werden gesucht. Das ist also ein fundamentaler Unterschied in der Herangehensweise, der es auch so schwer macht, genau nachzuvollziehen, warum eine Entscheidung wie gefällt wurde. Auf diese Weise konnte zum Beispiel 1997 der weltbeste Schachspieler Kasparov, 2011 die besten Jeopardy-Spieler und 2016 der beste Go-Spieler der Welt geschlagen werden. Warum blieb damals die öffentliche Diskussion um KI-Modelle aus? Weil es Programme waren, die speziell auf einen Anwendungsfall trainiert und angepasst waren. Die „generative pre-trained transformer” oder auch GPTs, bekannt aus ChatGPT, haben diese Technologie einem extrem breiten Publikum für quasi beliebige Zwecke zugänglich gemacht. Die Idee, die dahinter steckt, ist, dass alles als eine Art Sprache behandelt wird. Es ist also völlig egal, ob es sich um Text, Bilder, Musik, Video, MRT-Aufnahmen oder DNA handelt. Damit wird fast alles in alles übersetzbar und Fortschritte in einem Gebiet plötzlich anwendbar in einem anderen – und die Geschwindigkeit, mit der geforscht wird, steigt rasant.
Beispiele für KI-Anwendungen
Die Anwendungsfälle sind quasi genauso unbegrenzt wie abgefahren. Es ist zum Beispiel möglich, mittels MRT-Aufnahmen die Gehirnströme einer Testperson zu analysieren und daraus zu rekonstruieren, auf welches Bild sie gerade geschaut hat. Ich kann leider mündlich nur sehr schwer wiedergeben, wie gut das funktioniert, aber im dazugehörigen Paper kann man eindeutig erkennen, dass eine Giraffe, eine Feuerwehr oder ein Baseballspieler von der Testperson zuvor angesehen wurde. Bitte schauen Sie sich das einmal an! In einem weiteren Beispiel verwenden Forschende handelsübliche WLAN-Router und KI-gesteuerte Algorithmen, um anhand der Wi-Fi-Signale im Raum die unterschiedlichen Haltungen von Menschen zu detektieren. Oder es werden maßgeschneiderte metallorganische Gerüste aus einem nicht durch Menschen durchsuchbaren Lösungsraum auf ihre Wirksamkeit untersucht, um über direkte Luftabscheidung (Direct Air Capture) CO2 aus der Atmosphäre zu entfernen. Es wird aber künftig häufiger die Generation von Deep Fakes inklusive der passenden Stimme geben. Menschen werden Probleme haben, zu identifizieren, was echt ist und was nicht. Das ist besonders relevant für alle hier im Raum, da durch die öffentlichen Video- und Tonaufzeichnungen hier und bei Social Media von allen mehr als genug Trainingsdaten zur Verfügung stehen.
Energieverbrauch von KI
Wenn wir über KI sprechen, dann müssen wir auch über den zunehmenden Energieverbrauch und den Ausstoß von CO2 sprechen. Prof. Herbrich hat das in seiner Keynote bei der 2. Sächsischen KI-Konferenz eindrücklich ausgeführt. KI kann einerseits dazu beitragen, die Steuerung von Batterien, und davon sind mit steigender Tendenz vermutlich bereits Milliarden im Einsatz, energieeffizienter zu machen. Ein relativ neues Forschungsfeld, das man auch aus Sachsen heraus besetzen sollte.
Andererseits führt eine Integration von KI-Schnittenstellen in Software zwangsläufig zu deutlich höheren Energieverbräuchen. Nach Prof. Herbrich kommen heute vier bis acht Prozent des weltweiten Stromverbrauchs bereits aus der IT. Aktuell existieren gerade zu den großen kommerziellen Modellen wie GTP4 nur Schätzungen. Diese Daten werden, zumindest von den großen Playern, leider nicht veröffentlich. Ich gehe davon aus, dass die Energiekosten des laufenden Betriebs deutlich höher sind, als die in der Trainingsphase. Es gibt aber Untersuchungen, die den Energieverbrauch näherungsweise ermitteln. Um ChatGPT zu betreiben, benötigt man demnach aktuell 3.600 Server mit knapp 30.000 Grafikprozessoren die täglich 560 MWh Strom (ca. 280 Haushalte pro Jahr) verbrauchen, 700.000 US-Dollar am Tag und 0,36 Cent pro Anfrage kosten. Selbstverständlich sind hier die Produktionskosten für Chips, Transport und viele andere Faktoren noch nicht eingerechnet. Würde man jetzt jede Googlesuche künftig mit KI beantworten, steigt der Bedarf auf über 500.000 Server und über 4 Millionen Prozessoren und 77 GWh pro Tag. Ein für Microsoft sicher verlockender, wenn auch aktuell extrem teurer Weg, wertvolle Prozente im Marktanteil der Internetsuche zurückzugewinnen. Das ist nicht als Ausschlusskriterium zu verstehen, aber wir müssen es in Zukunft mit bedenken. Es muss sichergestellt sein, dass genügend erneuerbarer Strom für die Rechenzentren verfügbar ist, und möglichst nur solche, für die Gesamtgesellschaft hilfreiche Modelle gefördert, entwickelt und eingesetzt werden.
Was brauchen wir für KI-Erfolg
Ich bin davon überzeugt, dass die Welt der Software in Zukunft eine Offene ist. Kollaboration ist das Mittel der Wahl, ob bei KI oder beim OZG-Verfahren zur Hundesteuer. Die Losung „es ist schon alles programmiert worden, aber noch nicht von jedem” kann es doch nicht sein. Und zur Wahrheit gehört auch, dass man die allermeisten OZG-Leistungen auch ohne KI umsetzen kann.
Und jetzt komme ich zu dem eingangs erwähnten drängenderen Problem. Wenn es unser Ziel ist, und ich zitiere den Ministerpräsidenten, „dass Sachsen zu einem der führenden deutschen Forschungs- und Innovationsstandorte für Künstliche Intelligenz” wird, dann müssen wir jetzt aufpassen, dass wir handlungsfähig bleiben.
Nach der ersten Welle des KI-Hypes letztes Jahr haben sich einige wenige Player am Markt durchgesetzt – das sehe ich an dieser Stelle etwas anders als Herr Schenk. Dazu gehören OpenAI (im übrigen ist diese Firma alles andere als offen), Google, Microsoft und so weiter. Diese Firmen lobbyieren gerade für eine extrem strenge Regulierung von KI. In Zukunft würden damit sich allein diese Unternehmen den Markt aufteilen und damit Innovation ersticken. Das sehe nicht nur ich so, sondern auch Yann LeCun, einer der 100 einflussreichsten Menschen in AI nach dem Time Magazine, Turing Award Preisträger und manchmal als Godfather of AI bezeichnet. Er sagt: „In einer Zukunft, in der KI-Systeme dazu bestimmt sind, das Sammelbecken für das gesamte menschliche Wissen und Kultur zu bilden, müssen die Plattformen Open Source sein und frei zur Verfügung stehen, damit jeder zu ihnen beitragen kann. Offenheit ist der einzige Weg, um KI-Plattformen das gesamte menschliche Wissen und Kultur widerspiegeln zu lassen.” Welchen Einfluss eine derartige Monopolstellung auf unsere Demokratie, Kultur und Vielfalt hätte, möchte ich mir überhaupt nicht vorstellen. Im Übrigen gehen viele Wissenschaftlerinnen und Wissenschaftler davon aus, dass Open Source KI-Modelle in Zukunft unschlagbar werden, denn die open-source community ist deutlich größer als jede einzelne Firma. Ein Punkt, den auch der französische Premier Macron anscheinend verstanden hat, wenn er „wir glauben an open source” in seiner Rede bei Frankreichs Top-Tech-Konferenz erwähnt.
Aber es geht bei offener KI nicht nur um die Algorithmen. Es gibt noch mindestens drei weitere Flaschenhälse, die bedacht werden müssen. Das sind Daten, Fachkräfte und die Rechenkapazität, überhaupt die Modelle zu trainieren.
Die Daten, so viel sollte offensichtlich sein, müssen offen, vorurteilsfrei und für jeden zur Verfügung stehen. Es braucht mehr Daten, aber bitte nicht als PDF. Es braucht klare Regeln, so dass Content Creater, egal ob Programmiererin oder Maler, eine Chance haben, nicht ausgebeutet zu werden und eine finanzielle Beteiligung zu erhalten. Tut man das nicht, erzeugt man den gegenteiligen Effekt und erhält weniger Daten, da Menschen diese nicht mehr öffentlich teilen – diese Entwicklung ist schon jetzt zu beobachten.
Beim Thema Fachkräfte ist die sächsische Forschungslandschaft bei der KI-Grundlagenforschung sowohl inhaltlich als auch räumlich breit aufgestellt. An 23 außeruniversitären Einrichtungen und 24 Hochschulfakultäten und -instituten werden KI-Methoden erforscht. Egal, ob Institut für angewandte Informatik, das KI-Labor des Umweltbundesamts, das Center for Scalable Data Analytics and Artificial Intelligence mit 155 Publikation allein in 2023, die Kompetenzstelle für KI des Freistaats, Fraunhofer-, Helmholtz-, Leibniz- oder Max-Planck-Gesellschaft – alle forschen und arbeiten an unglaublich spannenden Projekten, die ich mir teilweise auch schon anschauen durfte. Da wäre zum einen die Analyse von tausenden Papierdokumenten im SARDINE Projekte zur Wiedernutzbarmachung von Braunkohletagebauen. Eine mit Hinblick auf den demografischen Wandel und dem damit eintretenden Verlust an Kenntnis des analogen Sachstands in der Verwaltung enorm sinnvolle Arbeit. Zum anderen KI-Verfahren im CoyPu-Projekt zur Verbesserung des Krisenmanagements der deutschen Wirtschaft. Mit Hilfe von Daten aus wirtschaftlichen Wertschöpfungsnetzen werden dort qualitative, tagesaktuelle Erkenntnisse über Fakten und Trends abgeleitet. Immer häufiger wird leider bei solchen Gesprächen auch von rassistische Kommentaren gegen Mitarbeitende oder Studierende berichtet.
Besonders sinnvoll ist, dass Kinder und Jugendliche möglichst frühzeitig mit Technologie in Kontakt kommen. Mit Projekten, die es in die KI-Strategie des Freistaats geschafft haben, wie dem Fabmobil, Jugend hackt, der Initiative Digitale Schule Sachsen oder Meet the robots gibt es viele verschiedene Angebote. Aber ich gehe nicht davon aus, dass das reicht. Es müssen meiner Meinung nach alle Menschen wissen, was KI kann und was nicht, was eine Prompt ist oder wie ich den Trump-Snapchat-Filter erkenne und mich gegen Fake News zur Wehr setze. Wir brauchen digital mündige Bürgerinnen und Bürger in einer zunehmend digitalen Welt.
Bleibt noch der dritte Flaschenhals, die Rechenkapazität. Aktuell ist der Zugang dazu extrem beschränkt und teuer. Außerdem gibt es mit Nvidia für Grafikprozessoren nur einen Anbieter mit einem Marktanteil von 85 bis 95 Prozent. Es findet also wieder eine Konzentration in den Händen einiger weniger Konzerne statt, die wiederum davon profitieren, die einzigen zu sein, die Modelle zu trainieren und den Zugang dazu auch noch zu vermarkten. Wir könnten hier somit in Sachsen die klügsten Köpfe der Welt forschen lassen, wenn wir dann die Modelle nicht ohne den Segen der Cloud-Provider trainieren können, haben wir überhaupt nichts gekonnt. Von daher begrüße ich es sehr, dass die Uni Leipzig ein eigenes KI-Rechenzentrum in Sachsen plant und damit künftig einen wichtigen Beitrag, neben der Ausbildung von Fachkräften und dem Transfer in die Wirtschaft, zur Verfügbarkeit von genügend Rechenkapazität für neue KI-Anwendungen leistet. Um im Wettkampf der Großmächte hier nicht zerrieben zu werden, muss aber auch in Zukunft die EU einen größeren Beitrag leisten. Da stimme ich Herrn Schenk zu. Der deutsche Verband Large-Scale Artificial Intelligence Network schlägt zum Beispiele eine öffentlich finanzierte und demokratisch verwaltete Forschungseinrichtung vor, die in der Lage ist, KI-Modelle in großem Maßstab zu entwickeln. Die Idee, einer vertrauenswürdigen, interoperablen und für alle offen digitalen Infrastruktur wird übrigens auch von Präsident Macron und Ursula von der Leyen unterstützt.
KI-Ethik
Ich möchte zum Schluss noch meinen herzlicher Dank an Frau Professorin Lauber-Rönsberg und Frau Professorin Platow von der TU Dresden bzw. ScaDS.AI aussprechen, die auf dem 2. Sächsischen KI-Kongress die Vorteile eines sächsischen KI-Ethik-Beirates vorgestellt haben. Ein unabhängiger Beirat, losgelöst von politischen Einflüssen, kann maßgeblich dazu beitragen, das öffentliche Vertrauen in KI zu stärken. Von daher freue ich mich über die Ankündigung von Herrn Schenk zur Vorstellung des Rates auf der nächsten KI-Konferenz sehr. Durch die Aufbereitung und Einordnung technischer Entwicklungen und das Aufzeigen von Handlungsoption kann der Beirat, wie Frau Prof. Lauber-Rönsberg auf der Konferenz gesagt, hat: „nicht nur europäische, globale Entwicklung reflektieren, sondern auch gerade die hiesigen Verhältnisse vor Ort mit berücksichtigen”. Genau das sollte doch das Ziel sein.
Um mit den Worten der Ministerin für Wissenschaft und Technologie Michelle Donelan des UK beim AI Security Summit letzte Woche zu schließen: Wenn wir dieses Vertrauen in der Bevölkerung nicht nachhaltig aufbauen, dann werden wir auch die Potenziale von KI in unserem Gesundheitssystem, der Verkehrswende oder bei der Bekämpfung der Klimakrise nicht nutzen können. Und das wäre doch die größte Tragödie, die wir uns vorstellen können.