Euphorische Stimmen in sozialen Medien sahen die totale Automatisierung in Unternehmen voraus, den Wegfall ganzer Berufsgruppen, malten die Herrlichkeit einer von der KI bestimmten Gesellschaft in allen bunten Tönen aus. Mit anderen Worten: Der Hype begann, die Meinungen bleiben bis heute gespalten. Überspitzt gesagt: Die eine Seite betrachtet die KI als gefährlich, die andere betet sie an. Zum Glück sind Verwaltungen hier viel pragmatischer und unaufgeregter und haben bereits erste Leitlinien zum Umgang mit der KI erstellt.
Was eine KI eigentlich ist
Die KI ist nämlich einfach ein weiteres Hilfsmittel, das die tägliche Arbeit erleichtert und für viele Mitarbeitende die Komplexität ihrer Aufgaben reduziert. Es handelt sich auch nicht wirklich um eine «Intelligenz», sondern um ein Sprachmodell, das Inhalte statistisch auswertet und neu zusammensetzen und als Text, Bild oder Video anzeigen kann. Pure Mathematik also.
Man spricht auch von «Large Language Models» (LLM), die letztlich künstliche neuronale Netzwerke sind, mathematische Nachbildungen von Neuronen-Netzwerken im Gehirn. Sie lernen aus komplexen und scheinbar zusammenhanglosen Informationen. Die Ursprünge gehen in die 40er-Jahre des letzten Jahrhunderts zurück.
Also doch irgendwie intelligent. In der Tat ist es beeindruckend, was moderne KI-Systeme leisten können. Sie beeindrucken mit scheinbarer Intelligenz, wie 1966 die Sprachsoftware ELIZA die Versuchspersonen von Joseph Weizenbaum. Sie führten einen Dialog mit ihr und die meisten waren überzeugt, mit einem Menschen zu sprechen. Weizenbaum war erschüttert über die Reaktionen auf das primitive Programm, das für die Antworten einen Thesaurus beizog und bloss die Fragen variierte oder Ausweichsätze nutzte. Das erschien menschlich.
Bis heute wirkt dieser «Eliza-Effekt» in Chatbots nach. Und Joseph Weizenbaum wurde in der Folge zu einem der schärfsten Kritiker von künstlicher Intelligenz. Wir seien darin gefangen, sagte KI-Vordenker Douglas Hofstadter 2017 an einer Sitzung der Österreichischen Akademie der Wissenschaften. Die KI solle dafür genutzt werden, besser zu verstehen, wie Menschen denken, und nicht mit Maschinen das Denken nachzubilden.
Heute spricht man weniger von den zugrunde liegenden Technologien, sondern von der Wirkung einer KI. Man unterteilt in «schwache KI» und die weiterentwickelte und lernfähige «starke KI» sowie in die heute noch ins Reich der Science-Fiction gehörenden «Superintelligenz».
Es gibt nicht nur ChatGPT …
Die Zahl der Sprachmodelle ist in der letzten Zeit stark gewachsen. Ständig werden neue entwickelt, mit eigenen Schwächen und Stärken. Eine kurze Übersicht finden Sie in der Tabelle. Sie benötigen für den Einsatz eine sorgfältige Evaluierung, auch hinsichtlich des Datenschutzes, denn Sprachmodelle benötigen Training mit bereits vorhandenen Inhalten. Wer KI ohne entsprechende Guidelines einsetzt, gerät in Gefahr, geltendes Recht zu verletzen. Es braucht klare Vorstellungen über das Einsatzgebiet der KI, zumal auch die Zahl der KI-nutzenden Tools extrem gewachsen ist. Kaum eine E-Mail-Software, die ohne KI auskommt. Auch in den Betriebssystemen der Computer- und Smartphone-Hersteller werden KI-Systeme fest verankert.
Bereits 2020 hat eine Studie des Fraunhofer-Instituts für Arbeitswirtschaft und Organisation IAO mögliche Anwendungsszenarien geschildert und festgestellt: «Die Einführung einer KI ist nicht trivial». Was sind denn die Herausforderungen und Risiken? Nebst der Evaluation der Technologie gilt es auch, sich über die Anwendung Gedanken zu machen. Die KI kann Verwaltungsdienste optimimieren und besser zugänglich machen und durch Automatisierung Prozesse verschlanken. Allerdings braucht es dazu ethische Richtlinien und rechtliche Grundlagen. Und eine Antwort auf die Frage, wie denn überhaupt ein besserer Service aussehen sollte. Die KI sollte nicht zum Selbstzweck werden, sondern den Menschen auf beiden Seiten des Schalters dienen.
Grundsätze für den KI-Einsatz beachten
Der Kanton Zürich hat 2021 gemeinsam mit der Universität Basel und der Organisation «AlgorithmWatch Schweiz» eine Studie durchgeführt und daraus einen Leitfaden für Verwaltungen entwickelt. Die Kernpunkte:
- KI-Systeme enthalten immer Wertungen. Wertungen der Entwickler, aber auch solche, die in Trainingsmaterial enthalten sind. Die KI kann so beispielsweise alte Diskriminierungsmuster weiterverbreiten.
- KI-Systeme sind oft intransparent. Wie die Ergebnisse zustande kommen, sei laut der Studie teilweise fast unmöglich nachzuvollziehen.
Daraus leitet die Studie zentrale Grundsätze ab. KI-Systeme dürfen den Menschen nicht schaden und müssen ihre Autonomie schützen. Sie sind fair, orientieren sich am Gemeinwohl, lassen sich kontrollieren, sind transparent und geben Rechenschaft über die Verantwortlichkeiten ab.
In der sogenannten «Innovation Sandbox für KI» finden sich in einer erste Welle zahlreiche Resultate von KI-Vorhaben, die als Inspiration für eigene Projekte dienen können (siehe Artikel «So integrieren Sie KI in den Verwaltungsalltag»). Die Leitlinien des Bundesrats für den Einsatz von KI in der Verwaltung stammen von 2020 und werden regelmässig überprüft. Sie gehen in eine ähnliche Richtung wie im Kanton Zürich, halten unter anderem fest: «Die Datenpolitik muss eine Balance zwischen dem Schutz der Persönlichkeit und der Nutzung von Daten gewährleisten.» Und: Die Haftung müsse klar definiert sein. Bundesrat Beat Jans zählte denn auch im Frühling 2024 an einer Konferenz der Universität St. Gallen zum Thema der Regulierung von KI die Gefahren und Risiken auf. Die Grundrechte der Bürgerinnen und Bürger stünden auf dem Spiel. Bis Ende 2024 soll dem Bundesrat eine Analyse über den Regulierungsbedarf vorliegen.
Vom pragmatischen Umgang mit der KI
Derweil planen diverse Kantone den Einsatz von KI-basierten Chatbots, die mit eigenem Datenmaterial gefüttert werden, was Datenschutz- und Copyright-Risiken minimiert. Damit soll der digitale Service für die Menschen verbessert werden – es sind die ersten nach aussen sichtbaren Zeichen einer KI-gestützten Verwaltung. An einem Anlass der auf die öffentliche Verwaltung spezialisierten IT-Service-Anbieterin und Chatbot-Herstellerin Abraxas drückten viele Verwaltungsmitarbeitende ihre Hoffnung aus, dass ihnen die KI bei der Sitzungsvorbereitung Hilfe leisten könnte, etwa beim Durchackern von Dokumenten und beim richtigen Setzen der Prioritäten.
Noch ist es nicht so weit. KI-Systeme liefern zwar heute auf vielen Gebieten beeindruckende Resultate, sind aber alles andere als perfekt. Sie zeigen Schwächen, wenn man ihnen etwa ungenügende Anweisungen (die sogenannten «Prompts») erteilt oder wenn die Datengrundlagen fehler- oder lückenhaft sind. Sie neigen zum Halluzinieren – nennen Fakten, die gar keine sind – und sie können beliebige, austauschbare Resultate erzeugen. Was etwa bei einem Standardmail genügt, ist für einen persönlichen Brief wohl selten das Mass der Dinge.
Es gibt bereits Anzeichen, dass der Hype um KI abflacht, zudem werden auch Bedenken bezüglich des Stromverbrauchs von KI-Systemen laut, die gigantische Datenmengen für jede Abfrage bewegen müssen. Ausserdem denken bereits erste Experten, dass die Qualität der Resultate in Zukunft eher abflachen wird, vor allem wenn das Internet mit immer mehr KI-generierten Inhalten geflutet wird und das menschlich erzeugte Trainingsmaterial abnimmt.
Trotz aller Einschränkungen und Pessimus: Fasst man die Meinungen in einschlägigen Foren, Fachkreisen und auf Social Media zusammen, wird schnell klar: Die KI ist ein neuer Akteur, den man ernst nehmen, jedoch nicht überbewerten sollte. Es ist wichtig, sich schon heute mit ihm zu beschäftigen, jedoch nur als Unterstützung und Assistent in einem kontrollierten Umfeld. So können sich Verwaltungsmitarbeitende von Routineaufgaben entlasten, sich mit den individuellen Fällen befassen, die menschlichen Sorgen und Nöte adressieren.
Die Technologie hat noch viele Herausforderungen vor sich, die Spezialisierung der Algorithmen auf ganz bestimmte Aufgaben könnte dereinst wieder ins Zentrum rücken. Bis dahin heisst es am Schalter weiterhin: «Wie kann ich Ihnen helfen?»