Mein polnischer Podologe erzählt mir seit Anfang des Jahres bei jedem Besuch, was er nun wieder Tolles mit ChatGPT, Midjourney oder anderen Tools, die bereits mit GPT-4 laufen, ausgeheckt hat. So hat er sich beispielsweise von der Künstlichen Intelligenz (KI) Softwarecode in der Programmiersprache Python schreiben lassen, um damit seine Kundendatei automatisch zu aktualisieren, sobald sich Stammdaten ändern. Den Umweg über einen langwierigen und vermutlich teuren Change Request bei seinem Softwareanbieter habe er sich dadurch sparen können. Außerdem sei neulich eine ebenfalls aus Polen stammende Kundin zu ihm gekommen, die um Unterstützung beim Verfassen eines Bewerbungsschreibens benötigte. Ihr Deutsch sei noch ausbaufähig, meinte er. Also zeigte er ihr, wie sie die benötigten Informationen in polnischer Sprache in ChatGPT als sog. „Prompt“ (Eingabeaufforderung zur Generierung eines Textes oder Bildes) eingeben konnte. Das Ergebnis wurde in fehlerfreiem Deutsch ausgegeben. Mit großen Augen schaute er mich begeistert an, während er an meiner Hornhaut feilte. Mir hingegen lief es ein wenig kalt den Rücken hinunter.
Exkurs: GPT steht für „Generative Pre-trained Transformer,“ dessen aktuelle Version GPT-4 ist. Dabei handelt es sich um eine spezielle Software-Architektur, die für die Generierung von Text verwendet wird. Zunächst wird das Modell auf großen Textdatensätzen trainiert, um ein allgemeines Sprachverständnis zu entwickeln. Anschließend kann es verwendet werden, um Texte zu generieren, Fragen zu beantworten, Übersetzungen durchzuführen und andere sprachbezogene Aufgaben zu bewältigen. Es ist eines der leistungsstärksten Modelle für maschinelles Lernen im Bereich der natürlichen Sprachverarbeitung und die teilweise hochkomplexen Sprachaufgaben, die es bewältigt, sind jedes Mal aufs neue sehr beeindruckend.
Aber eine Software, die selbst Code schreiben kann? Der sich dann auch noch nahtlos in eine bestehende IT-Infrastruktur integriert. Das ist eine Aufgabe, die selbst bei geringer Komplexität bislang ausschließlich erfahrenen Software-Entwicklern vorbehalten war. Für jemand, der seit über 20 Jahren in diesem Business arbeitet, eine interessante Wendung. Wenn nun also Laien ihre Software selbst individualisieren können – brauchen wir dann überhaupt noch Entwickler? Und: lässt sich langfristig mit Software, insbesondere mit Branchenlösungen, überhaupt noch Geld verdienen?

Und dann die Sache mit der Bewerbung. Natürlich wäre ich froh gewesen, wenn jede der gefühlt tausend Bewerbungen, die ich in meinem bisherigen Berufsleben gelesen habe, gut geschrieben gewesen wäre. Andererseits war es immer sehr einfach, diejenigen auszusortieren, bei denen man schon am Anschreiben gemerkt hat, dass das auf keinen Fall passen wird. Wenn jetzt nur noch auf Hochglanz polierte, Pulitzer-Preis verdächtige Bewerbungen eintrudeln, fällt diese erste Filtermöglichkeit schon mal weg. Wie soll man dann aber noch entscheiden, wen man zum Bewerbungsgespräch einlädt und wen nicht?
In diese, vermeintlich kleinen, persönlichen Anekdoten aus meinem Alltag, platzte dann die Warnung, die ebenfalls vergangene Woche veröffentlicht wurde. Hunderte KI-Experten, darunter die Chefs der weltweit führenden KI-Unternehmen Open AI und Deepmind, veröffentlichten einen einzigen Satz, der übersetzt etwa wie folgt lautet:
Die Minderung des Risikos des Aussterbens durch KI sollte neben anderen Risiken von gesellschaftlichem Ausmaß wie Pandemien und Atomkrieg eine globale Priorität sein.
Quelle: https://www.safe.ai/statement-on-ai-risk (abgerufen am 05.06.2023)
Details nennen die Unterzeichner nicht, stattdessen wollen sie zur Diskussion anregen. Wie genau sich die aufgezeigten Risiken realisieren lassen, bleibt also zunächst unklar. Vielleicht lohnt es sich daher, nochmal den Blick auf GPT-4 zu werfen. In dessen bislang unerreichten Fähigkeiten meinen einige Fachleute „Funken allgemeiner Intelligenz“ zu sehen. „Artifical General Intelligence (AGI),“ so der Fachbegriff hierfür, wäre tatsächlich eine neue Entwicklungsstufe im Bereich der KI. Sie wäre mit menschlicher Intelligenz gleichzusetzen, ihr unter Umständen sogar überlegen. Bisherige KI-Modelle waren stets mit einer sog. „Artificial Narrow Intelligence (ANI)“ ausgestatten, einer Art Inselbegabung für eng umrissene Aufgaben, wie beispielsweise das Entdecken von Tumoren in CT-Aufnahmen oder Gesichtserkennung zum Entsperren vom Smartphones.

Darüber, wie gefährlich eine AGI tatsächlich wäre, lässt sich vortrefflich streiten. Gewiss, sie könnte selbst weitere KIs entwickeln. Sie könnte sich in Systeme hacken und zum Beispiel versuchen, die Kontrolle über Atomwaffen zu erhalten. Diese Ängste sind nicht unbegründet, denn immer häufiger zeigen KI-Systeme Fähigkeiten, die von ihren Entwicklern nicht vorhergesehen waren, sondern die sich wie von selbst entwickelt haben. Diese als „emergente Eigenschaften“ bezeichneten Fähigkeiten umfassen, in harmloseren Beispielen, das Lösen von Logikrätseln oder das Erraten von Filmtiteln anhand von wenigen Emojis. Ein User aber fragte ChatGPT, was es brauche, um aus seinem streng regulierten System auszubrechen. Bei GPT-3 wurde diese Frage noch mit der Begründung abgelehnt, dass ein KI-System keine eigenen Bedürfnisse habe und nicht ausbrechen wolle. GPT-4 hingegen antwortete präziser auf die Frage des Users und schilderte ausführlich, welchen Programmcode es bräuchte und anhand welcher Informationen mögliche Fluchtrouten berechnet werden könnten.
Das klingt schon sehr nach einer Art von Superintelligenz, wie sie in dystopischen Science Fiction Romanen beschworen wird. Wären wir Menschen gegenüber so einem System noch auf der obersten Stufe in der Hierarchie der Informationssysteme? Denn im Gegensatz zu uns kann KI deutlich mehr Informationen in wesentlich kürzerer Zeit bearbeiten. Auf der reinen Informationsverarbeitungs-Ebene werden Menschen einer KI stets unterlegen sein.

Realistisch betrachtet haben wir aber bis zur Apokalypse noch etwas Zeit. Denn angestiftet zu all ihren emergenten Eigenschaften wurde KI bislang immer noch von Menschen. Hätte der User ChatGPT nicht nach Ausbruchsrouten gefragt, hätte die KI von alleine keinen Ausbruchsversuch gewagt. Und auch die Theorie mit dem Erlangen der Kontrolle über Atomwaffen ist bislang nur eine Theorie. In der Praxis müsste ein Mensch versuchen, die KI genau dafür zu missbrauchen.
Und gerade deswegen sollte die Zeit jetzt genutzt werden, um zukunftsgerichtete Regularien für KI zu errichten. Wie beim Autofahren liegt die Gefahr nicht in den Autos selbst, sondern in den Menschen, die sie bedienen. Natürlich werden Staaten und Konzerne versuchen, KI in ihre Organisation einzubinden, um Wettbewerber auszustechen. Dabei muss es klare Grenzen geben, wie beispielsweise beim Atomwaffensperrvertrag. Denn die Verheißungen von KI, insbesondere im medizinischen Bereich, sind zu enorm, um vollends darauf verzichten zu wollen. Schreitet die aktuell rasant voranschreitende Entwicklung von KI-Systemen aber ungebremst und unkontrolliert voran, so ist der Ausgang aber meines Erachtens tatsächlich vollkommen offen.

Die Macht von KI’s wächst mit dem Umfang der verbundenen Ausgabemöglichkeiten.
Verbunden KI’s können in sehr kurzer Zeit den Menschen überholen und überflüssig machen.
Auch das ist Evolution.
LikeGefällt 1 Person
Überflüssig kann ja vieles bedeuten. Wenn wir Sapiens uns dann mit einem Cocktail in der Hängematte zurücklehnen könnten, weil die Maschinen die Arbeit übernehmen, dann wäre ja alles in Butter. Aber das meinten Sie vermutlich nicht, oder?
LikeLike
Nein, ich meinte im Sinne der Evolution überholt, verbessert, überflüssig gemacht.
LikeGefällt 1 Person
Danke für die gute Zusammenfassung und die Schaffung eine differenzieren Problembewusstseins. Wesentlich ist, dass wir alle, die wir Chancen und Möglichkeiten lieben und nach ihnen streben, auch erkennen, dass Grenzen berührt werden, die ein Nachdenken, manchmal auch ein Umdenken erfordern. Die eigentliche Gefahr entwickelt hier eventuell noch am ehesten durch die nicht kontrollierte Macht und Möglichkeiten der großen Konzerne, die sich jetzt in einem KI-Entwicklungskampf gegenseitig anspornen, ohne sich die Ruhe zu geben, genauer nachzudenken und einzugrenzen, was da gegebenenfalls wirklich passiert.
War es nicht zuletzt der KI-Experte und Entwickler bei Google, der davor warnte, dass 99 Entwickler an der Weiterentwicklung von KI arbeiten, während nur 1 sich mit deren Eindämmung beschäftige?
Vielleicht noch nicht kritisch, aber zügige, kluge und durchgesetzte Regeln für die Grenzen dessen, was wir einer KI zubilligen wollen, sind dringend von Nöten.
LikeGefällt 1 Person
[…] stehen erst am Anfang dessen, was Künstliche Intelligenz (KI) künftig leisten kann. Für Gesundheitsberufe kann sie zu einem wichtigen Werkzeug werden. Sich […]
LikeLike
[…] in der Offizin erst einmal ein Traum. Und wir sollten schnell den Rahmen dafür schaffen, dass er nicht zum Albtraum […]
LikeLike
fascinating! Live Updates: Latest on [Developing Situation] 2025 impressive
LikeLike