Wie kann man maschinengenerierten Inhalt überhaupt noch von menschgemachtem unterscheiden?

In den frühen Tagen der Pandemie, als die Welt von Chaos und Unsicherheit erfüllt war, fand unsere Familie Trost in den warmen, schokoladenfarbenen Augen einer Labrador-Hündin. Es war März 2020, als wir sie nach Hause brachten, ein lebhaftes Fellbündel mit wedelndem Schwanz und einem Herz voller Liebe.

Sie wurde schnell zu einem festen Bestandteil unserer Familie, ihre spielerischen Possen brachten uns inmitten der Düsternis der Pandemie Freude und Lachen. Mit ihrem weichen, samtigen Fell und ihrer sanften Art war sie eine beruhigende Präsenz in unserem Zuhause, eine ständige Erinnerung daran, dass es trotz des Aufruhrs draußen immer noch Liebe und Güte auf der Welt gab.

Aber so sehr sie uns Glück brachte, so begleitete ihre Ankunft auch einen Hauch von Traurigkeit. Sehen Sie, meine Frau stammt aus Montreal, einer Stadt voller lebendiger Kultur, atemberaubender Architektur und einer reichen Geschichte. Wir hatten schon immer davon geträumt, mit unserem neuen pelzigen Gefährten dorthin zu reisen, die vielen Parks und Restaurants der Stadt zu erkunden und in ihren einzigartigen Charme einzutauchen.

Und so konnten wir nicht umhin, einen Stich der Sehnsucht nach den Abenteuern zu verspüren, die es niemals geben würde, als wir sie in unserem Garten herumrennen und spielen sahen. Aber selbst in unserer Traurigkeit wussten wir, dass sie ein Geschenk ist, eine Erinnerung daran, dass Liebe und Glück an den unerwartetsten Orten zu finden sind, selbst inmitten einer Pandemie. So halten wir sie fest und schätzen jeden Moment, den wir mit unserem kostbaren Hund haben, dankbar für das Licht, das sie in einer Zeit der Dunkelheit in unser Leben brachte.

Apotheke Digitalisierung Nachhaltigkeit E-Rezept KI AI ChatGPT Midjourney
Ein schokoladenfarbener Labrador-Retriever vor einem Geschäft in einer nordamerikanisch anmutenden Straße

Sie ahnen es vielleicht, aber weder die ersten vier Absätze dieses Beitrages noch das Bild habe ich selbst erstellt. Dabei entspricht der Inhalt des Textes, den ChatGPT anhand meiner Angaben über unsere inzwischen 4 Jahre alte Hündin Ari erstellt hat, komplett der Wahrheit. Und das Bild – nun das hat die Künstliche Intelligenz Midjourney für mich generiert. Meine Vorgaben waren, einen schokofarbenen Labrador vor einer Apotheke der Marke Jean Coutu in Montreal darzustellen. Und beim Bild merkt man vor allem an der Beschriftung der Schilder am Geschäft sowie an den asymmetrischen Nasenlöchern des Hundes, dass irgendetwas komisch ist. Wenngleich die Reflexion im Schaufenster, welche das Haus auf der anderen Straßenseite zeigt, tatsächlich sehr nach Montreal ausschaut. Und natürlich der Hundeblick – genau so schaut Ari auch.

Was einerseits total faszinierend ist, könnte andererseits in absehbarer Zeit zu einer großen Herausforderung werden. So wurde beispielsweise kürzlich darüber berichtet, dass ChatGPT Fragen in einem US-Medizinexamen korrekt beantwortet hat. Um diese Fragen beantworten zu können, müssen Menschen üblicher Weise lange Jahre Medizin studieren. Wie sollen also Professoren und Lehrer künftig noch beurteilen können, ob ihre Studenten und Schüler die Hausarbeiten selbst angefertigt haben? Wie soll man prüfen können, ob Fotos noch echt sind, wenn Grafikprogramme hyperrealistische Bilder erstellen können? Sind wir auf dem besten Weg dazu, die Matrix durch Künstliche Intelligenz Realität werden zu lassen?

Apotheke Digitalisierung Nachhaltigkeit E-Rezept AI KI ChatGPT Midjourney

Eine gute Antwort hierauf kannten schon die alten Römer: errare humanum est. Irren ist menschlich. Das beste Lektorat kann nicht verhindern, dass Fehler übersehen werden, die wir Menschen machen. Ein sog. „Large Language Model“ oder kurz „LLM“ wie ChatGPT basiert darauf, dass es eine unvorstellbar große Menge an Text durchforsten und verwerten kann. Es macht bei der Textausgabe dann auch keine Fehler, da in Summe natürlich die fehlerfrei formulierten Texte überwiegen und deren Inhalt übernommen wird. Außerdem prüft die Künstliche Intelligenz nicht , ob der Inhalt der Wahrheit entspricht oder nicht. Was plausibel ist, wird übernommen. Das hat häufig zur Folge, dass sich gewisse Formulierungen wiederholen und sich der Satzaufbau, wie man auch in den ersten vier Kapiteln sehen kann, häufig gleicht. Was wir Menschen hier tun können? Selbst üben! Lassen Sie Texte von ChatGPT oder anderen LLMs erstellen. Probieren Sie verschiedene Inhalte aus. Egal, ob Sie ein Geschäftsmodell für vertikales Gärtnern in der Wüste oder den Klappentext für einen Science-Fiction-Roman schreiben lassen: mit jedem Ergebnis werden Sie intuitiv verstehen, wie LLMs ticken und welcher Output zu erwarten ist. So kann man auch von LLMs verfasste Texte, wie sie zur Zeit auf Social Media kursieren (weil viele Menschen eben gerade mit ChatGPT experimentieren), schnell erkennen.

Sobald man dieses Gespür für die neuen Begleiter hat, weiß man, worauf man achten muss. Aber was heute noch vereinzelte Texte und Bilder sind, werden morgen schon komplette Ratgeber, Romane oder Filme bis hin zu ganzen Opern sein. Denn Künstliche Intelligenz lernt mit der Menge der zur Verfügung stehenden Daten. Und diese nehmen seit Jahren exponentiell zu. Gleichzeitig gilt nach wie vor das Moores’sche Gesetz. Die Rechenkapazitäten steigen kontinuierlich. Und mit 5G (und bald 6G) nimmt auch die zur Datenübertragung verfügbare Bandbreite immer weiter zu. Die Entwicklung der Künstlichen Intelligenz ist also noch lange nicht abgeschlossen.

Apotheke Digitalisierung Nachhaltigkeit E-Rezept AI KI ChatGPT Midjourney

Misstrauen gegenüber Inhalten aus dem Internet ist also mehr und mehr angebracht. Auch im Gesundheitswesen sollten hierbei wissenschaftliche Methoden verstärkt Einzug halten. Der wichtigste Grundsatz ist hierbei die Fallibilität. Wir alle können uns irren. In der Wissenschaft gilt eine Erkenntnis folglich auch erst dann als weitgehend gesichert, wenn sie von mehreren Instanzen unabhängig voneinander bestätigt wurde. Wissen alleine aufgrund der eigenen Autorität oder sozialen Stellung hingegen, wie es Demagogen gerne für sich reklamieren, hat in der wissenschaftsbasierten Welt nichts verloren. Konkret bedeutet das für jeden, der mit Patienten zu tun hat, dass kommuniziert werden muss: im Team, mit anderen Gesundheitsberufen vor Ort, mit Dienstleistern und vor allem mit Patienten. Nur so kann verhindert werden, dass Fake News, die eine Künstliche Intelligenz in die Welt gesetzt hat – einfach, weil ihre Grundlage halt plausibel war – die Runde machen. Wie schnell so etwas geht, durften wir in den letzten Jahren während der Pandemie mehrfach beobachten. Wenn aber Einigkeit darüber besteht, dass eine Erkenntnis der Wahrheit entspricht und als gesichert betrachtet werden kann – dann ist es am Ende sogar gleichgültig, ob Mensch oder Maschine die Verfasser sind. Geübte Betrachter werden dennoch den Unterschied erkennen.