KI: die Revolution schleicht sich leise an …

Dienstag Abend, ich komme um 21:30 Uhr von einer Dienstreise aus München zurück. Am Hauptbahnhof in Mannheim sind auf dem Ausgang in Richtung Parkplatz schon seit einigen Jahren Werbebildschirme aufgestellt, auf denen im ca. 10-sekündigen Wechsel sowohl Werbung als auch aktuelle Nachrichten aus dem Ticker von T-Online gezeigt werden. Jetzt aber fällt mir zum ersten Mal auf, dass sich die adrette junge Frau aus der Parship-Werbung bewegt. Bisher war sie immer ganz statisch im Monitor gestanden, nicht mehr als ein digitalisiertes Bild. Und noch vor ein paar Jahren hingen in den Vitrinen sogar noch Plakate aus Papier. Und jetzt also kleine Kurzfilme und bewegte Bilder

departure-platform-371218_1920

Die Bilder am Bahnhof lernen laufen …

Für sich alleine genommen ist das keinen Eintrag hier wert. Monitore an öffentlichen Plätzen sind zwar sicherlich sinnvoll, egal ob für Nachrichten oder für Werbung. Aber die Relevanz für die Apotheke ist auf den ersten Blick nicht gegeben. Aber mich hat das zum Nachdenken angeregt. Spinnen wir doch die eben beschriebene Entwicklung einmal weiter und überlegen, was wohl als nächstes kommt …

Ich selbst bin mehr als nur überzeugt davon, dass nach den bewegten Bildern schon sehr bald die Interaktion mit dem Betrachter kommt. Zum einen durch das Auslesen von Daten aus dem Smartphone. So könnte die Parship-Werbung künftig nur noch dann eingeblendet werden, wenn die Mehrzahl der Smartphone-Besitzer im direkten Umfeld des Werbebildschirms als Beziehungsstatus „Single“ in ihrem Facebook-Account stehen hat. Zum anderen wird auch derjenige genauer analysiert, der auf die Monitore schaut. Und wenn jemand bei einer bestimmten Werbung ganz lange auf das angepriesene Produkt schaut, erscheint ein Barcode zum Abscannen und direkten Bestellen der Ware.

Einloggen auf irgendwelchen Portalen müssen wir uns dann übrigens nicht mehr. Auch das Verinnerlichen von Passwörtern (mit Sonderzeichen, Groß- und Kleinbuchstaben und mindestens einer Ziffer – aber bitte pro Seite ein eigenes Passwort) gehört dann der Vergangenheit an. Dann? Quatsch, jetzt schon. Seit einigen Generationen kann man sich auf dem iPhone (sowie den meisten Apps, die sich darauf befinden) mit dem eigenen Fingerabdruck anmelden. Und auf dem iPhone X geht das sogar mit Gesichtserkennung. Vergesslichen Menschen wie mir kommt das übrigens sehr entgegen!

finger-2081169_1280

Login per Fingerprint: nützlich und bequem!

Und in der Apotheke? Auch da gibt es eine vergleichbare Entwicklung. Bis noch vor einigen Jahren war es schwer vorstellbar, dass in einer Sichtwahl etwas anderes steht, als OTC-Produkte. In einigen Apotheken standen leere Packungen (und die Ware war im Kommissionierautomat), es gibt ein Apothekenkonzept, das mit Beratungskarten an Stelle von echter Ware arbeitet, aber in der großen Mehrzahl der Apotheken stand echte, harte Ware. Inzwischen aber gibt es immer mehr Apotheken, die mit einer virtuellen Sichtwahl arbeiten. Monitore bilden die physische Sichtwahl ab und vereinen den Vorteil der Leerpackungen (Ware ist im Automat) mit denen der Beratungskarten (moderne virtuelle Sichtwahlen können Beratungsfilme einspielen) und imitieren dabei die Optik der klassischen Sichtwahl.

Copyright: Olaf Malzahn

Virtuelle Sichtwahl heute; Photo (C) BD Rowa GmbH

Und auch hier wird die Entwicklung weiter gehen – und zwar noch deutlich weiter als an öffentlichen Plätzen wie Bahnhöfen. Kundenkarten werden obsolet sein dank Gesichtserkennung. Der Kunde wird anhand biometrischer Merkmale erkannt und direkt seinem Patientenprofil zugeordnet. In einer vertraulichen, diskreten Umgebung, deren Betreiber einer Berufsschweigepflicht unterliegt, ist so etwas durchaus vorstellbar. Außerdem scannen kleinste Kameras den Kunden und erkennen anhand der Neigung seiner Mundwinkel auch noch seine Stimmungslage. Ach so … das ist übrigens ebenfalls keine Zukunftsmusik, sondern eine Kurzbeschreibung meines letzten Besuchs in der IDA, der Innovations-Akademie deutscher Apotheken von BAYER in Köln, wo an genau solchen Projekten geforscht wird.

IMG_8626

Mein Gesicht in der Erkennungssoftware: Augen, Nase und Mund wurden akkurat gefunden. Anscheinend war ich aber an dem Tag sehr gut ausgeschlafen, denn die Software hat mich 11 Jahre zu jung eingeschätzt …

Wie massiv sich dadurch die Beratungsqualität in der Apotheke verbessern könnte, wenn es dem Apothekenpersonal gelingt, die so erhaltenen Informationen diskret und zum Nutzen des Kunden ins Gespräch einfließen zu lassen, können wir uns heute vermutlich nur ansatzweise vorstellen. Aber die Digitalisierung hat uns doch zumindest eines gelehrt: je besser man seinen Kunden kennt, um so besser auf ihn zugeschnittene Angebote kann man ihm anbieten und ihn um so enger an sein Unternehmen binden.

Was uns so Innovationen wie personalisierte Werbung und Gesichtserkennung ermöglicht, ist der enorme Sprung, den die künstliche Intelligenz (KI) durch das maschinelle Lernen bzw. „deep learning“ in den letzten Jahren gemacht hat. Anders als die herkömmliche Maschinenintelligenz, die auf vorgegebenen Systemen, Regeln und Abläufen besteht, wird beim tiefen Lernen – ähnlich wie beim menschlichen Gehirn – anhand von Beispielen, und zwar einer sehr großen Anzahl von Beispielen, gearbeitet. Zeigt man einem Computer Millionen von Hunde- und Katzenbildern und gibt das gewünschte Ergebnis (Hund oder Katze) vor, so „lernt“ er irgendwann, Katzen und Hunde selbst voneinander zu unterscheiden. Möglich wurde diese Technologie übrigens durch die Digitalisierung, also die immer kleiner und schneller werdenden Geräte in Kombination mit den enormen Mengen an Daten, die vor allem das Internet hervorgebracht hat.

Ohne KI gäbe es weder autonomes Fahren (Verkehrsschilder entsprechen Mustern, ähnlich wie die Katzen und Hunde im oben genannten Beispiel, die von der KI erkannt werden können; gleiches gilt für andere Verkehrsteilnehmer und evtl. Gefahrensituationen) noch sprachgesteuerte Assistenten wie Alexa, Cortana oder Siri (auch die Sprache hat ein Muster, das Maschinen erkennen können). Diese und noch viele weitere Beispiele setzen ein „Verstehen“ voraus, wie es bisher nur im komplexen neuronalen System von uns Menschen vorhanden war. Experten gehen sogar davon aus, dass KI früher oder später in jedem Unternehmen eingesetzt wird – ähnlich wie Elektrizität und Internet wird sich lediglich die Nutzungsintensität von Unternehmen zu Unternehmen unterscheiden.

analysis-2030265_1920In der medizinischen Anamnese und Analyse wird KI für einen Quantensprung sorgen. Wie bereits erwähnt, ist KI in der Lage, Muster in einer unvorstellbaren großen Anzahl von Daten zu erkennen. Durch maschinelles Lernen werden schon heute genomische Daten und Krankenblätter analysiert, um vor allem in den Bereichen Krebs und seltene Krankheiten ein tieferes Verständnis über deren Entstehung und Ansatzpunkte zur Therapierung zu erlangen. Wer, außer KI, könnte die unzählbaren Forschungsberichte lesen, die in den letzten Jahrzehnten zu diesen Krankheiten veröffentlicht wurden? Menschliche Wissenschaftler sicher nicht – und selbst wenn: würden Sie dann weniger offensichtliche Zusammenhänge auch tatsächlich erkennen?

Werfen wir noch kurz einen Blick darauf, was das für unser Arbeitsleben bedeuten kann. Oder anders: müssen Sie Angst um Ihren Job in der Apotheke haben?

Ich gehe davon aus, dass eher kurz- als mittelfristig alles automatisiert werden wird, was automatisiert werden kann. Repetetive und administrative Aufgaben kann man grundsätzlich automatisieren. Aber um so wichtiger werden sog. „Soft Skills“ in allen Berufen werden: Empathie und soziale Interaktion sind Fähigkeiten, über die Maschinen nicht verfügen, auf die Kunden, Kollegen und Chefs aber durchaus Wert legen. Berufsbilder werden sich wandeln – aber tun sie das nicht schon immer? Heute gibt es kaum noch Kutschen, aber der Beruf der Personenbeförderung hat durch das Automobil deutlich mehr Jobs geschaffen, als abgeschafft. Bis jetzt jedenfalls, denn durch das autonome Fahren steht hier der nächste drastische Umbruch kurz bevor.

desktop-3170198_1920Die Revolution der Künstlichen Intelligenz kommt also nicht auf einen Schlag – sie schleicht sich leise an. Und vielleicht wird es auch Ihnen gehen, wie es sich mir an jenem Dienstag Abend am Hauptbahnhof Mannheim mit den Werbeanzeigen gegangen ist:

„Ihnen werden immer mehr Alltagsgegenstände auffallen, die ein bisschen smarter werden und die Sie besser verstehen.“

Demis Hassabis, KI-Forscher und Mitgründer von DeepMind; veröffentlicht in Think:Act #24, 02/2018, S. 17

auto-3193516_1920Ach ja, heute bin ich übrigens mit dem Fahrrad ins Büro gefahren. Dabei kam mir ein Tesla entgegen … und ich bin mir jetzt gar nicht mehr sicher, ob ich jemand hinter dem Steuerrad gesehen habe …