Risiken und Nebenwirkungen von KI

Worauf zu achten ist, wenn künstliche Intelligenz in Apotheken genutzt wird

Stuttgart - 13.12.2023, 07:00 Uhr

Sollten Apotheken auf KI verzichten? Natürlich nicht. Aber man muss darauf achten, welche Daten man eingibt. Denn diese werden von der KI zu Trainingszwecken weiterverwendet. (Foto: contrastwerkstatt / AdobeStock)

Sollten Apotheken auf KI verzichten? Natürlich nicht. Aber man muss darauf achten, welche Daten man eingibt. Denn diese werden von der KI zu Trainingszwecken weiterverwendet. (Foto: contrastwerkstatt / AdobeStock)


Der Quantensprung, den künstliche Intelligenz (KI) seit Anfang 2023 vollzogen hat, ist nicht nur offensichtlich, sondern auch in aller Munde. Meist ist dabei von sogenannter generativer KI die Rede. Was bedeutet das für die Arbeit in der Apotheke?

Dank Tools wie ChatGPT für die Erstellung von Texten oder Midjourney für Bildgenerierung kann erstmals auch eine breite Öffentlichkeit diese Arten von künstlicher Intelligenz (s. Kasten weiter unten im Text „Arten von künstlicher Intelligenz“) im Alltag einsetzen. Zwischen Faszination und Grauen bewegen sich dann auch meist die Reaktionen derjenigen, die zum ersten Mal mithilfe eines Prompts (s. Kasten „Was ist ein Prompt?“) einen Text oder ein Bild generieren lassen und vom Ergebnis überwältigt sind.    

Was ist ein Prompt? 

Unter einem Prompt versteht man die Eingabeaufforderung, mit welcher die Aufgabe für die KI beschrieben wird. Nur wer in der Lage ist, der generativen KI möglichst exakt mitzuteilen, was man von ihr möchte, kann von ihr auch das bestmögliche Ergebnis erwarten. Diese Fähigkeit wird auch als Prompt Engineering bezeichnet.

Die Faszination, die generative KI auf die User ausübt, liegt in der Qualität der Ergebnisse. Fragt man etwas, beispielsweise zu Wechselwirkungen zwischen zwei Arzneimitteln, so bekommt man eine perfekt ausformulierte, grammatikalisch und ortho­grafisch korrekte Antwort, die auch noch sehr überzeugend klingt. Daneben lassen sich Bilder („male eine Apotheke im Stile von Van Gogh“), Musik und sogar Algorithmen in allen erdenklichen Programmiersprachen erstellen.  
Ein grundsätzliches Verständnis davon, wie genau so gute Ergebnisse generiert werden können, ist notwendig, um auch die sich damit einhergehenden Fallstricke zu verstehen. 

Generative KI kann neue Inhalte aufgrund von Inhalten erstellen, die sie zuvor selbst gelernt hat. Diesen Prozess des Lernens mit bereits vorhandenen Informationen bezeichnet man als „Training“. Nach dem Training ist generative künstliche Intelligenz in der Lage, ein statistisches Modell zur Prognose zu berechnen. 

Mehr zum Thema

Einflüsse neuer Technologien auf unterschiedliche Berufsbilder

KI: Mögliche Folgen für den Arbeitsmarkt

Runder Tisch „Frauen im Gesundheitswesen“

KI muss fit sein für geschlechtersensible Medizin

Bekommt also die generative KI, nachdem sie trainiert wurde, einen Prompt, so benutzt sie die zuvor erworbenen Informationen als statistisches Modell. Dieses legt sie zugrunde für die Antwort, die der wahrscheinlichsten Vorhersage entspricht, und generiert daraus schließlich den neuen Inhalt. Auch der Prompt selbst, der die Antwort ausgelöst hat, fließt dabei in das statistische Modell mit ein und wird bei künftigen Prompts mitberücksichtigt. 

Auf Faszination folgt Grauen 

Nach der ersten Faszination setzt das Grauen spätestens dann ein, wenn man versteht, welche Herausforderungen es beim Training der generativen künstlichen Intelligenz gibt: 

  • Je weniger Daten beim Training verwendet werden, umso unpräziser sind die Ergebnisse von generativer KI, ähnlich wie bei Hochrechnungen von Wahlen, die mit fortschreitender Auszählung der Stimmzettel immer präziser werden. Zu wenige Daten bedeuten immer, dass auch nur vage Ergebnisse generiert werden können.
  • Werden unkorrekte oder unpräzise Daten verwendet, so wirkt sich das unmittelbar auf die generierten Resultate aus. So dürfte eine juristische generative KI bis heute nicht mit Gerichtsurteilen aus den USA trainiert werden, da die Ergebnisse eine deutliche Benachteiligung von Menschen mit schwarzer Hautfarbe zur Folge hätten.
  • Ähnlich ist es, wenn Kontextdaten fehlen. Dies ist im Training von medizinischen Anwendungen generativer KI wichtig. Zu den Kohorten erkrankter Personen braucht es stets auch Kohorten gesunder Menschen mit vergleichbarer Prädisposition, um valide Aussagen für künftige Verläufe treffen zu können. Generative KI ist am Ende nichts weiter als Statistik.
  • Schließlich gibt es auch das Problem, dass beim Training nicht genügend (vor allem ethische) Einschränkungen gesetzt werden.

Der menschliche Sachverstand bleibt wichtig 

Basierend auf ihrem Training erstellt generative KI Ergebnisse. Und wenn das Training schlecht war, sind es die Ergebnisse auch. Sie können sogar unsinnig oder schlichtweg falsch sein. Das größte Problem dabei ist allerdings, dass auch irrsinnige Ergebnisse immer noch plausibel und überzeugend klingen können. 
Deswegen wird zumindest kurzfristig auch der menschliche Sachverstand an Wichtigkeit zunehmen. Ergebnisse von generativer KI sollten bei Zweifeln mit wissenschaftlich fundierten Recherchen hinterfragt und verifiziert werden. Allerdings sollte man nicht den Fehler machen, die generative KI selbst nach einer Quelle zu fragen. Denn sie wird immer eine angeben, im Zweifel wird sie die Quelle einfach erfinden. In einem Fall zitierte beispielsweise ChatGPT einen Beitrag aus einem wissenschaftlichen Journal, das es tatsächlich gibt, von zwei Autoren, die es ebenfalls gibt und deren Expertise auch das infrage stehenden Thema ist. Lediglich den zitierten Artikel hatten sie nie verfasst und folglich auch nicht in dem Wissenschaftsjournal veröffentlichen können. Aber die Kombination aus zwei Fachleuten für ein Thema und eine renommierte Zeitschrift sind durchaus in der Lage, Menschen von weiteren externen Recherchen abzuhalten. Der Fachbegriff für solche unsinnigen und falschen Ergebnisse ist übrigens „Halluzinationen“ – aus nachvollziehbarem Grund. 

Ins Gefängnis wegen ChatGPT? 

Neben der Unzuverlässigkeit hat generative künstliche Intelligenz jedoch ein weiteres Problem, das im datenschutzaffinen Deutschland noch schwerer wiegt. Und dieses Problem hängt eng damit zusammen, wie generative KI trainiert wird. Wie bereits geschrieben, wird jeder abgesetzte Prompt von der künstlichen Intelligenz für das eigene Training verwendet. Aus technischer Sicht ist das sinnvoll, da so das zugrunde liegende Deep Learning System (s. Kasten „Arten von künstlicher Intelligenz“) sich selbst kontinuierlich verbessern kann. Über die Zeit werden die Ergebnisse immer besser und brauchbarer. 

Harmlos ist das, solange man beispielsweise, ganz generell, nach der Wechselwirkung zweier Arzneimittel fragt. Dabei werden zwar auch schon personenbezogene Daten übertragen, wie die IP-Adresse des Computers, der den Prompt schickt. Wobei man hier sogar noch von dem stillschweigenden Einverständnis des Users ausgehen kann, der den Prompt geschrieben hat. 
Kritischer wird es, wenn der Prompt darüber hinaus weitere personenbezogene Daten enthält. So könnte man zum Beispiel von der generativen künstlichen Intelligenz wissen wollen, was ein 49 Jahre alter Mann tun kann, der unter Atemnot leidet, obwohl er sein Asthmaspray wie verordnet einnimmt. Mit diesen Angaben ist man schon mittendrin im Anwendungsbereich des Datenschutzrechts. Auch wenn hier noch keine konkrete natürliche Person identifiziert wurde, so ist sie doch identifizierbarer geworden: Alter, Geschlecht, Krankheitsbild mit sich verschlechternden Symptomen und eine regionale Eingrenzung über die IP-Adresse des Computers. All das engt den Kreis der möglicherweise gemeinten Personen ein. 

KI-Einsatz nicht im Zusammenhang mit Patientendaten

Deswegen sollten Apotheken niemals generative KI im Zusammenhang mit konkreten Patienteninformationen verwenden. Einmal als Prompt verschickt, werden all diese Daten von der generativen KI gespeichert und zu Trainingszwecken weiterverwendet. Allein darin liegt ein Verstoß gegen die Datenschutzgrundverordnung, weil personenbezogene Daten ohne Einwilligung der Betroffenen erhoben und verarbeitet werden. Apotheker unterliegen darüber hinaus als sog. „Berufsgeheimnisträger“ auch noch besonderen Rechtsvorschriften, wie zum Beispiel § 203 des Strafgesetzbuches. Ein Prompt mit Patientendaten verstößt gegen diese Norm und wäre bei strenger Gesetzesauslegung sogar strafbar. Eine Haftstrafe ist bei einem erstmaligen, eventuell fahrlässigen Verstoß zwar unwahrscheinlich, dennoch sollte man sich darum bemühen, nicht als Präzedenzfall in die IT-juristischen Geschichtsbücher einzugehen. 

Keine Künstliche Intelligenz in Apotheken?

Sollten Apotheken also ganz auf den Nutzen von generativer KI verzichten, um nicht mit dem Gesetz in Konflikt zu geraten? Natürlich nicht. Wie immer kommt es darauf an, was im Prompt steht. So könnte man folgende Prompts bedenkenlos absetzen und die Ergebnisse verwenden:

  • „Ich bin Apotheker. Schreibe mir einen Post für LinkedIn mit maximal drei Absätzen, in denen erklärt wird, warum die Medikationsanalyse in der Apotheke wichtig ist für Patienten.“ 
  • „Ich bin Apotheker und schreibe einen Newsletter für meine Kunden, überwiegend ältere Menschen, darunter auch viele mit Migrationshintergrund. Thema des aktuellen Newsletters ist Arzneimitteltherapiesicherheit. Bitte formuliere mir in leicht verständlicher Sprache, was meine Apothekenkunden zum Thema Wechselwirkungen beachten sollen und wie ich sie in meiner Apotheke dazu unterstütze.“ 
  • „Nimm die Rolle eines Kunden ein, der sich in meiner Apotheke darüber beschwert, dass sein Arzneimittel starke Nebenwirkungen hat!“ 
  • „Für meine Kunden möchte ich eine Weihnachts-E-Mail schreiben. Generiere ein besinnliches Gedicht, das gegen Ende Zuversicht fürs neue Jahr ausstrahlt.“

Im ersten Prompt wird ein klares Ziel vorgegeben, im zweiten wird Kontext gesetzt und das dritte Beispiel löst ein Rollenspiel aus, mit dem man kritische Gesprächssituationen am HV trainieren kann. Das vierte Beispiel ist selbsterklärend. Personenbezug wird an keiner Stelle übermittelt. Anhand dieser Beispiele können sich Apotheken orientieren.  

Arten von künstlicher Intelligenz

Als künstliche Intelligenz (KI) wird die Theorie und die Entwicklung von Computersystemen bezeichnet, die Aufgaben erledigen können, für die üblicherweise menschliche Intelligenz benötigt wird. KI erzeugt also Maschinen, die so agieren, als ob sie menschlich wären. 

Machine Learning (ML) Ist eine Unterart von KI, bei der Computer ohne eigentliche Programmierung von selbst lernen, indem sie mit einer enorm hohen Anzahl an Daten gespeist werden und daraus entweder überwacht oder komplett selbstständig Ableitungen treffen können. ML lernt aus historischen Daten und kann daraus Vorhersagen für zukünftige Entwicklungen treffen. Das funktioniert, weil ML Muster identifiziert und Zusammenhänge erkennt. 

Deep Learning (DL) wiederum ist eine Unterart von Machine Learning. Computer interpretieren Daten eigenständig und verknüpfen Knotenpunkte mithilfe von künstlichen neuronalen Netzwerken neu. Diese Netzwerke sind dem menschlichen Gehirn nachgebildet. Dadurch können auch völlig neue Ergebnisse entstehen, die dem menschlichen Auge wegen des Erfahrungs- und Erwartungs-Bias verborgen geblieben wären. 

Generative künstliche Intelligenz ist eine praktische Anwendung von Deep Learning, bei der komplett neue Daten anhand der zuvor erstellten Verknüpfungen im künst­lichen neuronalen Netzwerk generiert werden. Generative KI versteht die statistische Verteilung einzelner Datenpunkte und berechnet die Wahrscheinlichkeit von Ergebnissen, wie beispielsweise das nächste Wort in einem Satz.

Für die meisten Menschen ist generative KI eine völlig neue Technologie, auch für die meisten Apotheken. Die Lernkurve wird in den nächsten Jahren steil und die heute noch neue Technologie in wenigen Jahren etabliert sein. Apotheken sollten daher die Risiken und Nebenwirkungen der generativen KI kennen, damit sie diese schon heute umschiffen und dennoch von ihren Vorteilen profitieren können. 


Florian Giermann, DAZ-Autor
redaktion@daz.online


Diesen Artikel teilen:


0 Kommentare

Das Kommentieren ist aktuell nicht möglich.