Gesundheitspolitik

Der Apotheken-Ökonom: Künstliche Intelligenz und Chat GPT

Andreas Kaapke ist Professor für Handelsmanagement und Handelsmarketing an der Dualen Hochschule Baden-Württemberg (DHBW), Standort Stuttgart, und Inhaber des Beratungsunternehmens Prof. Kaapke Projekte. E-Mail: a.kaapke@kaapke-projekte.de
 

Die Vehemenz und Dynamik, mit der die Diskussion um Anwendungen von Künstlicher Intelligenz oder Robotik in das Alltagsleben Einzug halten, ist atemberaubend. Insbesondere die textegenerierende Anwendung ChatGPT zeigt an zahlreichen Stellen auf, was passieren könnte, wenn sich hier etwas schneller Bahn brechen sollte als parallel dazu ein rechtlicher Rahmen geschaffen wird. Gerade wenn von wem auch immer Texte zu generieren sind, ergibt sich die Herausforderung zu erahnen, ob es ein Mensch oder eine Maschine war, die den Inhalt verantwortet. Wenn aber Algorithmen die Oberhand gewinnen, dann stellt sich die Frage eines Einsatzes auch bei allen beratungsintensiven Transaktionen, also z. B. auch bei der Abgabe von Arzneimitteln. Man muss kein Prophet sein, dass überall dort, wo Versorgungsengpässe auf ärztlicher und medikamentöser Ebene entstehen, der Ruf lauten wird, dies durch KI zu ersetzen. Eine Mehrheit der Leser wird dies nicht mal ansatzweise wollen und das Gros der Patienten auch nicht, doch wenn die Alternative keine Versorgung ist, wird die Bestückung auf der Basis künstlicher Intelligenz vorangetrieben. Der Abgabeautomat außerhalb der Öffnungszeiten war als Menetekel verteufelt, wird aber in einem umfassenderen Geschäftsmodell dann Realität, wenn es nicht gelingen sollte, veritable Lösungen mit menschlicher, emotionaler Intelligenz zu lösen.

Es würde zweifelsfrei „um 5 Grad kälter“ in den Offizinapotheken, die es dann in der jetzigen Form gar nicht mehr gäbe, denn, wenn sich ein derartiges Modell erst Bahn bricht, sind die Chancen der Kosteneffizienz immanent. Nur – jeder Algorithmus ist nur so gut wie der der Programmierung zugrundliegende Datenschatz und Verknüpfungen, wie es Menschen möglich ist, werden dann nicht oder nur bedingt gezogen. Davon abgesehen, dass es dem Menschen leicht fällt, vom Standard abzuweichen, weil es die Situations­beschreibung anzeigt, während der Algorithmus nach der Lösung sucht, die sich bislang als die am häufigsten bemühte Lösung angeboten hatte. Eine solche selbsterfüllende Prophezeiung führt aber zu Gleichmacherei; wo Individualisierung und Personalisierung eigentlich das Gebot der Stunde sind, gerade im Bereich Gesundheit und der entsprechenden Medikation.

Der Entwicklung entgegenzutreten, wäre falsch, denn Innovation bricht sich so oder so Bahn, sie kritisch zu begleiten, gebietet der Anwendungsbereich, denn es geht im Zweifelsfall um Leben und Tod. Und es ist ja nicht so, als ob die Segnungen einer anwendbaren künstlichen Intelligenz nicht auch schon im Beratungsgespräch dort Einzug halten würden, wo Computerprogramme Interdependenzen zwischen Arzneimitteln nicht nur ausweisen, sondern Warnungen aussprechen und alternative Lösungen vorschlagen.

Nur – gegen Lieferengpässe ist auch kein Roboter gefeit und ob und wie ein Computerprogramm reagiert, wenn die beste Lösung partout nicht geht, zeigen Navi­gationsgeräte in Autos, die vergleichsweise lange an der ursprünglich vorgeschlagenen Lösung festhalten, bis sich auch dort die Einsicht einstellt, dass nun die bereits vom Menschen eingeschlagene Alternativroute kürzer oder schneller geht, wenn man nur lange genug gegen den KI-Vorschlag angefahren war. So ärgerlich Verspätungen sind, so ätzend sind programmierte Alternativen, die dann doch an der Realität vorbeischrammen, sie sind nicht vergleichbar mit der Fatalität, die sich einstellen würde, wenn ein Computer einen Fehler generieren sollte. Und wer haftet dann? Ein Automat, der Programmierer, der Sprachsteuerer oder derjenige, der das Programm in den Verkehr gebracht hatte?

Wird es also doch nicht so kommen? In Italien sind erste Gesetze gegen die Anwendung von ChatGPT erlassen worden, in Deutschland wird darüber seit diesem Jahr erstmals diskutiert. Vorbehalte werden gerne stigmatisiert, ökono­mische Vorteile sind oft Treiber solcher Entwicklungen und die andauernde Forderung der Apothekerschaft nach Honorar­erhöhungen wird die Neigung der Kostensparer nach Alternativen zu suchen eher stimulieren, denn dämpfen.

Der dann alte Mensch wird in einem solchen Szenario von einem medizinischen ChatBot beraten, mit einem E-Rezept zu einem Medikamenten-Automat geleitet, um dann in einem Pflegeheim von einem chinesischen Roboter gereinigt zu werden. Ob die Computerstimme dann Verständnis für ihre Anliegen haben wird, ob es der Charme einer blechernen künstlichen Stimme mit der Erstkraft in der Offizin-Apotheke auch nur ansatzweise wird aufnehmen können und ob die menschlichen Parameter, die neben der Beratung und Abgabe der Medikamente in Apotheken als Kommunikationsdrehscheibe fast selbstverständlich sind, wird aber darüber entscheiden, ob sich ein künstliches Modell als Ersatz oder Ergänzung oder eben nicht zu etablieren vermag. Je jünger der Betrachter, desto wahrscheinlicher wird das Alternativszenario und je älter der Diskutant, desto schmerzlicher die Abkehr von der lieb gewonnenen Tradition. Nicht, dass es bei den Apothekern kommt wie bei den Dichtern, die erst dann groß und berühmt werden, wenn es sie nicht mehr gibt, weil sie erst nicht geschützt, dann nicht adäquat wertgeschätzt und dementsprechend honoriert werden und zum Schluss flächendeckend dicht gemacht haben. |

Das könnte Sie auch interessieren

Unterstützung bei Textproduktion und Webseitenmanagement

KI im Apothekenalltag einsetzen

WHO-Leitfaden zur Künstlichen Intelligenz

Welche Chancen und Risiken bietet KI im Gesundheitswesen?

Freund oder Feind der Apotheker?

Künstliche Intelligenz

Wie künstliche Intelligenz im Gesundheitswesen eingesetzt wird

Science-Fiction oder Realität?

Künstliche Intelligenz im Gesundheitswesen

KI im Gesundheitswesen: Science Fiction oder Realität?

Chatbot gewinnt Witz-Wettkampf

Lachen, bis die Festplatte glüht

Worauf zu achten ist, wenn künstliche Intelligenz in Apotheken genutzt wird

Risiken und Nebenwirkungen von KI

Maschinelles Lernen und Arzneimittelwirkungen

KI entdeckt weitere Interaktionen mit Paxlovid

0 Kommentare

Das Kommentieren ist aktuell nicht möglich.