HEALTHCARE-TRENDS

ChatGPT:
Fluch oder Segen?

Wenn sich KI-Spezialisten über Future Technologies unterhalten, interessiert dies den „Durchschnittsbürger“ eher selten. Wenn jedoch schon die Tagesschau über ChatGPT, den derzeitigen Star der KI-Szene, berichtet, ist das Thema für uns alle relevant – auch für HCP.
Vorab sollte die Abkürzung ChatGPT vielleicht noch einmal kurz erklärt werden: GPT steht für Generative Pretrained Transformer – und das bedeutet: generativer, also erzeugender, vortrainierter Transformator. Diese Übersetzung klingt zwar ziemlich abstrakt, wird aber deutlicher, wenn die Funktion der Technologie betrachtet wird: Ein Generative Pretrained Transformer kann mit Menschen kommunizieren und Fragen beantworten, daher kommt der Begriff Chat auch zusätzlich in der Abkürzung vor.

Stellt sich nun für uns die Frage, ob die Healthcare-Branche von dieser neuen künstlichen Intelligenz (KI) bedroht werden könnte. Oder kann ChatGPT vielleicht sogar dabei helfen, die Digitalisierung besser zu bewältigen, Menschen zu entlasten und den Gesundheitsmarkt voranzutreiben?

Während Schulen und Universitäten das neue Programm kritisch beäugen, weil sie um die Eigenleistung ihrer Schüler und Studierenden fürchten, träumen andere schon von der vollständigen Automatisierung ihres Kundenservices. Denn ChatGPT liefert scheinbar auf jede Frage eine überzeugende Antwort – darauf wurde die KI trainiert, mit zahllosen Textdaten aus dem Internet. Die hohe Leistungsfähigkeit in Aufgaben der natürlichen Sprachverarbeitung prädestiniert ChatGPT für die Automatisierung von Dialog-Systemen: im Service, in der Bildung oder in Feldern der Healthcare-Branche.

Welche konkreten Anwendungen sind denkbar?
ChatGPT bietet in der Gesundheitskommunikation verschiedene Möglichkeiten, zum Beispiel eine verbesserte Kundenbindung oder eine Verringerung des Arbeitsaufwands für Teams aus den Bereichen Kundensupport, Vertrieb und Marketing.

Dabei kann der KI-Textgenerator helfen, schnelle und personalisierte Antworten auf Kundenanfragen im Customer Support zu liefern, ohne dass menschliche Mitarbeiter ständig verfügbar sein müssen. Auf diese Weise können Unternehmen Kosten sparen bei gleichzeitiger Verbesserung der Customer Experience. Natürlich lässt sich auch Feedback sammeln, um daraus neue Erkenntnisse über Produkte oder Behandlungen zu gewinnen.

Personalisierte Medikamentenempfehlungen sind denkbar, denn ChatGPT kann auf Basis von Patientendaten dem Behandler eine geeignete Medikation vorschlagen. Da das Programm große Mengen an Daten analysieren und Vorhersagemodelle erstellen kann, sind Unternehmen zukünftig besser in der Lage, neue Medikamente zu entwickeln und Behandlungen zu optimieren. Die Vorhersagemodelle können zudem dabei helfen, Risiken oder Vorteile von Medikamenten frühzeitig zu erkennen.
ChatGPT behauptet von sich selbst, sogar Moleküle zu generieren, die potenziell als neue Wirkstoffe dienen können. Mithilfe von Machine-Learning- und Deep-Learning-Techniken soll die neue KI auch bestehende Moleküle auf ihre Eignung als Wirkstoffe analysieren können. Darüber hinaus kann das Programm bei der Schulung von medizinischem Fachpersonal eingesetzt werden, um deren Wissen und Fähigkeiten auszubauen. So können durch die Verwendung von Chatbots Schulungen effizienter und kostengünstiger umgesetzt werden.

Bei all den positiven Aspekten stellt ChatGPT jedoch auch eine Herausforderung dar – nämlich genau dann, wenn es um die Verbindlichkeit der Informationen, das Einhalten von Compliance oder die Gewährleistung rechtlicher Vorgaben geht. Die Datenquellen, auf denen dieser KI-Textgenerator basiert, sind nicht immer verifiziert – wie richtig sind die Informationen also? Solange Marken nicht sicherstellen, dass die KI nur mit verifizierten Datensätzen trainiert wird, die sie zur Verfügung stellen, ist es kaum möglich, ChatGPT als Standardtool zu verwenden.

Risiken birgt das Verwenden von ChatGPT auch hinsichtlich des Schutzes der Privatsphäre von Patientendaten. Abgesehen davon, dass jeder Verwender sein Einverständnis für die Verarbeitung seiner Daten geben muss, darf die unkontrollierte Nutzung natürlich nicht erlaubt sein. Nicht umsonst ist der Umgang mit medizinischen Daten stark reguliert. Um diese hohen Standards zu wahren, ist ein umfassender Ethikkodex für den Einsatz von Chatbots und anderen KI-gesteuerten Lösungen unabdingbar. Die Einhaltung der von der FDA, der EMA und anderen Aufsichtsbehörden erlassenen Vorschriften ist absolut unerlässlich. Dazu gehört auch die Vorgabe, dass Datenquellen, die Chatbot-Antworten unterstützen, nachvollziehbar und auf verifizierte Quellen durch den haftenden Eigentümer beschränkt sein müssen.
Zusammenfassend lässt sich sagen, dass ChatGPT ein ergänzendes Tool für Fachleute im Healthcare-Bereich sein kann, aber kein Ersatz für diese. Vielmehr benötigt es Profis, welche diese KI richtig nutzen können. Denn ohne Unterstützung von Fachleuten können Chatbots allein keine Wunder bewirken. Die größte Herausforderung für Pharmaunternehmen besteht also darin, Talente zu finden, die in der Lage sind, KI-Tools effektiv zu nutzen und gleichzeitig die Einhaltung gesetzlicher Vorschriften und die Richtigkeit der Informationen zu gewährleisten.
IHR ANSPRECHPARTNER ZUM THEMA

„Wir gehen mit Begeisterung für das Thema Gesundheit in die nächsten Jahre und freuen uns auf neue Herausforderungen und spannende Projekte. Bis zu unserem Jahrhundertjubiläum haben wir noch viel vor!“

MATTHIAS HAACK, CEO und Geschäftsführer
Aus Gründen der besseren Lesbarkeit wird auf die gleichzeitige Verwendung der Sprachformen männlich, weiblich und divers (m/w/d) verzichtet. Sämtliche Personenbezeichnungen gelten gleichermaßen für alle Geschlechter.