Künstliche Intelligenz (KI) in der Pharma-Branche und der Medizin – Tool oder Teufel?

KI spielt in Pharma und Medizin schon lange eine Rolle – warum kochen die Emotionen gerade so hoch?

Künstliche Intelligenz (KI) in der Pharma-Branche und der Medizin – Tool oder Teufel?

Wir haben eine Weile überlegt, ob wir ChatGPT im Besonderen und KI im Allgemeinen hier im Blog thematisieren wollen oder nicht. Bei der Recherche für ein neues Blog-Thema stießen wir auf DocCheck aber unter einem Artikel auf diesen Satz: „Dieser Text entstand mit Hilfe von ChatGPT. Sagt uns gerne in den Kommentaren, was ihr davon haltet.“ Liest man sich die Kommentare durch, ist die Leserschaft not amused. Ist KI in Pharma und Medizin denn tatsächlich so neu? Hier also mal eine Bestandsaufnahme, in welchen Bereichen KI in der Pharma-Branche und im Medizinsektor eingesetzt wird. Und eine Theorie, warum viele ChatGPT und Co als Bedrohung empfinden.

Einsatz von KI in der Pharma-Branche

Der Einsatz von KI in der Pharma-Industrie hat sich in den letzten Jahren stark entwickelt. Interessant sind vor allem Machine Learning (ML)-Algorithmen zur Analyse von großen Datenmengen, z.B. bei der Medikamentenentwicklung oder im Bereich der personalisierten Medizin. Zu diesem Zweck werden KI-Systeme in der Pharma-Industrie seit den 1980er Jahren eingesetzt. In der Medizin sogar schon seit den 1960er Jahren. In den frühen Tagen der KI wurden hauptsächlich schlichte Analyse-Algorithmen verwendet, um Daten zu analysieren und Trends zu identifizieren. Der Übergang zu Machine und Deep Learning vollzog sich schleichend. Und zwar ebenfalls in den 1980er Jahren. (Funfact: Anfang der 1990er Jahre hat Markus Holzapfel, den Sie als versierten Moderator und Leiter von Medical Education & Produktion der SDMED kennen, als Hiwi beim Training einer KI zur Wertpapier-Erkennung mitgeholfen.)

Den richtigen Schub bekam KI erst in den letzten Jahren durch die Fortschritte in der Hardware-Technologie und die Verfügbarkeit großer Datenmengen. Heutzutage werden Machine und Deep Learning in einer Vielzahl von Anwendungen eingesetzt, darunter Bild- und Spracherkennung, Robotik, autonome Fahrzeuge, Predictive Analytics, Gesundheitswesen und vieles mehr. KI umgibt uns auch im Alltag seit Jahren.

Wenn KI aber in der Pharma-Branche, der Medizin und zahlreichen anderen Bereichen schon lange eingesetzt wird…

…warum macht ChatGPT uns dann so eine Angst?

Nach Einschätzung der SDMED hat sich vor allem verändert, dass die KI in einen Bereich eindringt, der bisher dem Menschen vorbehalten war: sie kommuniziert. Und zwar nicht in stoffeligen Phrasen, sondern in „eigenen“ Sätzen. Sie reagiert selbst auf komplexe Fragen passend und wird dadurch vermeintlich intelligent und kreativ. Im „Gespräch“ mit ChatGPT kann man leicht vergessen, mit einer KI über Pharma- und Medizin-Fragen zu „diskutieren“.

Von den Leser:innen auf DocCheck wird vor allem bemängelt, dass man den Text-Ergebnissen, die die KI ausspuckt, nicht trauen kann. Das stimmt! Aber das stimmt für Suchergebnisse im Internet erst recht. Und, seien wir ehrlich, durchaus auch für Gespräche mit Menschen.

Bei der Erstellung von Texten oder dem Zusammenfassen von Informationen hat die KI insbesondere dann noch Schwierigkeiten, wenn es um die Kontextualisierung von Informationen und die Interpretation von Sprachnuancen geht. Wird KI im professionellen Setting in der Pharma-Branche und der Medizin eingesetzt, trifft sie darum auch keine Entscheidungen. Sie gibt lediglich Vorschläge aufgrund der aktuellen Datenlage ab. Auch in diesem Kontext haben wir auf DocCheck extrem besorgte Kommentare gefunden. Zum Beispiel unter einem Artikel, in dem davon berichtet wird, dass ChatGPT auf Basis von Laborergebnissen und Symptom-Komplexen nach einer möglichen Diagnose befragt wurde. Als Alternative zu einem „kollegialen Gespräch“.

KI in Phrama-Branche und Medizin: Teufel oder Tool?

KI hat das Potenzial für beides: Tool und Teufel. Unabhängig von der Branche. Das ist zumindest unsere Einschätzung. Das Tool wird zum Teufel, wenn wir vergessen, dass es ein Tool ist und dass es fehlbar ist. Wenn wir das, was die KI ausspuckt, blind glauben. Denn die KI kann nur mit dem arbeiten, was sie hat. Was bedeutet, dass wir alle in der Verantwortung sind: die Programmierer:innen, die die grundlegenden Regeln und Algorithmen festlegen, die unzähligen „Trainer:innen“, die die Datenbasis auswählen und einspeisen, und die User:inen, die der KI eine Frage stellen. Denn auch Fragen müssen alle relevanten Informationen enthalten. Und berücksichtigen, dass die KI in einem Punkt ziemlich menschlich ist: Sie ist von ihrer Antwort überzeugt. Wenn Sie die KI also fragen, welches Tier das Hufgetrappel macht, das Sie auf einem Dorf im Westerwald hören, wird sie so lange vermuten, dass es ein Pferd ist, bis Sie der KI auch sagen, dass das Tier gestreift ist.

Auch, wenn die KI jetzt mit uns kommunizieren und Sachverhalte in ganzen (und eigenen) Sätzen wiedergeben kann: Sie kann nicht mehr, als das, wofür sie programmiert und worauf sie trainiert wurde. Kreativität kann sie noch lange nicht.

Wenn Sie also nach kreativen und bis ins Detail maßgeschneiderten Lösungen suchen, wenden Sie sich lieber an einen Menschen. Wenn es zum Beispiel um eine Fortbildung oder Veranstaltung geht, gerne auch an uns. Denn wir haben bei der Beschäftigung mit ChatGPT noch ein Manko gefunden: sympathisch, adaptiv und witzig kann sie noch nicht so richtig.

(Image by fszalai from Pixaba)





Zurück zur Übersicht
Zum ersten Inhaltsabschnitt