AutorIn

Patrick Straub, so erschienen im Alpha1-Journal 2/2025.

Nie war Wissen so nah. Ein Klick, ein Satz – und schon formuliert eine künstliche Intelligenz die perfekte Antwort. Doch wenn es um die eigene Gesundheit geht, um Unsicherheit, Hoffnung oder Angst, wird die Sache komplizierter.

Gerade Menschen mit seltenen Erkrankungen wie Alpha-1-Antitrypsin-Mangel wissen, wie mühsam die Suche nach verlässlichen Informationen sein kann. Da scheint eine Maschine, die jede Frage sofort beantwortet, verlockend. Aber lohnt sich das Vertrauen?

Was ist eigentlich ein „Sprachmodell“?

Wenn heute von „künstlicher Intelligenz“ gesprochen wird, ist damit meist eine bestimmte Form gemeint: sogenannte Large Language Models (LLMs), also große Sprachmodelle. Das klingt kompliziert, ist aber im Grunde ein Computerprogramm, das mit sehr vielen Texten trainiert wurde. Man kann es sich vorstellen wie eine riesige Bibliothek, in der das Programm gelernt hat, wie Sprache funktioniert. Es weiß, welche Wörter häufig zusammen vorkommen, wie Sätze gebaut sind und wie man eine Antwort formuliert, die sinnvoll klingt.

ChatGPT, Gemini oder andere Systeme nutzen dieses Wissen, um Texte zu schreiben oder Fragen zu beantworten. Dabei denken sie aber nicht wie Menschen – sie „verstehen“ den Inhalt nicht wirklich. Stattdessen berechnen sie, welches Wort am wahrscheinlichsten als Nächstes folgt.

Wenn man also fragt: „Was ist eine Lungenfibrose?“, sucht das Programm in seiner inneren „Sprachwelt“ nach Mustern und Formulierungen, die gut passen. So entsteht der Eindruck, es würde wirklich wissen, worum es geht – obwohl es in Wahrheit nur Sprache nachahmt.

Wie entstehen die Antworten?

Damit ein solches System antworten kann, wurde es mit Milliarden von Wörtern aus Büchern, Zeitungen und Internetseiten trainiert. So hat es gelernt, wie Menschen über Dinge zu schreiben.

Systeme wie z. B. ChatGPT oder Gemini können heute zusätzlich auf aktuelle Informationen zugreifen – etwa über eine Internetverbindung. Das nennt man Grounding. Dabei sucht das Programm gezielt nach verlässlichen Quellen, um seine Antwort zu prüfen oder zu ergänzen.
Trotzdem ist Vorsicht geboten: Nicht jede Quelle im Internet ist zuverlässig, und auch moderne KI-Modelle können sich irren. Sie kombinieren Sprachmuster mit gefundenen Daten – sie „wissen“ also nicht, was wahr ist, sondern versuchen nur, möglichst passende Antworten zu formulieren.

Warum viele Menschen KI spannend finden

Wer eine seltene Erkrankung hat, kennt das Gefühl, in Suchmaschinen kaum hilfreiche Antworten zu finden. Viele Betroffene berichten, dass KI-Chatbots ihnen dabei helfen, Fachbegriffe zu verstehen oder Arztberichte zu entschlüsseln. Einige nutzen sie, um längere Texte zusammenzufassen oder um Fragen zu formulieren, die sie beim nächsten Arzttermin stellen möchten. KI kann auch emotional entlasten: Sie antwortet sofort, sie urteilt nicht, und sie ist jederzeit erreichbar. Das zeigt auch die Stärke dieser Technologie: Sie macht Wissen zugänglicher. Wer Schwierigkeiten mit dem Lesen, Sehen oder Tippen hat, kann per Spracheingabe mit ihr kommunizieren. Manche nutzen sie sogar, um fremdsprachige Texte zu übersetzen oder komplizierte wissenschaftliche Passagen in einfache Worte zu übertragen.

Wo Licht ist, ist auch Schatten?

So beeindruckend die Möglichkeiten sind – es gibt klare Grenzen. Eines der größten Probleme sind sogenannte „Halluzinationen“. Das bedeutet, dass die KI Dinge erfindet, wenn sie keine passende Antwort findet. Sie klingt dabei sehr überzeugend, obwohl das, was sie sagt, schlicht falsch ist.

Ein Beispiel: Fragt man nach einer seltenen Nebenwirkung eines Medikaments, kann es passieren, dass das Modell eine plausible, aber erfundene Antwort gibt. Das liegt daran, dass es nicht „weiß“, was wahr ist – es erzeugt Texte, die sprachlich glaubwürdig wirken.

Auch der Datenschutz ist wichtig. Einige KI-Systeme speichern Eingaben, um die Dienste zu verbessern. Je nach Anbieter kann man dies teilweise deaktivieren. Wer also seine Krankengeschichte, Laborwerte oder persönliche Daten eintippt, riskiert, dass diese Informationen auf fremden Servern landen.

Und noch etwas: KI ist nicht objektiv. Sie lernt aus menschlichen Texten – und Menschen machen Fehler oder haben Vorurteile. Wenn ein Sprachmodell also auf solche Texte trainiert wurde, kann es diese Verzerrungen übernehmen.

Wie man KI sicher nutzt

Ganz verzichten muss man auf ChatGPT und Co. deshalb nicht. Es geht darum, sie bewusst und klug zu verwenden.

Hier ein paar einfache Regeln:

1. Keine persönlichen Daten eingeben.
Keine Namen, keine Diagnosen, keine Dokumente hochladen.

2. Gesundheitsinfos immer prüfen.
Offizielle Quellen sind besser: z. B. Unikliniken, Patientenorganisationen oder das Robert Koch- Institut.

3. KI als Hilfe, nicht als Arzt.
Man kann sich Dinge erklären lassen, aber niemals eine Diagnose oder Therapieentscheidung allein darauf stützen.

4. Gesunden Menschenverstand behalten.
Wenn etwas merkwürdig klingt – lieber nochmal nachlesen oder jemanden fragen, der sich auskennt.

5. Nachfragen, woher Informationen stammen.
Viele KIs können inzwischen angeben, auf welche Quellen sie sich stützen. Wer also wissen möchte, wie eine Antwort zustande kommt, kann ruhig fragen: „Welche Quelle nutzt du dafür?“ – das erhöht die Transparenz und Nachvollziehbarkeit.

Wer sich an diese Grundsätze hält, kann viel Nutzen aus der Technik ziehen, ohne sich zu gefährden.

Zukunft mit Augenmaß

Künstliche Intelligenz wird die Medizin verändern – das steht fest. Doch wie sehr wir ihr vertrauen, hängt davon ab, wie verantwortungsvoll wir sie einsetzen. KI kann uns helfen, informierter zu sein, besser vorbereitet ins Arztgespräch zu gehen und Zusammenhänge zu verstehen. Sie kann uns aber auch in die Irre führen, wenn wir sie unkritisch nutzen.

Darum ist Aufklärung so wichtig. Wer weiß, wie KI funktioniert, kann ihre Antworten einordnen. Sie ist weder allwissend noch gefährlich per se – sondern ein Werkzeug. Und wie bei jedem Werkzeug gilt: Es kommt darauf an, wie man es benutzt.

Mit klarem Kopf und offenem Blick

ChatGPT, Gemini und ähnliche Programme können wertvolle Begleiter im Alltag sein – auch und gerade für Menschen mit seltenen Krankheiten. Sie übersetzen, erklären, helfen beim Verstehen. Aber sie ersetzen kein medizinisches Fachwissen.

Die beste Haltung ist: neugierig bleiben, aber kritisch. So lässt sich die neue Technik sicher und sinnvoll nutzen – und vielleicht hilft sie am Ende sogar dabei, ein Stück mehr Klarheit in das eigene Leben mit einer seltenen Krankheit zu bringen.

Wichtige Begriffe rund um Künstliche Intelligenz 

Künstliche Intelligenz (KI) 

Das ist ein Sammelbegriff für Computerprogramme, die Aufgaben lösen, für die normalerweise menschliches Denken nötig ist – etwa Sprache verstehen, Texte schreiben oder Muster erkennen.

Sprachmodell/LLM (Large Language Model) 

Ein Computerprogramm, das gelernt hat, Sprache zu „verstehen“ und zu erzeugen. Es wurde mit riesigen Mengen an Texten trainiert, um passende Antworten zu formulieren. ChatGPT, Gemini oder Claude gehören dazu.

Prompt 

So nennt man die Eingabe, also die Frage oder Anweisung, die man der KI stellt. Ein klar formulierter Prompt führt meist zu besseren Antworten. Beispiel: „Erkläre mir, was Lungenfibrose ist – in einfachen Worten.“

Grounding 

Das bedeutet, dass eine KI aktuelle Informationen aus dem Internet oder aus bestimmten Datenquellen hinzuzieht, um ihre Antwort zu prüfen oder zu ergänzen. So kann sie auf dem neuesten Stand bleiben.

Halluzination

So nennt man es, wenn eine KI etwas „erfindet“ – also eine Antwort gibt, die zwar überzeugend klingt, aber nicht stimmt.

Perplexity.ai

Das ist eine Suchmaschine, die KI nutzt, um Fragen direkt zu beantworten – ähnlich wie ChatGPT, aber mit einem starken Fokus auf aktuelle Informationen aus dem Internet. Perplexity zeigt Quellen an, fasst Inhalte zusammen und hilft dabei, schnell verlässliche Antworten zu finden.

Weiterführende Informationen und seriöse Quellen 

Wer sich näher informieren möchte, findet hier einige vertrauenswürdige Anlaufstellen rund um das Thema Künstliche Intelligenz im Gesundheitswesen:

Bundesärztekammer – „KI in der Gesundheitsversorgung“ (Thesenpapier) 

Beschreibt, wie Ärztinnen und Ärzte KI verantwortungsvoll einsetzen können und welche ethischen Fragen dabei wichtig sind.
Mehr erfahren

Kassenärztliche Bundesvereinigung (KBV) – Praxiswissen KI  

Ein kompakter Überblick für medizinisches Personal und Patientinnen und Patienten, mit vielen praktischen Fragen zum sicheren Umgang mit KI.
Mehr erfahren

mehr erfahren Bundesministerium für Gesundheit (BMG) – „KI trifft Gesundheit“

Eine leicht verständliche Broschüre mit Beispielen, wo KI schon heute in der Versorgung eingesetzt wird.
Mehr erfahren

Share
Youtube Dowload Liste Newsletter Kontakt