Künstliche Intelligenz

Seitdem ChatGPT aus dem Hause OpenAI (Anteilseigner mehrheitlich Microsoft) den KI-Chatbot „ChatGPT“ (Generative Pre-trained Transformer) in der kostenlosen Demoversion online gestellt hat, ist die Beliebtheit weltweit sehr hoch. Man schätzt, dass ca. 100 Millionen User ChatGPT nutzen bzw. genutzt haben. Der Chatbot liefert erstaunlich exakte Ergebnisse aus den zuvor gestellten Fragen, welche man an in ein Chatfeld (Prompt) zuvor eingegeben hat.

Stark vereinfacht berechnet die Künstliche Intelligenz (KI) anhand der eingegebenen Wörter, Sprachmuster und Zusatzinfos die wahrscheinlichste Antwort auf die gestellte Aufgabe. Dabei kann es sein, dass die Antwort heute so ausfällt und in ein paar Tagen in veränderter Form. Bei hoher Rechenleistung bedienen sich die Algorithmen aus immer neuen Informationen und Trainingsläufen und bewerten eine identische Frage jedes Mal neu.

KI kann für die Allgemeinheit, den einzelnen Patienten und für die Praxis nutzenbringend sein, aber es gilt die Nachteile und Risiken nicht außer Acht zu lassen. KI ist in Deutschland keine Zukunftsmusik mehr, sondern bereits ein Teil der Gesundheitsversorgung und Kommunikation mit dem Patienten. Zum Beispiel wird KI in der Chirurgie für die Risikoeinschätzung und als Roboter-Assistent bei der Operation eingesetzt.

In einer Hausarztpraxis oder in der Psychotherapie wäre es denkbar, dass Sprachdialogsysteme die Kommunikation mit dem Patienten übernehmen. Um einen individuellen Behandlungs- und Therapieplan aufzustellen könnte die KI  die Bewertung und Auswertung von Gesundheitsdaten durchführen und im Vergleich mit anderen Patienten neue Erkenntnisse und Diagnosen generieren.

Andererseits können die Algorithmen eine Gefahr für die Praxis-IT werden, den Datenschutz gefährden und durch Fehldiagnosen die Gesundheit der Patienten aufs Spiel setzen.

Kollege Computer: „Bitte übernehmen Sie!“

KI könnte in Zukunft nicht nur eine Diagnose-Einschätzung anhand der ihr vorliegenden Daten erstellen, sondern auch für die Praxis die Kommunikation mit dem Patienten übernehmen.

Denkbar wären die automatische Terminverwaltung und Kommunikation mit dem Patienten. Der Algorithmus könnte die Patienten-Anfragen telefonisch oder per Mail bearbeiten bzw. beantworten und beispielsweise eine Absage erteilen, wenn keine Therapieplätze vorhanden sind. Außerdem eignet sich die KI gut für den Versand von Vorabinformationen an den Patienten wie z. B. einen Erstanamnesebogen, Datenschutzhinweisen, Einwilligungserklärungen etc. In Kombination mit dem Praxisverwaltungsprogramm ergibt sich viele neue Möglichkeiten um die Niedergelassenen und das Personal zu entlasten.

Eine wichtige Entlastung könnte auch das automatische Erstellen und Versenden von Arztbriefen, Dokumentationen und sonstiger Korrespondenz sein. Die Notizen eines Behandlers im Rahmen der Dokumentation oder bei einem Arztbrief könnte KI in verständlicher Form in Sätze fassen und damit Freiräume für die Behandlung der Patienten schaffen. Eine Endkontrolle bzw. Korrektur ist seitens der Praxis weiterhin erforderlich, denn die Verantwortung aller erzeugten KI-Inhalte liegt bei der Praxis und am Ende des Tages haftet der Arzt oder Psychotherapeut für alle Falschinformationen die an Patienten oder andere Behandler versendet werden.

Unser Informationsangebot für
ärztliche und psychotherapeutische Praxen

News

Bleiben Sie auf dem neuesten Stand und lesen Sie unsere Nachrichten aus dem Bereich des digitalen Gesundheitswesens.

Vorfälle & Incidents

Erfahren Sie, welche Datenpannen, Sicherheitslücken sowie technische und organisatorische Mängel in den Praxen offenkundig werden.

Interviews

Experten und Expertinnen werden über verschiedene Themen wie IT, IT-Security, Datenschutz, eHealth und Telematik interviewt.

Risiken nicht außer Acht lassen

Dass die KI-Experten schon von außer Kontrolle geratenen KI-Systemen sprechen, die immer mächtiger und leistungsfähiger werden und die Schöpfer dieser Systeme sie nicht mehr verstehen, kontrollieren und vorhersagen können, birgt erhebliche Risiken für die Menschheit. KI-Systeme bzw. deren Algorithmen müssen verstanden werden, statt Blackbox-Technologie.

Leider finden die gesellschaftlichen Auseinandersetzungen und Planungen mit der Technologie nur unzureichend statt. Die EU-Kommission bereitet aktuelle Gesetzesvorschläge vor, die einen Rechtsrahmen für die KI bieten soll. Denn es stellt sich vor allem die Frage, wer haftet eigentlich für KI-Informationen oder -Entscheidungen? Zum Beispiel könnten Patienten einen gesundheitlichen Schaden erleiden, wenn sie durch eine Falschdiagnose nicht fachgerecht behandelt worden sind. Weiterhin besteht die Gefahr, dass die Nutzenden in der Praxis den Informationen eines KI-Chatbots zu sehr vertrauen.

Aufgrund der professionellen Schreibweise, Formulierungen und Kommunikationsfähigkeiten entsteht allzu sehr der Eindruck, dass die KI nicht nur allwissend erscheint, sondern auch als „Mitmensch“ wahrgenommen wird. Er kann erstaunlich menschliche Gespräche führen und verführt somit zu einem Vertrauensvorschuss, welche das ML (maschinelle Lernen) nicht entsprechen kann. Von einem neuronalen Denken ist das System noch weit entfernt und ist davon abhängig, was die Menschen der Maschine vorher eingetrichtert haben.

D. h. eine unabhängige Wissensinstanz ist bei ChatGPT nicht zu erwarten. Dennoch wird auch in Deutschland an spezialisierten KI-Systemen gebastelt, die nachweislich zu allen Informationen auch die Quelle liefern kann, zuvor wissenschaftliches, vertrauenswürdiges Wissen der KI zur Verfügung gestellt worden ist und möglichst neutral ohne Lobbyismus agieren kann.

Durch KI neue Cybergefahren

Wer schonmal ChatGPT in der kostenfreien Version ausprobiert hat, wird erstaunt sein über seine Fähigkeiten. Diese Fähigkeiten haben auch Kriminelle entdeckt und sind derzeit fleißig dabei ChatGPT als Werkzeug für Ihre Zwecke zu nutzen. Zu seinen Fähigkeiten gehört es auch automatisiert Programm-Code zu erstellen, wenn man ihm vorher eine korrekte Aufgabe gestellt hat. Seine programmiertechnischen Möglichkeiten erstrecken sich über die Programmiersprache Python, C++, Java, Javascript, PHP um nur einige zu nennen.

Mit den gängigen Programmiersprachen ist es ein leichtes, sich daraus Malware bzw. besser bekannt als Schadsoftware, zu generieren. Wer Böses im Schilde führt, könnte mit wenigen Kenntnissen einen neuen Schädling erstellen, der so neu ist, dass er von den gängigen Virenscannern nicht erkannt wird. Mit den richtigen Fragen bzw. Befehlen an den KI-Chatbot erstellt das System nach und nach einen funktionsfähigen Virus, der Angst und Schrecken verbreiten kann.

Es wäre wünschenswert, wenn die Virenscanner ebenfalls sich die KI zu Eigen machen würden, um mit ähnlichen KI-Werkzeugen in Ihren Sicherheitsprodukten ein Schutzschild aufbauen, um die neuen Risiken und Gefahren besser zu erkennen. Hier ist viel Luft nach oben und im Gesundheitswesen vertraut man allzu sehr auf die installierten Virenscanner als der Retter in der Not. Schon alleine aus dieser KI-Perspektive betrachtet wird der Virenscanner als zu hoch bewertet und verleitet zu einem falschen Sicherheitsgefühl.

Beim Thema „Phishing-Mails“ hält die KI ebenfalls Einzug. Wir beobachten mehr und mehr die Perfektionierung von schädlichen E-Mails deren Machart den Originalen sehr ähnlich bzw. kaum noch mehr zu unterscheiden ist. Durch Chatbots sind die Kriminellen in der Lage perfekte textliche Anschreiben zu erstellen, die keinerlei Rechtschreibfehler etc. enthalten und täuschend ähnlich aussehen. Das macht diese E-Mails so gefährlich: Man ist geneigt den Inhalten zu trauen und öffnet den Anhang, den Link oder einfach nur die Mail mit selbstauslösendem Schadcode der die Praxis-IT gefährden kann. Oftmals kann nur mit investigativen Maßnahmen kann eine Phishing-Mail enttarnt werden, aber wer hat im Praxis-Alltag dafür Zeit, Geduld und Fachkenntnis?

Das Thema „E-Mail“ behandeln wir an anderer Stelle, aber vorweg sei gesagt, dass eine Netztrennung der Endgeräte mit E-Mail-Kontakt eine wichtige Maßnahme ist, um Schaden von den „Kronjuwelen“ fern zu halten. Bitte checken Sie E-Mails nicht auf den PVS-Computern, sondern auf dedizierten Endgeräten mit Netztrennung.

Mit KI gegen Cybergefahren

Als Teil einer Security-Lösung kann die KI die Erkennung und Abwehr von Cybergefahren mit unterstützen. So z. B. testen wir derzeit eine Firewall-Lösung die diese Technologie anwendet und eine gute Ergänzung zu den üblichen Signaturen mit Malware und schädlichen IP-Adressen darstellen kann. Eine Heuristik mit Anomalieerkennung haben bestimmte UTM-Firewalls bereits im Portfolio, allerdings mit einer gewissen Anzahl an False-Positiv-Erkennungen.

Durch die KI könnte die Anzahl der Falschalarme zurückgehen, da eine KI-Analyse des vermeintlichen Angriffs zu einem anderen Ergebnis kommen könnte. Auch die Erkennung wahrhaftiger Angriffe könnte durch die KI genauer werden und die Praxis vor einem Schadensereignis bewahren.

Aufgrund der schon oben beschriebenen Fähigkeiten Programmiercode zu erstellen, erhalten die Programmierer für Apps und Programme ein Werkzeug an die Hand, mit der sie den vorhandenen selbsterstellten Code durch ChatGPT überprüfen lassen können. Gerade was die Sicherheit des Codes anbelangt, kann die KI eine Analyse über den Code

Fazit

Wie schon skizziert muss es eine Auseinandersetzung mit der Technologie geben, um KI-Systeme zu schaffen, die den ethischen und demokratischen Werten entsprechen und auf einer Datenbasis fußt, der man vertrauen kann und aus nachweislicher Quelle stammen.

Im Übrigen wird noch etwas dauern, bis die neuronalen Netze signifikant in der typischen Hausarztpraxis oder psychotherapeutischen Praxis Einzug halten werden. Wenn eine Praxis auf der „sicheren Seite“ sein möchte, dann verzichtet sie auf die Unterstützung durch die KI und behandelt und kommuniziert nach dem Goldstandard: Menschen kümmern sich um Menschen und der Patient kann sicher sein, dass er durch den Arzt oder Psychotherapeut zu 100% betreut wird.

Praxen die sich z. B. bei den Verwaltungsaufgaben durch die KI unterstützt wissen möchten, wird es in naher Zukunft standardisierte Verfahren geben, die Prüfinstanzen und Datenschutzkriterien beinhalten. Ein Projekt in unserem Hause beschäftigt sich mit der sicheren und zuverlässigen Nutzung der KI, um den Patienten und den Behandlern eine datenschutzkonforme Nutzung der Algorithmen zu ermöglichen. Im Rahmen unseres Servicepakets „einfach-sicher-machen“ ist es geplant diese KI-Prüfinstanzen zu implementieren und wird bedürftigen Praxen optional angeboten.

Haben Sie eine Frage?

Zögern Sie nicht, uns zu den Themen Telematik, Informationssicherheit und Cybercrime zu kontaktieren.

Wir sind gerne für Sie da und unterstützen Sie mit Rat und Tat.

Copyright 2024. daten-strom.Medical-IT-Services GmbH
Einstellungen gespeichert
Datenschutzeinstellungen

Diese Website verwendet Cookies, um Ihnen einen sicheren und komfortablen Website-Besuch zu ermöglichen. Entscheiden Sie selbst, welche Cookies Sie zulassen wollen.

Einige Cookies sind für die Funktionalität dieser Website notwendig (Erforderlich), andere Cookies dienen der Nutzung externer Medien (Extern).

Sie können der Nutzung aller Cookies zustimmen (Alle akzeptieren), technisch zwingend notwendige Cookies auswählen (Nur erforderliche Cookies erlauben) oder Ihre eigene Auswahl vornehmen und speichern (Auswahl akzeptieren).

Mehr Informationen finden Sie unter Datenschutz. Sie können die Datenschutz-Einstellungen für diese Website jederzeit nachträglich anpassen.

You are using an outdated browser. The website may not be displayed correctly. Close