Risiken nicht außer Acht lassen
Dass die KI-Experten schon von außer Kontrolle geratenen KI-Systemen sprechen, die immer mächtiger und leistungsfähiger werden und die Schöpfer dieser Systeme sie nicht mehr verstehen, kontrollieren und vorhersagen können, birgt erhebliche Risiken für die Menschheit. KI-Systeme bzw. deren Algorithmen müssen verstanden werden, statt Blackbox-Technologie.
Leider finden die gesellschaftlichen Auseinandersetzungen und Planungen mit der Technologie nur unzureichend statt. Die EU-Kommission bereitet aktuelle Gesetzesvorschläge vor, die einen Rechtsrahmen für die KI bieten soll. Denn es stellt sich vor allem die Frage, wer haftet eigentlich für KI-Informationen oder -Entscheidungen? Zum Beispiel könnten Patienten einen gesundheitlichen Schaden erleiden, wenn sie durch eine Falschdiagnose nicht fachgerecht behandelt worden sind. Weiterhin besteht die Gefahr, dass die Nutzenden in der Praxis den Informationen eines KI-Chatbots zu sehr vertrauen.
Aufgrund der professionellen Schreibweise, Formulierungen und Kommunikationsfähigkeiten entsteht allzu sehr der Eindruck, dass die KI nicht nur allwissend erscheint, sondern auch als „Mitmensch“ wahrgenommen wird. Er kann erstaunlich menschliche Gespräche führen und verführt somit zu einem Vertrauensvorschuss, welche das ML (maschinelle Lernen) nicht entsprechen kann. Von einem neuronalen Denken ist das System noch weit entfernt und ist davon abhängig, was die Menschen der Maschine vorher eingetrichtert haben.
D. h. eine unabhängige Wissensinstanz ist bei ChatGPT nicht zu erwarten. Dennoch wird auch in Deutschland an spezialisierten KI-Systemen gebastelt, die nachweislich zu allen Informationen auch die Quelle liefern kann, zuvor wissenschaftliches, vertrauenswürdiges Wissen der KI zur Verfügung gestellt worden ist und möglichst neutral ohne Lobbyismus agieren kann.
Durch KI neue Cybergefahren
Wer schonmal ChatGPT in der kostenfreien Version ausprobiert hat, wird erstaunt sein über seine Fähigkeiten. Diese Fähigkeiten haben auch Kriminelle entdeckt und sind derzeit fleißig dabei ChatGPT als Werkzeug für Ihre Zwecke zu nutzen. Zu seinen Fähigkeiten gehört es auch automatisiert Programm-Code zu erstellen, wenn man ihm vorher eine korrekte Aufgabe gestellt hat. Seine programmiertechnischen Möglichkeiten erstrecken sich über die Programmiersprache Python, C++, Java, Javascript, PHP um nur einige zu nennen.
Mit den gängigen Programmiersprachen ist es ein leichtes, sich daraus Malware bzw. besser bekannt als Schadsoftware, zu generieren. Wer Böses im Schilde führt, könnte mit wenigen Kenntnissen einen neuen Schädling erstellen, der so neu ist, dass er von den gängigen Virenscannern nicht erkannt wird. Mit den richtigen Fragen bzw. Befehlen an den KI-Chatbot erstellt das System nach und nach einen funktionsfähigen Virus, der Angst und Schrecken verbreiten kann.
Es wäre wünschenswert, wenn die Virenscanner ebenfalls sich die KI zu Eigen machen würden, um mit ähnlichen KI-Werkzeugen in Ihren Sicherheitsprodukten ein Schutzschild aufbauen, um die neuen Risiken und Gefahren besser zu erkennen. Hier ist viel Luft nach oben und im Gesundheitswesen vertraut man allzu sehr auf die installierten Virenscanner als der Retter in der Not. Schon alleine aus dieser KI-Perspektive betrachtet wird der Virenscanner als zu hoch bewertet und verleitet zu einem falschen Sicherheitsgefühl.
Beim Thema „Phishing-Mails“ hält die KI ebenfalls Einzug. Wir beobachten mehr und mehr die Perfektionierung von schädlichen E-Mails deren Machart den Originalen sehr ähnlich bzw. kaum noch mehr zu unterscheiden ist. Durch Chatbots sind die Kriminellen in der Lage perfekte textliche Anschreiben zu erstellen, die keinerlei Rechtschreibfehler etc. enthalten und täuschend ähnlich aussehen. Das macht diese E-Mails so gefährlich: Man ist geneigt den Inhalten zu trauen und öffnet den Anhang, den Link oder einfach nur die Mail mit selbstauslösendem Schadcode der die Praxis-IT gefährden kann. Oftmals kann nur mit investigativen Maßnahmen kann eine Phishing-Mail enttarnt werden, aber wer hat im Praxis-Alltag dafür Zeit, Geduld und Fachkenntnis?
Das Thema „E-Mail“ behandeln wir an anderer Stelle, aber vorweg sei gesagt, dass eine Netztrennung der Endgeräte mit E-Mail-Kontakt eine wichtige Maßnahme ist, um Schaden von den „Kronjuwelen“ fern zu halten. Bitte checken Sie E-Mails nicht auf den PVS-Computern, sondern auf dedizierten Endgeräten mit Netztrennung.
Mit KI gegen Cybergefahren
Als Teil einer Security-Lösung kann die KI die Erkennung und Abwehr von Cybergefahren mit unterstützen. So z. B. testen wir derzeit eine Firewall-Lösung die diese Technologie anwendet und eine gute Ergänzung zu den üblichen Signaturen mit Malware und schädlichen IP-Adressen darstellen kann. Eine Heuristik mit Anomalieerkennung haben bestimmte UTM-Firewalls bereits im Portfolio, allerdings mit einer gewissen Anzahl an False-Positiv-Erkennungen.
Durch die KI könnte die Anzahl der Falschalarme zurückgehen, da eine KI-Analyse des vermeintlichen Angriffs zu einem anderen Ergebnis kommen könnte. Auch die Erkennung wahrhaftiger Angriffe könnte durch die KI genauer werden und die Praxis vor einem Schadensereignis bewahren.
Aufgrund der schon oben beschriebenen Fähigkeiten Programmiercode zu erstellen, erhalten die Programmierer für Apps und Programme ein Werkzeug an die Hand, mit der sie den vorhandenen selbsterstellten Code durch ChatGPT überprüfen lassen können. Gerade was die Sicherheit des Codes anbelangt, kann die KI eine Analyse über den Code