Generative KI ist bei zahlreichen Aufgabenstellungen im Arbeitsalltag bereits eine große Hilfe. Sie beantwortet Fragen, erstellt Texte fürs Marketing, übersetzt E-Mails sowie Dokumente und optimiert sogar Quellcode. Kein Wunder also, dass Mitarbeiter die Tools eifrig einsetzen, um sich die Arbeit zu erleichtern und produktiver zu werden. Allerdings entstehen dabei Risiken für die Datensicherheit im Unternehmen: Leicht landen vertrauliche oder personenbezogene Daten bei ChatGPT, Bard oder Copilot und dadurch unter Umständen sogar in den Antworten für andere Anwender. Schließlich nutzen die Anbieter nicht nur im Web verfügbare Daten, sondern auch die Benutzereingaben, um ihre KI-Modelle zu trainieren und deren Antworten zu verbessern. Doch dem Abfluss vertraulicher Informationen und Datenschutzverletzungen können Unternehmen wirksam vorbeugen!
Bildquelle: (C) Steve Johnson / Pixabay
Wollen Unternehmen die Kontrolle über ihre Daten nicht verlieren, müssen sie aktiv werden. Am einfachsten ist es, die Mitarbeiter im sicherheitsbewussten Umgang mit generativer KI zu schulen, doch Fehler passieren – in der Hektik des Arbeitsalltags kann die Aufmerksamkeit nachlassen, sodass Mitarbeiter dennoch sensible Daten bei den Diensten hochladen. Deshalb entscheiden sich manche Unternehmen dafür, die URLs der verschiedenen KI-Tools mit der Firewall zu sperren, was allerdings auch keine ideale Lösung ist. Zum einen bieten die Sperren keinen ausreichenden Schutz, weil Mitarbeiter sie leicht umgehen können, indem sie von außerhalb des Unternehmensnetzwerks auf die Dienste zugreifen. Zum anderen behindern Unternehmen ihre Belegschaft beim produktiven Arbeiten und sorgen möglicherweise für Frust.
Um den Zugang zu den KI-Tools zu reglementieren und Daten zu schützen, sollten Unternehmen besser einen Zero-Trust-Ansatz verfolgen. Dabei stellen Sicherheitslösungen wie Secure Web Gateway (SWG) und Cloud Access Security Broker (CASB) sicher, dass nur zugelassene Dienste genutzt werden, und das auch nur von autorisierten Mitarbeitern – unabhängig davon, wo sich diese befinden und welches Gerät sie einsetzen. Ein zentraler Richtliniensatz reduziert den Verwaltungsaufwand und erleichtert es, Sicherheitsverletzungen über alle KI-Tools, Kommunikationskanäle und Geräte hinweg zu verhindern.
Darüber hinaus ist eine konsequente Kontrolle der bei den Diensten zur Verfügung gestellten Daten notwendig. Denn erst, wenn Unternehmen erkennen, dass Mitarbeiter beispielsweise dabei sind, personenbezogene Daten oder Quellcode mit geistigem Eigentum via Chat oder Datei-Upload mit den KI-Tools zu teilen, können sie das unterbinden. Voraussetzung dafür sind eine Klassifizierung von Daten sowie Richtlinien, die den Umgang mit den Daten regeln und überwachen. Lösungen für Data Loss Prevention (DLP) verbinden beides und minimieren den Einrichtungsaufwand, weil sie fertige Klassifizierungen für verschiedenste Daten und einen großen Satz vordefinierter Richtlinien mitbringen.
Zudem müssen Unternehmen in der Regel auch nicht ihren gesamten Datenbestand klassifizieren – es reicht, sich auf die schützenswerten Daten zu konzentrieren. Die einzelnen Fachbereiche wissen üblicherweise sehr genau, um welche Daten es sich dabei handelt, und können Beispiele liefern: Kundenlisten, Präsentationen, Verträge, Code-Schnipsel. DLP-Lösungen analysieren diese und sind dann in der Lage, ähnliche Daten zuverlässig zu erkennen. Je nachdem, wie sensibel die Daten sind, erlauben sie abgestufte Reaktionen: Bei weniger kritischen Daten reicht es meist, den Mitarbeiter auf eine mögliche Verletzung der Datensicherheit hinzuweisen; bei wichtigeren Daten kann eine Freigabe durch den Vorgesetzten erforderlich sein, während der Upload besonders heikler Informationen direkt blockiert wird.
„ChatGPT und andere KI-Tools lösen selbst komplexe Aufgaben binnen Sekunden. Das ist im Arbeitsalltag äußerst praktisch, kann aber zu Verletzungen der Datensicherheit führen, wenn Mitarbeiter versehentlich vertrauliche oder personenbezogene Daten bei den Diensten eingeben“, betont Frank Limberger, Data & Insider Threat Security Specialist bei Forcepoint. „Mit DLP können Unternehmen ihre Daten zuverlässig schützen, ohne die Nutzung der KI-Tools zu beschränken, was unweigerlich die Produktivität und Motivation der Mitarbeiter beeinträchtigen würde. Die Lösungen lassen sich schneller einführen, als Unternehmen oft annehmen, und liefern bereits nach wenigen Tagen oder Wochen erste Ergebnisse.“
Quelle: https://www.wissensmanagement.net/themen/artikel/artikel/so_vermeiden_unternehmen_
datenlecks_durch_chatgpt_co.html?no_cache=1