Seit seiner Einführung im Jahr 2022 hat ChatGPT die Art und Weise, wie wir mit Technologie interagieren, radikal verändert. Generative KI (genAI)-Plattformen wie ChatGPT, Google Gemini und Meta AI haben schnell an Popularität gewonnen und bieten Funktionen, die vom Umschreiben von Texten bis zur Erstellung kreativer Inhalte reichen.
Diese Tools haben zwar neue Möglichkeiten für eine höhere Produktivität geschaffen, aber auch neue Sicherheitsrisiken mit sich gebracht – insbesondere, wenn Benutzer unwissentlich sensible Daten weitergeben. Die Bequemlichkeit dieser Tools bedeutet, dass es leicht passieren kann, dass versehentlich sensible Daten durchsickern und Datenschutzprobleme verursachen. Da immer mehr Organisationen diese Tools in ihre Arbeitsabläufe integrieren, ist es wichtig, sich ihrer Schwachstellen bewusst zu sein.
In diesem Beitrag befassen wir uns mit den neuen Herausforderungen, die sich durch generative KI ergeben, und untersuchen Strategien, die Organisationen zum Schutz ihrer Daten umsetzen können. Durch das Verständnis dieser Risiken und deren proaktive Bewältigung können Organisationen die Vorteile von KI nutzen und gleichzeitig sensible Unternehmensdaten schützen.
Die Risiken generativer KI
GenAI-Plattformen können sowohl unterhaltsam als auch praxisorientiert sein. Jemand könnte generative KI für unbeschwerte Aktivitäten nutzen, wie z. B. das Umschreiben eines Liedes im Stil seiner Lieblingszeichentrickfigur. Aber bei den praktischen Anwendungsfällen – wie dem Verfassen von E-Mails oder dem Erstellen einer Präsentation – werden die Risiken von GenAI deutlicher.
Wenn Benutzer Informationen in ein genAI-Tool kopieren, werden diese Daten Teil der zugrunde liegenden Wissensbasis der KI. Dies ist insbesondere dann ein Problem, wenn Benutzer mit sensiblen Daten arbeiten, da diese versehentlich anderen Benutzern und Organisationen, die dasselbe genAI-Tool verwenden, offengelegt werden könnten.
Diese Art von versehentlichem Datenverlust kann zu erheblichen Verletzungen der Privatsphäre führen – aber das ist nicht das einzige Risiko. Wenn geschützte Daten oder sensible Informationen auf genIA-Plattformen hochgeladen werden, öffnet dies die Tür für böswillige Ausbeutung, bei der Cyberkriminelle diese Daten für betrügerische Aktivitäten oder Phishing-Angriffe nutzen.
Obwohl genAI praktische Vorteile bieten kann, ist es für Benutzer und Organisationen von entscheidender Bedeutung, wachsam gegenüber dem Risiko von Datenlecks zu bleiben.
Implementierung von genAI-Sicherheit mit Lookout
Da Organisationen weiterhin genAI-Tools einsetzen, gibt es drei praktische Möglichkeiten, sich vor Datenlecks zu schützen:
- Zugriff auf genAI-Websites für die meisten Benutzer blockieren
- Ausgewählten Benutzern Zugriff auf bestimmte genAI-Websites gewähren
- Data Loss Prevention (DLP)-Techniken implementieren, um Datenlecks zu verhindern
All diese Ziele können mit Lookout Secure Internet Access – einem Bestandteil der Lookout Cloud Security Platform – erreicht werden. Und so geht's:
Zugriff blockieren
Der erste Schritt zum Schutz vor Datenlecks in genAI besteht darin, den Zugriff auf alle genAI-Websites vollständig zu blockieren. Das mag drastisch klingen, ist aber der effektivste Weg, um eine unbefugte Nutzung dieser Tools zu verhindern. Und so machen wir das:
- Konfigurieren Sie die Umgebung im TLS-Bypass-Modus: So können wir den verschlüsselten Datenverkehr überwachen und steuern.
- Erstellen Sie eine Web- und Anwendungsrichtlinie: Diese Richtlinie zielt speziell auf den Zugriff auf genAI-Websites ab und blockiert diesen.
- Überprüfen Sie die Einstellungen: Wir versuchen, auf generative KI-Websites zuzugreifen, um sicherzustellen, dass Benutzer eine Browsermeldung erhalten, in der erklärt wird, warum der Zugriff blockiert wird.
Ausnahmen erlauben
Wir sind uns bewusst, dass pauschale Einschränkungen die Produktivität beeinträchtigen können. Bestimmte Benutzer benötigen möglicherweise Zugriff auf genAI-Tools für legitime Zwecke. So handhaben wir Ausnahmen:
- Ausnahmen von der Blockierungsrichtlinie basierend auf Benutzergruppen: Bestimmten Gruppen, wie z. B. Administratoren, kann der Zugriff gewährt werden.
- Standardisierung zugelassener generativer KI-Websites: Wir ermöglichen einzelnen Benutzern den Zugriff auf ausgewählte, vertrauenswürdige generative KI-Websites wie ChatGPT oder Google Gemini.
Einbindung von DLP
Wenn eine Zugriffssperre nicht praktikabel oder ausreichend ist, kommt Data Loss Prevention (DLP) zum Einsatz. DLP überwacht sensible Daten und verhindert, dass sie weitergegeben werden. Unser Ansatz sieht wie folgt aus:
- Erstellen Sie eine Richtlinie zur Überprüfung des Benutzerverhaltens auf generativen KI-Plattformen: Wir haben Richtlinien erstellt, um zu verfolgen, was Benutzer auf generativen KI-Websites tun.
- Einrichten von DLP-Vorlagen: Diese Vorlagen dienen dazu, personenbezogene Daten (PII) und andere sensible Daten zu identifizieren.
- Überprüfen Sie das DLP-Setup: Wir geben sensible Daten auf genAI-Websites ein, um zu sehen, ob die Plattform diese Aktivitäten identifiziert und protokolliert. Sehen wir, dass die Daten auf der Plattform zugänglich sind, ändern wir die Richtlinie von „Überprüfen“ in „Blockieren“, um sicherzustellen, dass jeder Versuch, sensible Daten weiterzugeben, verhindert wird.
Datensicherheit zukunftssicher machen
Durch die Einhaltung dieser Schritte und die Nutzung von Lookout Secure Internet Access können sich Organisationen wirksam vor Risiken im Zusammenhang mit generativen KI-Tools schützen. Die Umsetzung dieser Maßnahmen trägt dazu bei, ein Gleichgewicht zwischen den Vorteilen von KI und dem Schutz sensibler Daten herzustellen.
Wenn Sie mehr darüber erfahren möchten, wie Sie Ihre sensiblen Daten vor GenAI-Risiken schützen können sowie über aktuelle Sicherheitsbedrohungen auf dem Laufenden bleiben möchten, sehen Sie sich unser On-Demand-Webinar Mastering SSE: Protect Your Data From the GenAI Overlords an.