Large Language Models (LLMs) wie ChatGPT, Claude und Gemini ermöglichen schnellere Workflows, tiefere Einblicke und smartere Tools und führen zu starken Veränderungen in der Wirtschaft und dabei, wie wir arbeiten, kommunizieren und Innovationen voranbringen.
LLMs sind eine erweiterte Form von künstlicher Intelligenz (KI), die mit riesigen Mengen von Textdaten darauf trainiert werden, Muster und Verbindungen zwischen Wörtern und Phrasen zu erkennen. Dadurch sind sie in der Lage, beeindruckende, wie von Menschen erstellte Texte zu generieren und ein immer breiteres Spektrum von Anwendungsszenarien zu unterstützen. Doch mit zunehmender Verbreitung von LLMs ist Verantwortung gefragt. LLMs werden mittlerweile in allen Bereichen von Kundensupport bis Cybersicherheit eingesetzt, was sie zu begehrten Zielen für Missbrauch und Angriffe macht. Fehler und Pannen können erhebliche Konsequenzen haben, darunter die Offenlegung vertraulicher Daten, die Generierung gefährlicher oder irreführender Inhalte oder der Verlust von Vertrauen in KI-Systeme.
Für Unternehmen sind die Risiken sogar noch größer. Eine einzige Datenschutzverletzung oder missbräuchliche Verwendung eines LLM kann Datenlecks, Reputationsschäden oder Verstöße gegen Datenschutz- und Compliance-Vorschriften nach sich ziehen, die allesamt mit hohen Kosten verbunden sind.
Und dann gibt es noch eine weitere Gefahr: LLM-Ergebnisse können sehr überzeugend klingen, aber komplett falsch sein. Sie können bestehende Verzerrungen abbilden, kulturelle Nuancen außen vor lassen oder die Entscheidungsfindung auf subtile Weise beeinflussen. Je mehr wir uns auf sie verlassen, desto unkritischer stehen wir ihren Inhalten gegenüber und hören irgendwann auf, sie zu hinterfragen. Deshalb ist es wichtig, nicht nur intelligentere Modelle zu erstellen, sondern auch einen ungetrübten Blick darauf zu bewahren, was LLMs womöglich entgeht und was uns aufgrund der LLMs möglicherweise entgeht.
In diesem Blog-Beitrag befassen wir uns mit den Herausforderungen, die mit der Verwendung von LLMs einhergehen. Wir bewerten die Sicherheitsrisiken von LLMs, stellen einige reale Beispiele unsicherer Verwendung vor und beschreiben, wie Sie Ihr Unternehmen wirksam schützen können.
Warum stellen LLMs eine einzigartige Sicherheitsherausforderung dar?
Herkömmliche Cybersicherheitspraktiken wurden ohne Berücksichtigung von LLMs entwickelt. Im Gegensatz zu Standardsoftwaresystemen erzeugen LLMs keine planbaren, regelbasierten Ergebnisse. Sie generieren Sprache – und das dynamisch, oft überraschend und manchmal auf riskante Weise. Dadurch entsteht eine neue Kategorie von Schwachstellen, die Unternehmen jetzt angehen müssen.
LLMs können unbeabsichtigt vertrauliche Daten offenbaren, sich je nach Inhalt der Trainingsdaten auf unvorhersehbare Weise verhalten oder neuen Formen der Manipulation (z. B. Prompt-Injection) ausgesetzt sein. Da sie nicht im eigentlichen Sinne „denken“, können sie auch nicht wie andere Systeme gepatcht oder geprüft werden. Dies führt zu einer sich rasant entwickelnden Technologie, die zwar sehr leistungsstark ist, sich aber nur schwer steuern lässt.
Die nachfolgenden Aspekte führen dazu, dass die Absicherung von LLMs anders und komplexer ist als bei herkömmlichen Softwareanwendungen:
- Dynamische Ergebnisse: LLMs generieren nicht vorhersehbare Antworten. Mitunter kompromittieren sie bei Anwenderinteraktionen sensible oder vertrauliche Informationen, und es ist schwierig, zu steuern, was weitergegeben wird.
- Verarbeitung umfangreicher Daten: LLMs werden mit umfangreichen Datensätzen trainiert, die möglicherweise vertrauliche oder proprietäre Informationen enthalten. Wenn Modelle für bestimmte Unternehmen angepasst werden, besteht das Risiko, dass vertrauliche Daten in diese Modelle eingebettet und bei Verwendung geleakt werden.
- Undurchsichtige Entscheidungen: LLMs operieren als Blackbox, d. h. es ist schwierig nachzuvollziehen, wie sie zu bestimmten Ergebnissen gelangen. Diese fehlende Transparenz kann effektives Risikomanagement und das Identifizieren möglicher Probleme erschweren.
- Neue Angriffsflächen: LLMs schaffen neue Schwachstellen, die von herkömmlichen Lösungen zum Schutz von Webanwendungen und Cloud-Umgebungen nicht abgedeckt werden, z. B. Prompt-Injection-Angriffe und Datenmanipulationen. Die Modelle können bei fehlerhafter Konfiguration vertrauliche Informationen kompromittieren.
All diese Faktoren machen LLMs zu einer besonderen Herausforderung. Unternehmen benötigen starke Sicherheitsmaßnahmen, um Datenschutz und Compliance zu gewährleisten.
Typische Sicherheitsrisiken von LLMs
LLMs sind leistungsstarke Tools. Sie unterstützen im Kundenservice, beschleunigen Arbeitsabläufe und erleichtern die Entscheidungsfindung. Sie gehen aber auch mit neuen Sicherheitsrisiken einher, von denen wir einige nachstehend zusammengefasst haben:
- Prompt-Injection-Angriffe: Ausgeklügelte Prompts können Modelle so manipulieren, dass sie herkömmliche Sicherheitsvorkehrungen umgehen und vertrauliche Informationen preisgeben.
- Datenlecks: Unsachgemäß konfigurierte Modelle können bei Anwenderinteraktionen private Daten offenlegen.
- Model-Inversion-Angriffe: Hacker können potenziell rekonstruieren, mit welchen Daten ein Modell trainiert wurde, wodurch Kundendaten, Businesspläne oder private Inhalte in falsche Hände geraten können.
- Unsichere Drittanbieterintegrationen: Viele LLMs stellen Verbindungen zu externen Tools wie APIs oder Plugins her. Wenn diese nicht sicher sind, können Datenlecks auftreten oder die Verbindungen für Angriffe missbraucht werden.
- Übermäßiges Vertrauen und falsche oder irreführende Ergebnisse: Manchmal erfinden LLMs einfach Dinge. Wenn Anwender den Ergebnissen eines Modells implizit vertrauen, ohne sie zu verifizieren, können falsche Entscheidungen oder Regelverstöße die Folge sein.
- DoS-Angriffe via Token-Missbrauch: Angreifer können Modelle mit langen oder wiederholten Prompts überlasten, was KI-Dienste ausbremsen oder zum Absturz bringen kann.
- Phishing und Social Engineering im großen Stil: LLMs können äußerst überzeugende Nachrichten generieren, die echter Kommunikation täuschend echt nachempfunden sind. Angreifer haben es dadurch leichter, gezielte Phishing-Kampagnen oder Social-Engineering-Angriffe zusammenzustellen und zu verteilen. Dadurch steigt wiederum das Risiko von Anmeldedatendiebstahl und Datenschutzverletzungen.
- Nutzung von Schatten-KI: Mitarbeiter nutzen öffentliche KI-Tools möglicherweise ohne Berechtigung. Wenn sie dabei private Daten eingeben, können sie ihren Arbeitgeber gefährden.
Für die sichere Nutzung von LLMs benötigen Unternehmen starke Regeln und intelligente Tools. Sie müssen die Nutzung der Modelle überwachen, Mitarbeiter in der sicheren Nutzung schulen und riskantes Verhalten unterbinden, bevor Schaden entsteht.
Reale Beispiele für LLM-Sicherheitsvorfälle
Sicherheitsprobleme durch LLMs sind keine Zukunftsvision – sie existieren bereits. Sehen wir uns einige Beispiele an:
Samsung: Datenleck durch ChatGPT
Im Jahr 2023 nutzten Samsung-Techniker ChatGPT zur Unterstützung verschiedener Aufgaben wie das Debugging von Code oder Zusammenfassen von Notizen. Während dieses Prozesses gaben sie vertrauliche Unternehmensdaten ein, darunter Quellcode und interne Informationen.
Da ChatGPT die Anwendereingaben zur Verbesserung seiner Leistungsfähigkeit speichert (sofern Anwender dem nicht widersprechen), könnten vertrauliche Samsung-Daten vom Modell absorbiert worden sein. Dies hat große Bedenken mit Blick auf die Extrahierung von Geschäftsgeheimnissen und Offenlegung von geistigem Eigentum hervorgerufen. Nach dem Vorfall untersagte Samsung die Nutzung von ChatGPT und machte sich an die Entwicklung eines eigenen KI-Tools für die interne Nutzung.
Warum ist das wichtig?
Das Beispiel von Samsung ist nicht das Ergebnis böswilliger Angreifer, sondern die Folge von Bemühungen, die Arbeit zu beschleunigen. Doch ohne klare Grenzen und ohne Wissen über die Verarbeitung von Eingaben durch LLMs können selbst durch alltägliche Interaktionen streng vertrauliche Daten offengelegt werden.
DeepSeek: Datenschutzbedenken
Das chinesische KI-Startup-Unternehmen DeepSeek hat das DeepSeek-R1 entwickelt. Dieses leistungsstarke und wirtschaftliche Sprachmodell, das ChatGPT ähnelt, wird für Schreib- und Codieraufgaben und das Analysieren von Daten eingesetzt und macht erweiterte KI dadurch für Unternehmen und Entwickler zugänglicher. Aufgrund seines effizienten Designs benötigt das Modell weniger Computing-Ressourcen, wodurch die Kosten niedriger gehalten werden.
Sein rasantes Wachstum hat allerdings Fragen im Hinblick auf Datenschutz und Sicherheit aufgeworfen, denn gemäß seiner Datenschutzerklärung speichert DeepSeek Anwenderdaten auf Servern in China, wo potenziell Regierungsbehörden darauf zugreifen können. Unternehmen halten sich deshalb zurück: Sie haben Zweifel an der Sicherheit ihrer vertraulichen Informationen und machen sich Sorgen um die gesetzliche Compliance.
Chevrolet-Händler: KI-Chatbot bietet 76.000-Dollar-Fahrzeug für 1 US-Dollar an
Der KI-Chatbot eines Chevrolet-Händlers schaffte es in die Schlagzeilen, nachdem er einen SUV im Wert von 76.000 US-Dollar für nur 1 US-Dollar angeboten hatte. Ein Anwender, der mit dem Bot chattete, fragte nach einem großzügigen Rabatt, und die KI kam diesem Wunsch nach. Dies ging sogar soweit, dass der Abschluss des Geschäfts bestätigt wurde. Der Chatbot verfügte über keinerlei Sicherheitsvorkehrungen, die den Fehler hätten vermeiden können, sodass er wie bei einem realen Geschäft antwortete.

Screenshot der Interaktion mit dem Chatbot von Chevrolet
Wenngleich der Händler dem Preis widersprach, ging die Story in kürzester Zeit viral und warf ernsthafte Zweifel an der Nutzung von KI in Kundenservice-Umgebungen auf. Sie zeigte, wie einfach LLMs manipuliert werden können und dass Unternehmen klare Grenzen definieren müssen, was ihre Bots antworten dürfen und was nicht.
Best Practices für sichere LLMs
Für die sichere Integration von LLMs in Ihre Workflows empfehlen wir folgende Sicherheitspraktiken:
- Durchsetzung von Zugriffskontrollen: Verwenden Sie rollenbasierte Berechtigungen. Sorgen Sie dafür, dass nur diejenigen LLMs Zugriff auf vertrauliche Datensätze haben, die diesen unbedingt benötigen.
- Filterung der Eingaben und Ausgaben: Überwachen Sie vertrauliche oder gefährliche Inhalte, um Datenlecks und Missbrauch zu vermeiden. Analysieren Sie die Modellausgaben, um sicherzustellen, dass keine vertraulichen Daten preisgegeben werden. Dies gilt vor allem nach Updates oder Retraining-Zyklen.
- Gezielte Datenminimierung: Begrenzen Sie die den LLMs zur Verfügung gestellten Daten strikt auf das, was für die jeweilige Aufgabe wirklich erforderlich ist.
- Feinabstimmung mit Sicherheitsvorkehrungen: Sichern Sie LLMs mit Sicherheitsauflagen ab, die auf Ihre Geschäftsanforderungen abgestimmt sind.
- Regelmäßige Sicherheitsprüfungen und Penetrationstests: Implementieren Sie ein Programm für regelmäßige Prüfungen und Penetrationstests, das LLM-Risiken und LLM-Verhaltensweisen explizit berücksichtigt.
- Anwenderschulungen: Schulen Sie Ihre Anwender mit kontinuierlichen Kursen und eindeutigen Leitlinien in der sicheren und verantwortungsvollen Nutzung von LLMs.
- Überwachung von Schatten-KI: Implementieren Sie Kontrollen, um jede nicht genehmigte LLM-Nutzung im Unternehmen zu identifizieren und darauf zu reagieren.
Lösungen und Tools zur Stärkung der LLM-Sicherheit
Das Absichern von LLMs ist unverzichtbar. Unternehmen sollten einen mehrschichtigen Ansatz in Betracht ziehen, der spezialisierte Tools und Praktiken nutzt, um sowohl die Modelle als auch die von ihnen verarbeiteten Daten zu schützen. Dazu gehören:
- Plattformen zur Prompt-Überwachung: Diese Tools helfen bei der Erkennung und Kennzeichnung von ungewöhnlichem oder schädlichem Prompt-Verhalten, das auf einen Prompt-Injection-Angriff oder Missbrauch hindeuten könnte. Durch kontinuierliche Analysen der Eingaben und Ausgaben sind sie in der Lage, erste Anzeichen für potenzielle Bedrohungen zu erkennen. Mit entsprechenden Richtlinien können dann unterschiedliche Prompts basierend auf dieser Kategorisierung erkannt und idealerweise verhindert werden. Dadurch wird sichergestellt, dass die KI-generierten Inhalte mit den Unternehmenszielen vereinbar sind, während das Risiko von Sicherheitsverletzungen reduziert wird.
- Datensicherheit für LLMs: Herkömmliche DLP-Strategien müssen weiterentwickelt werden, damit sie den spezifischen Herausforderungen von KI-Umgebung gerecht werden. Moderne Datensicherheitstools müssen über adaptive Funktionen und intelligente Reaktionsmechanismen für LLMs verfügen.
- KI-Sicherheitsgateways: Diese Gateways fungieren als Kontrollpunkt zwischen den Anwendern und dem LLM und verwalten und filtern den Datenverkehr. Sie setzen Sicherheitsrichtlinien durch, authentifizieren Anwender und tragen dazu bei, den unerlaubten oder riskanten Zugriff auf KI-Dienste zu verhindern.
- Zero-Trust-Architektur für KI-Systeme: Das Anwenden von Zero-Trust-Prinzipien auf LLMs bedeutet, dass kein implizites Vertrauen vorausgesetzt wird. Jede Anfrage, auf das Modell zuzugreifen oder mit ihm zu interagieren, muss verifiziert und kontinuierlich bewertet werden. Dieser Ansatz ist vor allem dann wichtig, wenn die LLMs vertrauliche Aufgaben übernehmen oder entsprechende Daten verarbeiten.
- Sichere LLM-APIs: Wenn Sie LLMs in Anwendungen integrieren möchten, sind sichere Entwicklungspraktiken entscheidend. Dazu gehören neben einer ordnungsgemäßen Authentifizierung auch eine Ratenbegrenzung und eine API-Gateway-Verwaltung, um Angriffsflächen zu reduzieren und Exploits zu verhindern.
Durch die Kombination von Tools und Praktiken für LLM-Sicherheit schaffen Unternehmen eine resilientere und sicherere KI-Umgebung, die den Standards von modernem Risikomanagement gerecht wird.
Ausblick in die Zukunft: Integration von LLM-Sicherheit in die KI-Strategie
LLMs spielen für den Betrieb von Unternehmen eine immer größere Rolle, und es ist keine Verlangsamung dieses Trends erkennbar. Je mehr LLMs aktiv sind, desto wichtiger ist es, dass die Sicherheit Schritt hält und mit ihnen wächst. Unternehmen, die gerade dabei sind, starke KI-Sicherheitsprogramme zu entwickeln, sind damit besser auf jede Art von Compliance-Regeln vorbereitet. Gleichzeitig sichern sie sich das Vertrauen ihrer Kunden und bleiben für neue Ideen und Innovation offen.
LLMs weisen einen immer höheren Grad an Spezialisierung auf und sind auf bestimmte Branchen (z. B. Gesundheitswesen, Finanzwesen oder Rechtswesen) ausgelegt. Da LLMs zunehmend in alltägliche Tools wie Google Workspace und Microsoft 365 eingebettet sind, werden sie außerdem zu einem natürlichen Bestandteil unserer Arbeitsweise. Doch die Vorteile sind auch mit Risiken verbunden, sodass es darauf ankommt, dem Aspekt Sicherheit hohe Priorität einzuräumen.
Im Endeffekt ist LLM-Sicherheit nichts anderes als eine geschäftliche Notwendigkeit, denn es ist nicht nur Ihre Technologie gefährdet, sondern Ihr gesamtes Unternehmen.
Wie Proofpoint helfen kann
Proofpoint ist hervorragend aufgestellt, um Unternehmen in dieser dynamischen Landschaft zu unterstützen. Unterstützt von erweiterten LLM-Funktionen schützen Proofpoint Data Security Posture Management und Proofpoint Data Loss Prevention vertrauliche Informationen, indem das Hochladen, Einfügen oder Eingeben dieser Informationen in Tools wie ChatGPT gestoppt wird. Mit automatischen Berechtigungskontrollen begrenzen unsere Lösungen zudem den Zugriff auf freigegebene Dateien durch Unternehmens-Copiloten.
Zusätzlich verfolgt und überwacht Proofpoint KI-Datenflüsse über mehrere Cloud-Umgebungen hinweg, setzt Regeln für den Datenzugriff durch und sorgt für konsistente Klassifizierung und effizientes Risikomanagement für LLMs.
Mit KI-gestützter Sicherheit von Proofpoint kann Ihr Unternehmen die Einführung von LLMs ohne Bedenken skalieren und gleichzeitig für starken Schutz sorgen. Wenn Sie mehr erfahren möchten, besuchen Sie Proofpoint.com oder kontaktieren Sie uns noch heute.