Dieser Beitrag gibt dir eine Schritt-für-Schritt Anleitung zur sicheren Nutzung von Künstlicher Intelligenz (KI). Wie kannst du eigene Daten in Künstliche Intelligenz-Anwendungen oder Large Language Modellen (LLMs) wie ChatGPT von OpenAI oder Gemini von Google (Generative KI) besser schützen. Für eine sichere Nutzung von generativer KI und um Risiken zu minimieren, ist ein Bewusstsein der Datensicherheit notwendig und eine kontinuierliche Implementierung von Datenschutzmaßnahmen. In diesem Artikel erfährst Du, welche Möglichkeiten es gibt, Daten in Generativen KI-Tools wie ChatGPT und Gemini zu schützen und wie das geht.
Warum Datensicherheit In Generativen KI-Tools entscheidend Ist
Generative KI-Tools wie ChatGPT und Gemini schaffen echten Mehrwert, indem sie Geschäftsprozesse vereinfachen und Produktivität erhöhen. Diese Tools können Texte verfassen, Zusammenfassungen erstellen und sogar komplexe Aufgaben wie das Schreiben von Programmcode übernehmen. Allerdings ist es wichtig zu verstehen, dass diese Generativen KI-Modelle auf großen Mengen von Textdaten trainiert wurden.
Was passiert, wenn du persönliche Informationen oder vertrauliche Unternehmensdaten in KI-Systemen nutzt und wie kannst du vermeiden, dass diese sensiblen Daten in das Training der KI-Modelle mit einfließen. Daher ist es ist wichtig zu wissen, welche Möglichkeiten es in den Tools von Generativen KI gibt, um Privatsphäre und eine bessere Datensicherheit von Nutzern und Unternehmen zu gewährleisten.
Einstellungen zur Datenkontrolle In ChatGPT Anpassen
ChatGPT, das von OpenAI entwickelte Generative KI Tool, bietet verschiedene Möglichkeiten, um Daten zu kontrollieren und sicher zu nutzen. OpenAI verwendet personenbezogene Daten, um das Modell zu verbessern und zu trainieren. Um das für eigene Daten zu verhindern, kann der Nutzer auf der Plattform Einstellungen vornehmen, um den Datenschutz strenger einzustellen. Dabei kann die eigene Chathistorie gelöscht werden, Daten exportieren und die Nutzung Deiner Daten für das Modelltraining einschränken. Wenn du dich neu bei ChatGPT registrierst, ist standardmäßig das Training deiner Daten für das KI-Modell ausgeschlossen. Da sich diese Voreinstellung in der Vergangenheit schon geändert hat, solltest Du zur Sicherheit einmal selbst nachsehen, ob sie bei Dir deaktiviert ist.
Schritt-für-Schritt Anleitung zur sicheren Nutzung Deiner Daten in ChatGPT
- Dein Konto einrichten: Wenn du ein Konto bei ChatGPT erstellst, musst du keine personenbezogenen Daten verwenden. Du kannst ein E-Mail-Alias verwenden.
- Datenschutzeinstellungen anpassen: Wenn du bereits ein Konto hast, logge dich ein und gehe zu den Einstellungen. Klicke auf deinen Benutzernamen unten links und wähle „Einstellungen“.
- Chat-Verlauf löschen: Unter „Allgemein“ kannst du deinen Chat-Verlauf mit einem Klick alle Chats löschen. Das ist besonders nützlich, wenn du alte Gespräche entfernen möchtest.
- Datenkontrolle festlegen: Unter „Einstellungen“ findest du das Untermenü „Datenkontrollen“. Hier kannst du bestimmen, ob deine Daten für das Modelltraining genutzt werden dürfen. Standardmäßig werden die Daten für Trainingszwecke nicht genutzt. So überprüfst du es: wenn der Regel „Das Modell für alle verbessern“ auf links geschoben ist, werden deine Daten nicht für Trainingszwecke verwendet. Möchtest du deine Daten zum Training der KI freigeben, dann schiebe den Regler nach rechts auf grün. In diesem Menüpunkt kannst du auch separat deine Audio- und Videodateien für Trainingszwecke ein oder ausschließen.

OpenAI Opt-Out für Trainingszwecke ist nicht mehr notwendig
OpenAI hat die Bedingungen für das Modelltraining immer wieder aktualisiert. Früher war es erforderlich einen Antrag über ein Google OpenAI Opt-Out Formular an OpenAI zu senden um vollständig zu verhindern, dass die Daten nicht für Traininszwecke genutzt werden. Ab dem 25. Oktober 2023 können diese Einstellungen direkt im ChatGPT Nutzerkonto erledigt werden.
Datensicherheit In Gemini Schritt-für-Schritt richtig einstellen
Auch Gemini, das öffentliche Generative KI Tool von Google, erfordert eine bewusste Herangehensweise an die sichere Nutzung deiner Daten. Google speichert in der Standardeinstellung Daten bis zu 18 Monate lang und verwendet diese zur Verbesserung des Modells. Um zu verhindern, dass deine Eingaben in Gemini für Trainingszwecke genutzt werden, kannst du die „Bard-Aktivitäten“ im Google-Konto deaktivieren. Allerdings werden deine Chats und Gespräche mit Google Bard bis zu 72 Stunden lang in deinem Konto gespeichert, damit Google den Service bereitstellen und Feedback verarbeiten kann. Es ist auch möglich, Ihre Bard-Aktivitäten manuell zu löschen, um Ihre Daten noch weiter zu schützen.
Generative KI: Datensicherheit in den Einstellungen von Google Bard anpassen
- Zugang zu Bard-Aktivitäten: Besuche die Webseite myactivity.google.com/product/gemini
- Gemini-Aktivitäten deaktivieren: Klicke auf „deaktivieren“ und bestätige den Vorgang. Dadurch werden deine zukünftigen Unterhaltungen nicht mehr 18 Monate gespeichert.
- Gemini-Aktivitäten löschen: Wenn du auch deine bisherigen Unterhaltungen löschen möchtest, klicke unten auf der Seite auf „Löschen“. Wähle den Zeitraum aus, in dem die Konversationen gelöscht werden sollen, und bestätige den Vorgang.

Fazit: Deine Kontrollen zur sicheren Nutzung von KI
Diese Schritt-für-Schritt Anleitung hilft dir, die Vorteile Generative KI zu nutzen und mit einer bewussten Entscheidung zur Datensicherheit den Schutz deiner Daten zu erhöhen.
Du kannst KI sicher nutzen, deine Daten besser schützen und damit die Kontrolle über deine Privatsphäre erhöhen. Die Nutzung dieser fortschrittlichen Technologien muss nicht bedeuten, dass du deine Daten gefährdest.
Trotz dieser Maßnahmen ist es wichtig alle Risiken beim Datenschutz zu minimieren. Daher solltest du generell keine persönlichen und vertraulichen Unternehmensdaten in frei zugänglichen Tools mit Generativer KI eingeben.
Kunden anziehen ohne Werbekosten!
Gratis KI-SEO Analyse: Unser KI-Assistent analysiert deine Webseite und erstellt einen ausführlichen PDF-Report.

Um noch mehr Datensicherheit bei uneingeschränkter Funktionalität für eigene vertrauliche Daten zu erhalten, gibt es eigene Unternehmenslösungen der Anbieter oder Open Source KI-Modelle, wie zum Beispiel Mistral AI.

