Datenleck durch GenAI-Nutzung | CSO Online

Datenleck durch GenAI-Nutzung | CSO Online Datenleck durch GenAI-Nutzung | CSO Online

„Die Nutzung von KI durch die Mitarbeiter ist soweit fortgeschritten, dass die IT-Teams kaum aufholen können“, fügt Kaz Hassan, Senior Community and Partner Marketing Manager beim Softwareanbieter Unily. hinzu. „Es ist ein neues Konzepterforderlich. Unternehmen brauchen jetzt klare KI-Strategien, um Risiken zu reduzieren. Sie müssen KI in den Tech-Stack der Mitarbeiter integrieren.“

Hassan zufolge reichen typische Überwachungs- und Kontroll-Apps nicht aus, um solche Datenlecks zu verhindern. „Der Grund, warum Power-User sensible Daten über nicht autorisierte KI-Tools verwenden ist nicht, weil sie nicht kontrolliert werden können, sondern, weil sie nicht ausgebremst werden wollen. Das alte Muster des Einschränkens und Schützens versagt nicht nur – es drängt KI-Innovationen aktiv in eine Grauzone“, so der Unily-Experte. “CISOs müssen sich dieser Realität stellen: Entweder sie führen die KI-Transformation an oder sie müssen zusehen, wie sich ihr Sicherheitsbereich auflöst.“

Hassan wies darauf hin, dass das Datenproblem der generativen KI in zwei Richtungen geht: Sensible Daten, die über Abfragen das Unternehmen verlassen, und fehlerhafte Daten – entweder durch Halluzinationen oder durch Training mit falschen Informationen –, die über generative KI-Antworten, auf die sich Ihr Team bei der Unternehmensanalyse verlässt, in das Unternehmen gelangen. (jm)

Add a comment

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Keep Up to Date with the Most Important News

By pressing the Subscribe button, you confirm that you have read and are agreeing to our Privacy Policy and Terms of Use