Blog

KI kann Code schreiben und überprüfen – aber das Risiko tragen weiterhin die Menschen.

Pieter Danhieux
Veröffentlicht am 25. Februar 2026
Zuletzt aktualisiert am 25. Februar 2026

Die Einführung von Claude Code Security durch Anthropic markiert einen entscheidenden Schnittpunkt zwischen KI-gestützter Softwareentwicklung und der rasanten Weiterentwicklung unserer Herangehensweise an moderne Cybersicherheit. Diese neue Funktion von Claude kann zwar Schwachstellen in KI-generiertem Code identifizieren, schafft jedoch einen einzigen Punkt, an dem sowohl Vertrauen als auch Fehler auftreten können, und ein erfahrener Mensch muss diese Ergebnisse weiterhin bewerten und den geeigneten Weg zur Behebung der Schwachstellen bestimmen. Dieser Ansatz wird von Justin Greis, CEO der Beratungsfirma Acceligence, unterstützt, der gegenüber CSO Online erklärte: „Für diejenigen, die sich blind auf Code-Scanning-Tools, KI oder andere Tools verlassen, um die Grundlagen guter Sicherheitspraktiken und sicherer Programmierung zu ersetzen, ist dies ein Warnsignal, dass sie nicht gerade das Fachwissen auslagern sollten, das den Wertbeitrag des von ihnen entwickelten Produkts oder der Dienstleistung schützt.“ 

In dieser Hinsicht unterscheidet sich das Modell nicht grundlegend von herkömmlichen SAST-Tools. Es ist zwar in seiner Argumentation fortschrittlicher, aber ein risikosensitiver Anwendungsfall erfordert nach wie vor einen Menschen, der die aufgedeckten Probleme interpretiert, validiert und sicher behebt.

Die Gefahr für Unternehmen liegt nicht in den Fähigkeiten der KI, sondern in der unkontrollierten Autonomie der KI und der geringen Aufsicht innerhalb des Softwareentwicklungszyklus. Wenn KI sowohl Code generiert als auch bewertet, wird eine strenge und präzise Governance zu einer entscheidenden Kontrollmaßnahme. 

Die sich erweiternde Definition des Begriffs „Entwickler“

KI hat die Einstiegshürden für die Entwicklung von Apps und Software gesenkt. Aber nur weil etwas mit KI schnell erledigt werden kann, heißt das noch lange nicht, dass man es auf die sicherste oder robusteste Weise tut oder dass das Projekt selbst schon für den Einsatz bereit ist. Die ganze Idee hinter Vibe Coding ist, erst mal in den „Flow-Zustand” zu kommen und sich später um die Formalitäten der Unternehmensentwicklung wie Sicherheit zu kümmern. 

Der „Entwickler“ von heute kann sein:

  • Ein traditioneller Ingenieur, der KI einsetzt, um Codierungsaufgaben zu beschleunigen
  • Ein Produktmanager erstellt Prototypen von Funktionen mithilfe von Eingabeaufforderungen.
  • Ein Datenanalyst, der Skripte mithilfe von KI automatisiert
  • Ein QA-Ingenieur, der KI nutzt, um Testfälle zu generieren

Aus Sicht der Unternehmenssicherheit ist es weit weniger wichtig, wer den Code schreibt, als vielmehr, welche Auswirkungen der Code hat, sobald er in die Produktion gelangt. Aus Compliance- und Risikosicht führt die Interaktion einer Person mit KI dazu, dass Code ohne angemessene, unternehmensspezifische Sicherheitsüberwachung in den Softwareentwicklungslebenszyklus (SDLC) gelangt, was ein Unternehmensrisiko darstellt – ein Risiko, das verstanden, gemessen und gemindert werden muss.

Warum menschliches Urteilsvermögen nach wie vor wichtig ist

Da immer mehr Personen die Fähigkeit erwerben, Code zu generieren, der sich auf die Produktion oder sensible Codebasen auswirken könnte, erweitert sich das Risikoprofil eines Unternehmens. Die Governance muss weiterentwickelt werden, um eine KI-gesteuerte Entwicklung in großem Maßstab zu ermöglichen und gleichzeitig sicherzustellen, dass die zum Schutz des Unternehmens erforderlichen Kontrollen weiterhin fest verankert sind.

KI kann relativ zuverlässig Code generieren und potenzielle Schwachstellen aufzeigen. Was sie jedoch nicht kann, ist zu überprüfen, ob dieser Code im Kontext Ihrer Architektur, Ihrer Datenflüsse, Ihres Identitätsmodells, Ihrer regulatorischen Verpflichtungen oder Ihrer Risikotoleranz angemessen ist – und das sind grundlegende Informationen, die die Wirksamkeit jedes Sicherheitsprogramms beeinflussen. Darüber hinaus ist die Implementierung eines Tools wie Claude Code in den SDLC eine Sache, aber Tools wie BaxBench zeigen anhand umfangreicher Datenanalysen, dass verschiedene Modelle (z. B. Opus vs. Sonnet 4.5 vs. Sonnet 3) unterschiedliche Ergebnisse in Bezug auf Sicherheit und Genauigkeit liefern, was zu einem enormen Unterschied in den tatsächlichen Kosten führt, die ein Unternehmen letztendlich für die Nutzung zahlen muss, wenn es auf funktionierenden, sicheren Code drängt.

Sichere Software ist nicht einfach nur Code, der einen Scan besteht. Sie muss guten, sicheren Mustern folgen, die sich nahtlos in das Systemdesign, die Geschäftsziele und die Unternehmensrichtlinien einfügen. Das erfordert Urteilsvermögen. Wenn Entwickler sich stark auf KI verlassen, um Code zu generieren oder sogar zu überprüfen, besteht die reale Gefahr, dass ihr Verständnis der Codebasis schwindet. Wenn ein Ingenieur nicht vollständig erklären kann, warum ein Stück Code funktioniert oder sicher ist, hat das Unternehmen bereits eine Kontrollebene verloren.

Validierung ist nicht dasselbe wie Erkennung. Verantwortlichkeit ist nicht dasselbe wie Automatisierung. KI kann unterstützen, aber sie kann keine Verantwortung übernehmen (und bislang gibt es keine Gesetzgebung, die Menschen von den Folgen unzulässiger KI-Handlungen befreit).

Die Überwachung durch Menschen ist kein veraltetes Konzept. In einer KI-gesteuerten Entwicklungsumgebung ist sie die wichtigste Sicherheitsmaßnahme, die sicherstellt, dass der Code, der in den Softwareentwicklungszyklus gelangt, bewusst überprüft, verstanden und genehmigt wurde. Ohne diese Beurteilungsebene wird Geschwindigkeit zu einem Risiko.

Bildung muss die Grundlage für eine sichere Einführung künstlicher Intelligenz sein

In diesem Zusammenhang entwickelt sich die Schulung zum sicheren Programmieren von einem „Nice-to-have“ zu einer zentralen Unternehmenskontrolle. „Entwickler“ werden sich von Operatoren zu Orchestratoren weiterentwickeln, wodurch sich der Schwerpunkt der Ausbildung von der Entwicklung sicherer Codes hin zur Bewertung der Sicherheit von KI-generierten Codes verlagert.

Die Fähigkeiten, die erforderlich sind, um KI-generierten Code zu validieren, neue Arten von KI-Sicherheitslücken wie Prompt Injection zu antizipieren und zu verstehen, wie KI-Muster mit Ihrer Architektur interagieren, können nicht durch episodische Compliance-Module erlernt werden. Sie müssen kontinuierlich, praxisorientiert, in bestehende Arbeitsabläufe integriert und anhand realer Risikoergebnisse messbar sein. 

KI-Software-Governance: Die Kontrollschicht, die uns fehlt

Viele Sicherheitsprogramme behandeln die Anwendungssicherheit immer noch als nachgelagerte Funktion. In einer KI-gesteuerten Umgebung hat dieses Modell nicht mehr denselben Einfluss auf die Risikominderung. Was benötigt wird, ist KI-Software-Governance: eine echte Kontrollebene für Unternehmen für einen KI-gesteuerten Softwareentwicklungslebenszyklus. Diese Disziplin erstreckt sich über den gesamten KI-gesteuerten Softwareentwicklungslebenszyklus und etabliert eine strukturierte Überwachung der Codeerstellung, -überprüfung und -freigabe.

Dazu gehören:

  • Transparenz hinsichtlich der Nutzung von KI-Tools in allen Teams
  • Eindeutige Zuordnung von KI-generiertem Code innerhalb des SDLC
  • Korrelation von Codeänderungen mit Risikosignalen und politischen Anforderungen
  • Durchsetzung sicherer Codierungsstandards innerhalb der Arbeitsabläufe von Entwicklern
  • Kontinuierliche Weiterqualifizierung und messbare Fähigkeiten im Bereich sicheres Programmieren
  • Nachweisbare Reduzierung des Sicherheitsrisikos, bevor der Code in die Produktion gelangt

Governance ist das Bindeglied zwischen Erkennung und Entscheidung und stellt sicher, dass Produktivitätssteigerungen nicht auf Kosten der Verantwortlichkeit gehen.

KI wird die Art und Weise, wie Software entwickelt wird, weiterhin verändern, und es ist weder realistisch noch wünschenswert, darauf zu verzichten. Die Produktivitäts- und Innovationsgewinne sind schließlich zu bedeutend. Um jedoch sicher einen Mehrwert zu erzielen, sind eine disziplinierte Überwachung und eine bewusste menschliche Validierung erforderlich, und auch diese Infrastruktur darf weder überstürzt noch ignoriert werden.

Ressource anzeigen
Ressource anzeigen

Die Einführung von Claude Code Security durch Anthropic markiert einen entscheidenden Schnittpunkt zwischen KI-gestützter Softwareentwicklung und der rasanten Weiterentwicklung unserer Herangehensweise an moderne Cybersicherheit.

Interessiert an mehr?

Vorstandsvorsitzender, Chairman und Mitbegründer

Secure Code Warrior ist für Ihr Unternehmen da, um Sie dabei zu unterstützen, Ihren Code über den gesamten Lebenszyklus der Softwareentwicklung hinweg zu sichern und eine Kultur zu schaffen, in der Cybersicherheit an erster Stelle steht. Ganz gleich, ob Sie AppSec-Manager, Entwickler, CISO oder ein anderer Sicherheitsverantwortlicher sind, wir können Ihrem Unternehmen helfen, die mit unsicherem Code verbundenen Risiken zu reduzieren.

Demo buchen
Weitergeben:
Autor
Pieter Danhieux
Veröffentlicht am 25. Februar 2026

Vorstandsvorsitzender, Chairman und Mitbegründer

Pieter Danhieux ist ein weltweit anerkannter Sicherheitsexperte mit mehr als 12 Jahren Erfahrung als Sicherheitsberater und 8 Jahren als Principal Instructor für SANS, wo er offensive Techniken lehrt, wie man Organisationen, Systeme und Einzelpersonen auf Sicherheitsschwächen hin untersucht und bewertet. Im Jahr 2016 wurde er als einer der "Coolest Tech People in Australia" (Business Insider) ausgezeichnet, erhielt die Auszeichnung "Cyber Security Professional of the Year" (AISA - Australian Information Security Association) und besitzt die Zertifizierungen GSE, CISSP, GCIH, GCFA, GSEC, GPEN, GWAPT, GCIA.

Weitergeben:

Die Einführung von Claude Code Security durch Anthropic markiert einen entscheidenden Schnittpunkt zwischen KI-gestützter Softwareentwicklung und der rasanten Weiterentwicklung unserer Herangehensweise an moderne Cybersicherheit. Diese neue Funktion von Claude kann zwar Schwachstellen in KI-generiertem Code identifizieren, schafft jedoch einen einzigen Punkt, an dem sowohl Vertrauen als auch Fehler auftreten können, und ein erfahrener Mensch muss diese Ergebnisse weiterhin bewerten und den geeigneten Weg zur Behebung der Schwachstellen bestimmen. Dieser Ansatz wird von Justin Greis, CEO der Beratungsfirma Acceligence, unterstützt, der gegenüber CSO Online erklärte: „Für diejenigen, die sich blind auf Code-Scanning-Tools, KI oder andere Tools verlassen, um die Grundlagen guter Sicherheitspraktiken und sicherer Programmierung zu ersetzen, ist dies ein Warnsignal, dass sie nicht gerade das Fachwissen auslagern sollten, das den Wertbeitrag des von ihnen entwickelten Produkts oder der Dienstleistung schützt.“ 

In dieser Hinsicht unterscheidet sich das Modell nicht grundlegend von herkömmlichen SAST-Tools. Es ist zwar in seiner Argumentation fortschrittlicher, aber ein risikosensitiver Anwendungsfall erfordert nach wie vor einen Menschen, der die aufgedeckten Probleme interpretiert, validiert und sicher behebt.

Die Gefahr für Unternehmen liegt nicht in den Fähigkeiten der KI, sondern in der unkontrollierten Autonomie der KI und der geringen Aufsicht innerhalb des Softwareentwicklungszyklus. Wenn KI sowohl Code generiert als auch bewertet, wird eine strenge und präzise Governance zu einer entscheidenden Kontrollmaßnahme. 

Die sich erweiternde Definition des Begriffs „Entwickler“

KI hat die Einstiegshürden für die Entwicklung von Apps und Software gesenkt. Aber nur weil etwas mit KI schnell erledigt werden kann, heißt das noch lange nicht, dass man es auf die sicherste oder robusteste Weise tut oder dass das Projekt selbst schon für den Einsatz bereit ist. Die ganze Idee hinter Vibe Coding ist, erst mal in den „Flow-Zustand” zu kommen und sich später um die Formalitäten der Unternehmensentwicklung wie Sicherheit zu kümmern. 

Der „Entwickler“ von heute kann sein:

  • Ein traditioneller Ingenieur, der KI einsetzt, um Codierungsaufgaben zu beschleunigen
  • Ein Produktmanager erstellt Prototypen von Funktionen mithilfe von Eingabeaufforderungen.
  • Ein Datenanalyst, der Skripte mithilfe von KI automatisiert
  • Ein QA-Ingenieur, der KI nutzt, um Testfälle zu generieren

Aus Sicht der Unternehmenssicherheit ist es weit weniger wichtig, wer den Code schreibt, als vielmehr, welche Auswirkungen der Code hat, sobald er in die Produktion gelangt. Aus Compliance- und Risikosicht führt die Interaktion einer Person mit KI dazu, dass Code ohne angemessene, unternehmensspezifische Sicherheitsüberwachung in den Softwareentwicklungslebenszyklus (SDLC) gelangt, was ein Unternehmensrisiko darstellt – ein Risiko, das verstanden, gemessen und gemindert werden muss.

Warum menschliches Urteilsvermögen nach wie vor wichtig ist

Da immer mehr Personen die Fähigkeit erwerben, Code zu generieren, der sich auf die Produktion oder sensible Codebasen auswirken könnte, erweitert sich das Risikoprofil eines Unternehmens. Die Governance muss weiterentwickelt werden, um eine KI-gesteuerte Entwicklung in großem Maßstab zu ermöglichen und gleichzeitig sicherzustellen, dass die zum Schutz des Unternehmens erforderlichen Kontrollen weiterhin fest verankert sind.

KI kann relativ zuverlässig Code generieren und potenzielle Schwachstellen aufzeigen. Was sie jedoch nicht kann, ist zu überprüfen, ob dieser Code im Kontext Ihrer Architektur, Ihrer Datenflüsse, Ihres Identitätsmodells, Ihrer regulatorischen Verpflichtungen oder Ihrer Risikotoleranz angemessen ist – und das sind grundlegende Informationen, die die Wirksamkeit jedes Sicherheitsprogramms beeinflussen. Darüber hinaus ist die Implementierung eines Tools wie Claude Code in den SDLC eine Sache, aber Tools wie BaxBench zeigen anhand umfangreicher Datenanalysen, dass verschiedene Modelle (z. B. Opus vs. Sonnet 4.5 vs. Sonnet 3) unterschiedliche Ergebnisse in Bezug auf Sicherheit und Genauigkeit liefern, was zu einem enormen Unterschied in den tatsächlichen Kosten führt, die ein Unternehmen letztendlich für die Nutzung zahlen muss, wenn es auf funktionierenden, sicheren Code drängt.

Sichere Software ist nicht einfach nur Code, der einen Scan besteht. Sie muss guten, sicheren Mustern folgen, die sich nahtlos in das Systemdesign, die Geschäftsziele und die Unternehmensrichtlinien einfügen. Das erfordert Urteilsvermögen. Wenn Entwickler sich stark auf KI verlassen, um Code zu generieren oder sogar zu überprüfen, besteht die reale Gefahr, dass ihr Verständnis der Codebasis schwindet. Wenn ein Ingenieur nicht vollständig erklären kann, warum ein Stück Code funktioniert oder sicher ist, hat das Unternehmen bereits eine Kontrollebene verloren.

Validierung ist nicht dasselbe wie Erkennung. Verantwortlichkeit ist nicht dasselbe wie Automatisierung. KI kann unterstützen, aber sie kann keine Verantwortung übernehmen (und bislang gibt es keine Gesetzgebung, die Menschen von den Folgen unzulässiger KI-Handlungen befreit).

Die Überwachung durch Menschen ist kein veraltetes Konzept. In einer KI-gesteuerten Entwicklungsumgebung ist sie die wichtigste Sicherheitsmaßnahme, die sicherstellt, dass der Code, der in den Softwareentwicklungszyklus gelangt, bewusst überprüft, verstanden und genehmigt wurde. Ohne diese Beurteilungsebene wird Geschwindigkeit zu einem Risiko.

Bildung muss die Grundlage für eine sichere Einführung künstlicher Intelligenz sein

In diesem Zusammenhang entwickelt sich die Schulung zum sicheren Programmieren von einem „Nice-to-have“ zu einer zentralen Unternehmenskontrolle. „Entwickler“ werden sich von Operatoren zu Orchestratoren weiterentwickeln, wodurch sich der Schwerpunkt der Ausbildung von der Entwicklung sicherer Codes hin zur Bewertung der Sicherheit von KI-generierten Codes verlagert.

Die Fähigkeiten, die erforderlich sind, um KI-generierten Code zu validieren, neue Arten von KI-Sicherheitslücken wie Prompt Injection zu antizipieren und zu verstehen, wie KI-Muster mit Ihrer Architektur interagieren, können nicht durch episodische Compliance-Module erlernt werden. Sie müssen kontinuierlich, praxisorientiert, in bestehende Arbeitsabläufe integriert und anhand realer Risikoergebnisse messbar sein. 

KI-Software-Governance: Die Kontrollschicht, die uns fehlt

Viele Sicherheitsprogramme behandeln die Anwendungssicherheit immer noch als nachgelagerte Funktion. In einer KI-gesteuerten Umgebung hat dieses Modell nicht mehr denselben Einfluss auf die Risikominderung. Was benötigt wird, ist KI-Software-Governance: eine echte Kontrollebene für Unternehmen für einen KI-gesteuerten Softwareentwicklungslebenszyklus. Diese Disziplin erstreckt sich über den gesamten KI-gesteuerten Softwareentwicklungslebenszyklus und etabliert eine strukturierte Überwachung der Codeerstellung, -überprüfung und -freigabe.

Dazu gehören:

  • Transparenz hinsichtlich der Nutzung von KI-Tools in allen Teams
  • Eindeutige Zuordnung von KI-generiertem Code innerhalb des SDLC
  • Korrelation von Codeänderungen mit Risikosignalen und politischen Anforderungen
  • Durchsetzung sicherer Codierungsstandards innerhalb der Arbeitsabläufe von Entwicklern
  • Kontinuierliche Weiterqualifizierung und messbare Fähigkeiten im Bereich sicheres Programmieren
  • Nachweisbare Reduzierung des Sicherheitsrisikos, bevor der Code in die Produktion gelangt

Governance ist das Bindeglied zwischen Erkennung und Entscheidung und stellt sicher, dass Produktivitätssteigerungen nicht auf Kosten der Verantwortlichkeit gehen.

KI wird die Art und Weise, wie Software entwickelt wird, weiterhin verändern, und es ist weder realistisch noch wünschenswert, darauf zu verzichten. Die Produktivitäts- und Innovationsgewinne sind schließlich zu bedeutend. Um jedoch sicher einen Mehrwert zu erzielen, sind eine disziplinierte Überwachung und eine bewusste menschliche Validierung erforderlich, und auch diese Infrastruktur darf weder überstürzt noch ignoriert werden.

Ressource anzeigen
Ressource anzeigen

Füllen Sie das folgende Formular aus, um den Bericht herunterzuladen

Wir bitten Sie um Ihre Erlaubnis, Ihnen Informationen über unsere Produkte und/oder verwandte Themen der sicheren Codierung zuzusenden. Wir werden Ihre persönlichen Daten immer mit äußerster Sorgfalt behandeln und sie niemals zu Marketingzwecken an andere Unternehmen verkaufen.

Senden
Um das Formular abzuschicken, aktivieren Sie bitte "Analytics"-Cookies. Sie können die Cookies wieder deaktivieren, sobald Sie fertig sind.

Die Einführung von Claude Code Security durch Anthropic markiert einen entscheidenden Schnittpunkt zwischen KI-gestützter Softwareentwicklung und der rasanten Weiterentwicklung unserer Herangehensweise an moderne Cybersicherheit. Diese neue Funktion von Claude kann zwar Schwachstellen in KI-generiertem Code identifizieren, schafft jedoch einen einzigen Punkt, an dem sowohl Vertrauen als auch Fehler auftreten können, und ein erfahrener Mensch muss diese Ergebnisse weiterhin bewerten und den geeigneten Weg zur Behebung der Schwachstellen bestimmen. Dieser Ansatz wird von Justin Greis, CEO der Beratungsfirma Acceligence, unterstützt, der gegenüber CSO Online erklärte: „Für diejenigen, die sich blind auf Code-Scanning-Tools, KI oder andere Tools verlassen, um die Grundlagen guter Sicherheitspraktiken und sicherer Programmierung zu ersetzen, ist dies ein Warnsignal, dass sie nicht gerade das Fachwissen auslagern sollten, das den Wertbeitrag des von ihnen entwickelten Produkts oder der Dienstleistung schützt.“ 

In dieser Hinsicht unterscheidet sich das Modell nicht grundlegend von herkömmlichen SAST-Tools. Es ist zwar in seiner Argumentation fortschrittlicher, aber ein risikosensitiver Anwendungsfall erfordert nach wie vor einen Menschen, der die aufgedeckten Probleme interpretiert, validiert und sicher behebt.

Die Gefahr für Unternehmen liegt nicht in den Fähigkeiten der KI, sondern in der unkontrollierten Autonomie der KI und der geringen Aufsicht innerhalb des Softwareentwicklungszyklus. Wenn KI sowohl Code generiert als auch bewertet, wird eine strenge und präzise Governance zu einer entscheidenden Kontrollmaßnahme. 

Die sich erweiternde Definition des Begriffs „Entwickler“

KI hat die Einstiegshürden für die Entwicklung von Apps und Software gesenkt. Aber nur weil etwas mit KI schnell erledigt werden kann, heißt das noch lange nicht, dass man es auf die sicherste oder robusteste Weise tut oder dass das Projekt selbst schon für den Einsatz bereit ist. Die ganze Idee hinter Vibe Coding ist, erst mal in den „Flow-Zustand” zu kommen und sich später um die Formalitäten der Unternehmensentwicklung wie Sicherheit zu kümmern. 

Der „Entwickler“ von heute kann sein:

  • Ein traditioneller Ingenieur, der KI einsetzt, um Codierungsaufgaben zu beschleunigen
  • Ein Produktmanager erstellt Prototypen von Funktionen mithilfe von Eingabeaufforderungen.
  • Ein Datenanalyst, der Skripte mithilfe von KI automatisiert
  • Ein QA-Ingenieur, der KI nutzt, um Testfälle zu generieren

Aus Sicht der Unternehmenssicherheit ist es weit weniger wichtig, wer den Code schreibt, als vielmehr, welche Auswirkungen der Code hat, sobald er in die Produktion gelangt. Aus Compliance- und Risikosicht führt die Interaktion einer Person mit KI dazu, dass Code ohne angemessene, unternehmensspezifische Sicherheitsüberwachung in den Softwareentwicklungslebenszyklus (SDLC) gelangt, was ein Unternehmensrisiko darstellt – ein Risiko, das verstanden, gemessen und gemindert werden muss.

Warum menschliches Urteilsvermögen nach wie vor wichtig ist

Da immer mehr Personen die Fähigkeit erwerben, Code zu generieren, der sich auf die Produktion oder sensible Codebasen auswirken könnte, erweitert sich das Risikoprofil eines Unternehmens. Die Governance muss weiterentwickelt werden, um eine KI-gesteuerte Entwicklung in großem Maßstab zu ermöglichen und gleichzeitig sicherzustellen, dass die zum Schutz des Unternehmens erforderlichen Kontrollen weiterhin fest verankert sind.

KI kann relativ zuverlässig Code generieren und potenzielle Schwachstellen aufzeigen. Was sie jedoch nicht kann, ist zu überprüfen, ob dieser Code im Kontext Ihrer Architektur, Ihrer Datenflüsse, Ihres Identitätsmodells, Ihrer regulatorischen Verpflichtungen oder Ihrer Risikotoleranz angemessen ist – und das sind grundlegende Informationen, die die Wirksamkeit jedes Sicherheitsprogramms beeinflussen. Darüber hinaus ist die Implementierung eines Tools wie Claude Code in den SDLC eine Sache, aber Tools wie BaxBench zeigen anhand umfangreicher Datenanalysen, dass verschiedene Modelle (z. B. Opus vs. Sonnet 4.5 vs. Sonnet 3) unterschiedliche Ergebnisse in Bezug auf Sicherheit und Genauigkeit liefern, was zu einem enormen Unterschied in den tatsächlichen Kosten führt, die ein Unternehmen letztendlich für die Nutzung zahlen muss, wenn es auf funktionierenden, sicheren Code drängt.

Sichere Software ist nicht einfach nur Code, der einen Scan besteht. Sie muss guten, sicheren Mustern folgen, die sich nahtlos in das Systemdesign, die Geschäftsziele und die Unternehmensrichtlinien einfügen. Das erfordert Urteilsvermögen. Wenn Entwickler sich stark auf KI verlassen, um Code zu generieren oder sogar zu überprüfen, besteht die reale Gefahr, dass ihr Verständnis der Codebasis schwindet. Wenn ein Ingenieur nicht vollständig erklären kann, warum ein Stück Code funktioniert oder sicher ist, hat das Unternehmen bereits eine Kontrollebene verloren.

Validierung ist nicht dasselbe wie Erkennung. Verantwortlichkeit ist nicht dasselbe wie Automatisierung. KI kann unterstützen, aber sie kann keine Verantwortung übernehmen (und bislang gibt es keine Gesetzgebung, die Menschen von den Folgen unzulässiger KI-Handlungen befreit).

Die Überwachung durch Menschen ist kein veraltetes Konzept. In einer KI-gesteuerten Entwicklungsumgebung ist sie die wichtigste Sicherheitsmaßnahme, die sicherstellt, dass der Code, der in den Softwareentwicklungszyklus gelangt, bewusst überprüft, verstanden und genehmigt wurde. Ohne diese Beurteilungsebene wird Geschwindigkeit zu einem Risiko.

Bildung muss die Grundlage für eine sichere Einführung künstlicher Intelligenz sein

In diesem Zusammenhang entwickelt sich die Schulung zum sicheren Programmieren von einem „Nice-to-have“ zu einer zentralen Unternehmenskontrolle. „Entwickler“ werden sich von Operatoren zu Orchestratoren weiterentwickeln, wodurch sich der Schwerpunkt der Ausbildung von der Entwicklung sicherer Codes hin zur Bewertung der Sicherheit von KI-generierten Codes verlagert.

Die Fähigkeiten, die erforderlich sind, um KI-generierten Code zu validieren, neue Arten von KI-Sicherheitslücken wie Prompt Injection zu antizipieren und zu verstehen, wie KI-Muster mit Ihrer Architektur interagieren, können nicht durch episodische Compliance-Module erlernt werden. Sie müssen kontinuierlich, praxisorientiert, in bestehende Arbeitsabläufe integriert und anhand realer Risikoergebnisse messbar sein. 

KI-Software-Governance: Die Kontrollschicht, die uns fehlt

Viele Sicherheitsprogramme behandeln die Anwendungssicherheit immer noch als nachgelagerte Funktion. In einer KI-gesteuerten Umgebung hat dieses Modell nicht mehr denselben Einfluss auf die Risikominderung. Was benötigt wird, ist KI-Software-Governance: eine echte Kontrollebene für Unternehmen für einen KI-gesteuerten Softwareentwicklungslebenszyklus. Diese Disziplin erstreckt sich über den gesamten KI-gesteuerten Softwareentwicklungslebenszyklus und etabliert eine strukturierte Überwachung der Codeerstellung, -überprüfung und -freigabe.

Dazu gehören:

  • Transparenz hinsichtlich der Nutzung von KI-Tools in allen Teams
  • Eindeutige Zuordnung von KI-generiertem Code innerhalb des SDLC
  • Korrelation von Codeänderungen mit Risikosignalen und politischen Anforderungen
  • Durchsetzung sicherer Codierungsstandards innerhalb der Arbeitsabläufe von Entwicklern
  • Kontinuierliche Weiterqualifizierung und messbare Fähigkeiten im Bereich sicheres Programmieren
  • Nachweisbare Reduzierung des Sicherheitsrisikos, bevor der Code in die Produktion gelangt

Governance ist das Bindeglied zwischen Erkennung und Entscheidung und stellt sicher, dass Produktivitätssteigerungen nicht auf Kosten der Verantwortlichkeit gehen.

KI wird die Art und Weise, wie Software entwickelt wird, weiterhin verändern, und es ist weder realistisch noch wünschenswert, darauf zu verzichten. Die Produktivitäts- und Innovationsgewinne sind schließlich zu bedeutend. Um jedoch sicher einen Mehrwert zu erzielen, sind eine disziplinierte Überwachung und eine bewusste menschliche Validierung erforderlich, und auch diese Infrastruktur darf weder überstürzt noch ignoriert werden.

Webinar ansehen
Starten

Klicken Sie auf den unten stehenden Link und laden Sie die PDF-Datei dieser Ressource herunter.

Secure Code Warrior ist für Ihr Unternehmen da, um Sie dabei zu unterstützen, Ihren Code über den gesamten Lebenszyklus der Softwareentwicklung hinweg zu sichern und eine Kultur zu schaffen, in der Cybersicherheit an erster Stelle steht. Ganz gleich, ob Sie AppSec-Manager, Entwickler, CISO oder ein anderer Sicherheitsverantwortlicher sind, wir können Ihrem Unternehmen helfen, die mit unsicherem Code verbundenen Risiken zu reduzieren.

Bericht ansehenDemo buchen
Ressource anzeigen
Weitergeben:
Interessiert an mehr?

Weitergeben:
Autor
Pieter Danhieux
Veröffentlicht am 25. Februar 2026

Vorstandsvorsitzender, Chairman und Mitbegründer

Pieter Danhieux ist ein weltweit anerkannter Sicherheitsexperte mit mehr als 12 Jahren Erfahrung als Sicherheitsberater und 8 Jahren als Principal Instructor für SANS, wo er offensive Techniken lehrt, wie man Organisationen, Systeme und Einzelpersonen auf Sicherheitsschwächen hin untersucht und bewertet. Im Jahr 2016 wurde er als einer der "Coolest Tech People in Australia" (Business Insider) ausgezeichnet, erhielt die Auszeichnung "Cyber Security Professional of the Year" (AISA - Australian Information Security Association) und besitzt die Zertifizierungen GSE, CISSP, GCIH, GCFA, GSEC, GPEN, GWAPT, GCIA.

Weitergeben:

Die Einführung von Claude Code Security durch Anthropic markiert einen entscheidenden Schnittpunkt zwischen KI-gestützter Softwareentwicklung und der rasanten Weiterentwicklung unserer Herangehensweise an moderne Cybersicherheit. Diese neue Funktion von Claude kann zwar Schwachstellen in KI-generiertem Code identifizieren, schafft jedoch einen einzigen Punkt, an dem sowohl Vertrauen als auch Fehler auftreten können, und ein erfahrener Mensch muss diese Ergebnisse weiterhin bewerten und den geeigneten Weg zur Behebung der Schwachstellen bestimmen. Dieser Ansatz wird von Justin Greis, CEO der Beratungsfirma Acceligence, unterstützt, der gegenüber CSO Online erklärte: „Für diejenigen, die sich blind auf Code-Scanning-Tools, KI oder andere Tools verlassen, um die Grundlagen guter Sicherheitspraktiken und sicherer Programmierung zu ersetzen, ist dies ein Warnsignal, dass sie nicht gerade das Fachwissen auslagern sollten, das den Wertbeitrag des von ihnen entwickelten Produkts oder der Dienstleistung schützt.“ 

In dieser Hinsicht unterscheidet sich das Modell nicht grundlegend von herkömmlichen SAST-Tools. Es ist zwar in seiner Argumentation fortschrittlicher, aber ein risikosensitiver Anwendungsfall erfordert nach wie vor einen Menschen, der die aufgedeckten Probleme interpretiert, validiert und sicher behebt.

Die Gefahr für Unternehmen liegt nicht in den Fähigkeiten der KI, sondern in der unkontrollierten Autonomie der KI und der geringen Aufsicht innerhalb des Softwareentwicklungszyklus. Wenn KI sowohl Code generiert als auch bewertet, wird eine strenge und präzise Governance zu einer entscheidenden Kontrollmaßnahme. 

Die sich erweiternde Definition des Begriffs „Entwickler“

KI hat die Einstiegshürden für die Entwicklung von Apps und Software gesenkt. Aber nur weil etwas mit KI schnell erledigt werden kann, heißt das noch lange nicht, dass man es auf die sicherste oder robusteste Weise tut oder dass das Projekt selbst schon für den Einsatz bereit ist. Die ganze Idee hinter Vibe Coding ist, erst mal in den „Flow-Zustand” zu kommen und sich später um die Formalitäten der Unternehmensentwicklung wie Sicherheit zu kümmern. 

Der „Entwickler“ von heute kann sein:

  • Ein traditioneller Ingenieur, der KI einsetzt, um Codierungsaufgaben zu beschleunigen
  • Ein Produktmanager erstellt Prototypen von Funktionen mithilfe von Eingabeaufforderungen.
  • Ein Datenanalyst, der Skripte mithilfe von KI automatisiert
  • Ein QA-Ingenieur, der KI nutzt, um Testfälle zu generieren

Aus Sicht der Unternehmenssicherheit ist es weit weniger wichtig, wer den Code schreibt, als vielmehr, welche Auswirkungen der Code hat, sobald er in die Produktion gelangt. Aus Compliance- und Risikosicht führt die Interaktion einer Person mit KI dazu, dass Code ohne angemessene, unternehmensspezifische Sicherheitsüberwachung in den Softwareentwicklungslebenszyklus (SDLC) gelangt, was ein Unternehmensrisiko darstellt – ein Risiko, das verstanden, gemessen und gemindert werden muss.

Warum menschliches Urteilsvermögen nach wie vor wichtig ist

Da immer mehr Personen die Fähigkeit erwerben, Code zu generieren, der sich auf die Produktion oder sensible Codebasen auswirken könnte, erweitert sich das Risikoprofil eines Unternehmens. Die Governance muss weiterentwickelt werden, um eine KI-gesteuerte Entwicklung in großem Maßstab zu ermöglichen und gleichzeitig sicherzustellen, dass die zum Schutz des Unternehmens erforderlichen Kontrollen weiterhin fest verankert sind.

KI kann relativ zuverlässig Code generieren und potenzielle Schwachstellen aufzeigen. Was sie jedoch nicht kann, ist zu überprüfen, ob dieser Code im Kontext Ihrer Architektur, Ihrer Datenflüsse, Ihres Identitätsmodells, Ihrer regulatorischen Verpflichtungen oder Ihrer Risikotoleranz angemessen ist – und das sind grundlegende Informationen, die die Wirksamkeit jedes Sicherheitsprogramms beeinflussen. Darüber hinaus ist die Implementierung eines Tools wie Claude Code in den SDLC eine Sache, aber Tools wie BaxBench zeigen anhand umfangreicher Datenanalysen, dass verschiedene Modelle (z. B. Opus vs. Sonnet 4.5 vs. Sonnet 3) unterschiedliche Ergebnisse in Bezug auf Sicherheit und Genauigkeit liefern, was zu einem enormen Unterschied in den tatsächlichen Kosten führt, die ein Unternehmen letztendlich für die Nutzung zahlen muss, wenn es auf funktionierenden, sicheren Code drängt.

Sichere Software ist nicht einfach nur Code, der einen Scan besteht. Sie muss guten, sicheren Mustern folgen, die sich nahtlos in das Systemdesign, die Geschäftsziele und die Unternehmensrichtlinien einfügen. Das erfordert Urteilsvermögen. Wenn Entwickler sich stark auf KI verlassen, um Code zu generieren oder sogar zu überprüfen, besteht die reale Gefahr, dass ihr Verständnis der Codebasis schwindet. Wenn ein Ingenieur nicht vollständig erklären kann, warum ein Stück Code funktioniert oder sicher ist, hat das Unternehmen bereits eine Kontrollebene verloren.

Validierung ist nicht dasselbe wie Erkennung. Verantwortlichkeit ist nicht dasselbe wie Automatisierung. KI kann unterstützen, aber sie kann keine Verantwortung übernehmen (und bislang gibt es keine Gesetzgebung, die Menschen von den Folgen unzulässiger KI-Handlungen befreit).

Die Überwachung durch Menschen ist kein veraltetes Konzept. In einer KI-gesteuerten Entwicklungsumgebung ist sie die wichtigste Sicherheitsmaßnahme, die sicherstellt, dass der Code, der in den Softwareentwicklungszyklus gelangt, bewusst überprüft, verstanden und genehmigt wurde. Ohne diese Beurteilungsebene wird Geschwindigkeit zu einem Risiko.

Bildung muss die Grundlage für eine sichere Einführung künstlicher Intelligenz sein

In diesem Zusammenhang entwickelt sich die Schulung zum sicheren Programmieren von einem „Nice-to-have“ zu einer zentralen Unternehmenskontrolle. „Entwickler“ werden sich von Operatoren zu Orchestratoren weiterentwickeln, wodurch sich der Schwerpunkt der Ausbildung von der Entwicklung sicherer Codes hin zur Bewertung der Sicherheit von KI-generierten Codes verlagert.

Die Fähigkeiten, die erforderlich sind, um KI-generierten Code zu validieren, neue Arten von KI-Sicherheitslücken wie Prompt Injection zu antizipieren und zu verstehen, wie KI-Muster mit Ihrer Architektur interagieren, können nicht durch episodische Compliance-Module erlernt werden. Sie müssen kontinuierlich, praxisorientiert, in bestehende Arbeitsabläufe integriert und anhand realer Risikoergebnisse messbar sein. 

KI-Software-Governance: Die Kontrollschicht, die uns fehlt

Viele Sicherheitsprogramme behandeln die Anwendungssicherheit immer noch als nachgelagerte Funktion. In einer KI-gesteuerten Umgebung hat dieses Modell nicht mehr denselben Einfluss auf die Risikominderung. Was benötigt wird, ist KI-Software-Governance: eine echte Kontrollebene für Unternehmen für einen KI-gesteuerten Softwareentwicklungslebenszyklus. Diese Disziplin erstreckt sich über den gesamten KI-gesteuerten Softwareentwicklungslebenszyklus und etabliert eine strukturierte Überwachung der Codeerstellung, -überprüfung und -freigabe.

Dazu gehören:

  • Transparenz hinsichtlich der Nutzung von KI-Tools in allen Teams
  • Eindeutige Zuordnung von KI-generiertem Code innerhalb des SDLC
  • Korrelation von Codeänderungen mit Risikosignalen und politischen Anforderungen
  • Durchsetzung sicherer Codierungsstandards innerhalb der Arbeitsabläufe von Entwicklern
  • Kontinuierliche Weiterqualifizierung und messbare Fähigkeiten im Bereich sicheres Programmieren
  • Nachweisbare Reduzierung des Sicherheitsrisikos, bevor der Code in die Produktion gelangt

Governance ist das Bindeglied zwischen Erkennung und Entscheidung und stellt sicher, dass Produktivitätssteigerungen nicht auf Kosten der Verantwortlichkeit gehen.

KI wird die Art und Weise, wie Software entwickelt wird, weiterhin verändern, und es ist weder realistisch noch wünschenswert, darauf zu verzichten. Die Produktivitäts- und Innovationsgewinne sind schließlich zu bedeutend. Um jedoch sicher einen Mehrwert zu erzielen, sind eine disziplinierte Überwachung und eine bewusste menschliche Validierung erforderlich, und auch diese Infrastruktur darf weder überstürzt noch ignoriert werden.

Inhaltsübersicht

PDF herunterladen
Ressource anzeigen
Interessiert an mehr?

Vorstandsvorsitzender, Chairman und Mitbegründer

Secure Code Warrior ist für Ihr Unternehmen da, um Sie dabei zu unterstützen, Ihren Code über den gesamten Lebenszyklus der Softwareentwicklung hinweg zu sichern und eine Kultur zu schaffen, in der Cybersicherheit an erster Stelle steht. Ganz gleich, ob Sie AppSec-Manager, Entwickler, CISO oder ein anderer Sicherheitsverantwortlicher sind, wir können Ihrem Unternehmen helfen, die mit unsicherem Code verbundenen Risiken zu reduzieren.

Demo buchenHerunterladen
Weitergeben:
Ressourcendrehscheibe

Ressourcen für den Einstieg

Mehr Beiträge
Ressourcendrehscheibe

Ressourcen für den Einstieg

Mehr Beiträge