
AI/LLM-Sicherheitsvideoserie: Alle Episoden, wöchentlich aktualisiert
Ihr Leitfaden für die Einführungsreihe zur AI/LLM-Sicherheit
KI-Codierungstools wie GitHub Copilot, Cursor und andere verändern die Art und Weise, wie Software erstellt wird - aber sie bringen auch neue Sicherheitsherausforderungen mit sich, die Entwickler verstehen müssen, um sichere, zuverlässige Anwendungen zu erstellen. Um Teams bei der sicheren Einführung von KI zu unterstützen, haben wir eine kostenlose, 12-wöchige KI/LLM-Sicherheitseinführungsvideoserie auf YouTube erstellt.
Dieser Beitrag dient als zentrale Anlaufstelle für die Serie. Jede Woche aktualisieren wir ihn mit einem neuen Video und einer Beschreibung, die wichtige Konzepte wie Prompt Injection, Data und Model Poisoning, Risiken in der Lieferkette, sicheres Prompting und mehr behandeln. Setzen Sie ein Lesezeichen auf diese Seite, um wöchentlich mitzuverfolgen, oder abonnieren Sie unseren YouTube-Kanal, um jede Lektion zu erhalten, sobald sie veröffentlicht wird.
Wenn Sie über diese einführenden Lektionen hinaus tiefer eintauchen möchten, erkunden Sie die gesamte AI/LLM-Sammlung auf der SCW-Plattform oder fordern Sie eine Demo an, wenn Sie noch kein Kunde sind. Abonnieren Sie unseren YouTube-Kanal, um jede neue Folge zu sehen, sobald sie veröffentlicht wird. Und wenn Sie über die neuesten Inhalte, Updates und Ressourcen auf dem Laufenden bleiben möchten, melden Sie sich hier an, um unserer Gemeinschaft von Entwicklern und Sicherheitsverantwortlichen beizutreten.
Episoden (Wöchentlich aktualisiert)
Woche 1 - KI-Coding-Risiken: Gefahren bei der Verwendung von LLMs
In diesem Video untersuchen wir die potenziellen Gefahren bei der Verwendung von KI/LLMs beim Schreiben von Code und zeigen die wichtigsten Risiken auf, denen Entwickler bei der Integration von KI-gestützten Tools in ihre Arbeitsabläufe ausgesetzt sind.
Woche 2 - Vorteile der KI-Codierung: Sichere KI-gestützte Entwicklung
KI-Codierungstoolssind nicht nur riskant - wenn sie sicher eingesetzt werden, können sie Entwicklern helfen, schneller und intelligenter zu arbeiten. In diesem Video erkunden wir die Vorteile der Verwendung von KI/LLMs beim Schreiben von Code und zeigen auf, wie Teams KI verantwortungsvoll nutzen und gleichzeitig häufige Sicherheitsfallen vermeiden können.
Woche 3 - Prompt Injection erklärt: Schutz von KI-generiertem Code
PromptInjection ist eine der häufigsten KI/LLM-Schwachstellen - und eine, die jeder Entwickler zu verhindern wissen sollte. In diesem Video stellen wir dire
Woche 4 - Offenlegung sensibler Informationen: Vermeidung von KI-Datenlecks
KI-gestützte Tools können unbeabsichtigt sensible Informationen preisgeben und damit Ihre Anwendungen und Daten gefährden. In diesem Video befassen wir uns mit Schwachstellen bei der Offenlegung sensibler Informationen, erklären, wie sie bei der Verwendung von KI/LLMs entstehen, und teilen praktische Schritte mit, die Entwickler unternehmen können, um das Risiko zu verringern.
Woche 5 - KI-Risiken in der Lieferkette: Absicherung von Abhängigkeiten
KI-gestützteEntwicklung beschleunigt die Codierung - aber sie führt auch Supply-Chain-Risiken ein, die sich auf jede Ebene Ihrer Anwendungen auswirken können. In diesem Video gehen wir auf Schwachstellen im Zusammenhang mit KI/LLMs ein, erklären, wie Modelle und APIs von Drittanbietern Ihre Angriffsfläche erweitern können, und teilen Strategien zur Minimierung der Gefährdung.
Woche 6 - Data Poisoning: Absicherung von KI-Modellen und -Outputs
KI-Systemesind nur so sicher wie ihre Trainingsdaten - und kompromittierte Eingaben können Schwachstellen schaffen, die sich auf Ihre Anwendungen auswirken. In diesem Video stellen wir Daten- und Modellvergiftungsangriffe vor, erklären, wie bösartige Eingaben KI-Ausgaben manipulieren können, und teilen Strategien zum Schutz Ihrer Systeme.
Woche 7 - Unsachgemäße Ausgabebehandlung: Validierung von KI-generiertem Code
KI-gestützteTools können schnell Code generieren - aber wenn die Ausgaben nicht validiert werden, können sich unbemerkt Schwachstellen einschleichen. In diesem Video untersuchen wir den unsachgemäßen Umgang mit Ausgaben in der KI-gestützten Entwicklung, erklären, wie riskante Ausgaben Ihre Anwendungen gefährden können, und zeigen Techniken zum Schutz von generiertem Code.
Woche 8 - Exzessive Handlungsfähigkeit: Kontrolle von KI-Autonomierisiken
Mit zunehmenderAutonomie von KI-Systemen entstehen neue Risiken, wenn Modelle über ihren beabsichtigten Rahmen hinaus agieren. In diesem Video untersuchen wir die Schwachstellen von exzessiver Handlungsfähigkeit in der KI-gestützten Entwicklung, erklären, wie überschießendes Verhalten entsteht, und diskutieren Techniken, um die Kontrolle über KI-gesteuerte Prozesse zu behalten.
Woche 9 - System Prompt Leakage: Versteckte KI-Sicherheitsrisiken
System-Promptsenthalten oft versteckte Anweisungen, die das KI-Verhalten steuern - doch wenn diese offengelegt werden, können Angreifer Modelle manipulieren oder sensible Informationen extrahieren. In diesem Video gehen wir auf Schwachstellen bei Systemansagen ein, erklären, wie sie entstehen, und erörtern Schritte, die Entwickler unternehmen können, um ihre KI-gestützten Workflows zu schützen.
Woche 10 - Vektor-Schwachstellen: Absicherung von KI-Retrieval-Workflows
AI-Modellestützen sich häufig auf Vektordatenbanken und Einbettungen, um leistungsstarke Funktionen bereitzustellen - aber Fehlkonfigurationen und unsichere Implementierungen können sensible Daten offenlegen und neue Angriffsvektoren schaffen. In diesem Video gehen wir auf Schwachstellen bei Vektoren und Einbettungen ein, erläutern gängige Sicherheitsprobleme und zeigen Strategien zur Absicherung Ihrer KI-gestützten Such- und Abfrage-Workflows.
Woche 11 – Fehlinformationen durch KI: Risiken durch Halluzinationen vermeiden
KI-Toolskönnen manchmal Ergebnisse generieren, die korrekt aussehen, aber falsch sind – wodurch das Risiko von Fehlinformationen entsteht, die sich auf Sicherheit, Zuverlässigkeit und Entscheidungsfindung auswirken. In diesem Video erklären wir Schwachstellen durch Fehlinformationen bei der KI-gestützten Codierung, untersuchen, wie falsche Ergebnisse entstehen, und stellen Strategien zur Validierung und Sicherung KI-gesteuerter Inhalte vor.
Woche 12 „ ” – Unbegrenzter Verbrauch: Verhindern von KI-DoS-Risiken
KI-Systeme können Ressourcen unbegrenzt verbrauchen, was zu Risiken wie Denial-of-Service (DoS), Datenoffenlegung und unerwarteten Betriebsausfällen führen kann. In diesem Video behandeln wir Schwachstellen durch unbegrenzten Verbrauch in KI/LLMs, erklären, wie sie entstehen, und stellen praktische Strategien zur Überwachung, Steuerung und Sicherung der KI-Ressourcennutzung vor.
Diese Videos sollen die Kernkonzepte der KI-/LLM-Sicherheit vorstellen, aber die Secure Code Warrior hat noch viel mehr zu bieten. Tauchen Sie ein in KI-Herausforderungen, die reale KI-gestützte Codeüberprüfungen und -korrekturen simulieren, entdecken Sie unsere KI-/LLM-Richtlinien, die sich an den Best Practices der Branche orientieren, und arbeiten Sie sich durch Walkthroughs, Missions, Quests und Kursvorlagen, die Ihnen praktische Erfahrungen beim Aufbau sicherer Programmiergewohnheiten vermitteln. Für Teams, die ihre Fähigkeiten weiterentwickeln möchten, bietet die Plattform außerdem eine wachsende Bibliothek mit über 130 AI/LLM-bezogenen Lernaktivitäten, darunter Themen wie „Coding with AI“, „Intro to AI Risk & Security“ und „OWASP Top 10 for LLM Applications“. Fordern Sie eine Demo an, um mehr zu erfahren.


Ihr umfassender Leitfaden für unsere 12-wöchige KI/LLM-Sicherheitsvideoserie. Sehen Sie sich jede Folge an, lernen Sie die wichtigsten KI-Sicherheitskonzepte kennen und verfolgen Sie die Serie wöchentlich.
Shannon Holt ist eine Vermarkterin von Cybersicherheitsprodukten mit Hintergrund in Anwendungssicherheit, Cloud-Sicherheitsdiensten und Compliance-Standards wie PCI-DSS und HITRUST.

Secure Code Warrior ist für Ihr Unternehmen da, um Sie dabei zu unterstützen, Ihren Code über den gesamten Lebenszyklus der Softwareentwicklung hinweg zu sichern und eine Kultur zu schaffen, in der Cybersicherheit an erster Stelle steht. Ganz gleich, ob Sie AppSec-Manager, Entwickler, CISO oder ein anderer Sicherheitsverantwortlicher sind, wir können Ihrem Unternehmen helfen, die mit unsicherem Code verbundenen Risiken zu reduzieren.
Demo buchenShannon Holt ist eine Vermarkterin von Cybersicherheitsprodukten mit Hintergrund in Anwendungssicherheit, Cloud-Sicherheitsdiensten und Compliance-Standards wie PCI-DSS und HITRUST.
Shannon Holt ist Produktvermarkterin für Cybersicherheit mit Erfahrung in Anwendungssicherheit, Cloud-Sicherheitsdiensten und Compliance-Standards wie PCI-DSS und HITRUST. Ihr großes Ziel ist es, sichere Entwicklung und Compliance für technische Teams praktikabler und zugänglicher zu gestalten und die Lücke zwischen Sicherheitserwartungen und der Realität moderner Softwareentwicklung zu schließen.


Ihr Leitfaden für die Einführungsreihe zur AI/LLM-Sicherheit
KI-Codierungstools wie GitHub Copilot, Cursor und andere verändern die Art und Weise, wie Software erstellt wird - aber sie bringen auch neue Sicherheitsherausforderungen mit sich, die Entwickler verstehen müssen, um sichere, zuverlässige Anwendungen zu erstellen. Um Teams bei der sicheren Einführung von KI zu unterstützen, haben wir eine kostenlose, 12-wöchige KI/LLM-Sicherheitseinführungsvideoserie auf YouTube erstellt.
Dieser Beitrag dient als zentrale Anlaufstelle für die Serie. Jede Woche aktualisieren wir ihn mit einem neuen Video und einer Beschreibung, die wichtige Konzepte wie Prompt Injection, Data und Model Poisoning, Risiken in der Lieferkette, sicheres Prompting und mehr behandeln. Setzen Sie ein Lesezeichen auf diese Seite, um wöchentlich mitzuverfolgen, oder abonnieren Sie unseren YouTube-Kanal, um jede Lektion zu erhalten, sobald sie veröffentlicht wird.
Wenn Sie über diese einführenden Lektionen hinaus tiefer eintauchen möchten, erkunden Sie die gesamte AI/LLM-Sammlung auf der SCW-Plattform oder fordern Sie eine Demo an, wenn Sie noch kein Kunde sind. Abonnieren Sie unseren YouTube-Kanal, um jede neue Folge zu sehen, sobald sie veröffentlicht wird. Und wenn Sie über die neuesten Inhalte, Updates und Ressourcen auf dem Laufenden bleiben möchten, melden Sie sich hier an, um unserer Gemeinschaft von Entwicklern und Sicherheitsverantwortlichen beizutreten.
Episoden (Wöchentlich aktualisiert)
Woche 1 - KI-Coding-Risiken: Gefahren bei der Verwendung von LLMs
In diesem Video untersuchen wir die potenziellen Gefahren bei der Verwendung von KI/LLMs beim Schreiben von Code und zeigen die wichtigsten Risiken auf, denen Entwickler bei der Integration von KI-gestützten Tools in ihre Arbeitsabläufe ausgesetzt sind.
Woche 2 - Vorteile der KI-Codierung: Sichere KI-gestützte Entwicklung
KI-Codierungstoolssind nicht nur riskant - wenn sie sicher eingesetzt werden, können sie Entwicklern helfen, schneller und intelligenter zu arbeiten. In diesem Video erkunden wir die Vorteile der Verwendung von KI/LLMs beim Schreiben von Code und zeigen auf, wie Teams KI verantwortungsvoll nutzen und gleichzeitig häufige Sicherheitsfallen vermeiden können.
Woche 3 - Prompt Injection erklärt: Schutz von KI-generiertem Code
PromptInjection ist eine der häufigsten KI/LLM-Schwachstellen - und eine, die jeder Entwickler zu verhindern wissen sollte. In diesem Video stellen wir dire
Woche 4 - Offenlegung sensibler Informationen: Vermeidung von KI-Datenlecks
KI-gestützte Tools können unbeabsichtigt sensible Informationen preisgeben und damit Ihre Anwendungen und Daten gefährden. In diesem Video befassen wir uns mit Schwachstellen bei der Offenlegung sensibler Informationen, erklären, wie sie bei der Verwendung von KI/LLMs entstehen, und teilen praktische Schritte mit, die Entwickler unternehmen können, um das Risiko zu verringern.
Woche 5 - KI-Risiken in der Lieferkette: Absicherung von Abhängigkeiten
KI-gestützteEntwicklung beschleunigt die Codierung - aber sie führt auch Supply-Chain-Risiken ein, die sich auf jede Ebene Ihrer Anwendungen auswirken können. In diesem Video gehen wir auf Schwachstellen im Zusammenhang mit KI/LLMs ein, erklären, wie Modelle und APIs von Drittanbietern Ihre Angriffsfläche erweitern können, und teilen Strategien zur Minimierung der Gefährdung.
Woche 6 - Data Poisoning: Absicherung von KI-Modellen und -Outputs
KI-Systemesind nur so sicher wie ihre Trainingsdaten - und kompromittierte Eingaben können Schwachstellen schaffen, die sich auf Ihre Anwendungen auswirken. In diesem Video stellen wir Daten- und Modellvergiftungsangriffe vor, erklären, wie bösartige Eingaben KI-Ausgaben manipulieren können, und teilen Strategien zum Schutz Ihrer Systeme.
Woche 7 - Unsachgemäße Ausgabebehandlung: Validierung von KI-generiertem Code
KI-gestützteTools können schnell Code generieren - aber wenn die Ausgaben nicht validiert werden, können sich unbemerkt Schwachstellen einschleichen. In diesem Video untersuchen wir den unsachgemäßen Umgang mit Ausgaben in der KI-gestützten Entwicklung, erklären, wie riskante Ausgaben Ihre Anwendungen gefährden können, und zeigen Techniken zum Schutz von generiertem Code.
Woche 8 - Exzessive Handlungsfähigkeit: Kontrolle von KI-Autonomierisiken
Mit zunehmenderAutonomie von KI-Systemen entstehen neue Risiken, wenn Modelle über ihren beabsichtigten Rahmen hinaus agieren. In diesem Video untersuchen wir die Schwachstellen von exzessiver Handlungsfähigkeit in der KI-gestützten Entwicklung, erklären, wie überschießendes Verhalten entsteht, und diskutieren Techniken, um die Kontrolle über KI-gesteuerte Prozesse zu behalten.
Woche 9 - System Prompt Leakage: Versteckte KI-Sicherheitsrisiken
System-Promptsenthalten oft versteckte Anweisungen, die das KI-Verhalten steuern - doch wenn diese offengelegt werden, können Angreifer Modelle manipulieren oder sensible Informationen extrahieren. In diesem Video gehen wir auf Schwachstellen bei Systemansagen ein, erklären, wie sie entstehen, und erörtern Schritte, die Entwickler unternehmen können, um ihre KI-gestützten Workflows zu schützen.
Woche 10 - Vektor-Schwachstellen: Absicherung von KI-Retrieval-Workflows
AI-Modellestützen sich häufig auf Vektordatenbanken und Einbettungen, um leistungsstarke Funktionen bereitzustellen - aber Fehlkonfigurationen und unsichere Implementierungen können sensible Daten offenlegen und neue Angriffsvektoren schaffen. In diesem Video gehen wir auf Schwachstellen bei Vektoren und Einbettungen ein, erläutern gängige Sicherheitsprobleme und zeigen Strategien zur Absicherung Ihrer KI-gestützten Such- und Abfrage-Workflows.
Woche 11 – Fehlinformationen durch KI: Risiken durch Halluzinationen vermeiden
KI-Toolskönnen manchmal Ergebnisse generieren, die korrekt aussehen, aber falsch sind – wodurch das Risiko von Fehlinformationen entsteht, die sich auf Sicherheit, Zuverlässigkeit und Entscheidungsfindung auswirken. In diesem Video erklären wir Schwachstellen durch Fehlinformationen bei der KI-gestützten Codierung, untersuchen, wie falsche Ergebnisse entstehen, und stellen Strategien zur Validierung und Sicherung KI-gesteuerter Inhalte vor.
Woche 12 „ ” – Unbegrenzter Verbrauch: Verhindern von KI-DoS-Risiken
KI-Systeme können Ressourcen unbegrenzt verbrauchen, was zu Risiken wie Denial-of-Service (DoS), Datenoffenlegung und unerwarteten Betriebsausfällen führen kann. In diesem Video behandeln wir Schwachstellen durch unbegrenzten Verbrauch in KI/LLMs, erklären, wie sie entstehen, und stellen praktische Strategien zur Überwachung, Steuerung und Sicherung der KI-Ressourcennutzung vor.
Diese Videos sollen die Kernkonzepte der KI-/LLM-Sicherheit vorstellen, aber die Secure Code Warrior hat noch viel mehr zu bieten. Tauchen Sie ein in KI-Herausforderungen, die reale KI-gestützte Codeüberprüfungen und -korrekturen simulieren, entdecken Sie unsere KI-/LLM-Richtlinien, die sich an den Best Practices der Branche orientieren, und arbeiten Sie sich durch Walkthroughs, Missions, Quests und Kursvorlagen, die Ihnen praktische Erfahrungen beim Aufbau sicherer Programmiergewohnheiten vermitteln. Für Teams, die ihre Fähigkeiten weiterentwickeln möchten, bietet die Plattform außerdem eine wachsende Bibliothek mit über 130 AI/LLM-bezogenen Lernaktivitäten, darunter Themen wie „Coding with AI“, „Intro to AI Risk & Security“ und „OWASP Top 10 for LLM Applications“. Fordern Sie eine Demo an, um mehr zu erfahren.

Ihr Leitfaden für die Einführungsreihe zur AI/LLM-Sicherheit
KI-Codierungstools wie GitHub Copilot, Cursor und andere verändern die Art und Weise, wie Software erstellt wird - aber sie bringen auch neue Sicherheitsherausforderungen mit sich, die Entwickler verstehen müssen, um sichere, zuverlässige Anwendungen zu erstellen. Um Teams bei der sicheren Einführung von KI zu unterstützen, haben wir eine kostenlose, 12-wöchige KI/LLM-Sicherheitseinführungsvideoserie auf YouTube erstellt.
Dieser Beitrag dient als zentrale Anlaufstelle für die Serie. Jede Woche aktualisieren wir ihn mit einem neuen Video und einer Beschreibung, die wichtige Konzepte wie Prompt Injection, Data und Model Poisoning, Risiken in der Lieferkette, sicheres Prompting und mehr behandeln. Setzen Sie ein Lesezeichen auf diese Seite, um wöchentlich mitzuverfolgen, oder abonnieren Sie unseren YouTube-Kanal, um jede Lektion zu erhalten, sobald sie veröffentlicht wird.
Wenn Sie über diese einführenden Lektionen hinaus tiefer eintauchen möchten, erkunden Sie die gesamte AI/LLM-Sammlung auf der SCW-Plattform oder fordern Sie eine Demo an, wenn Sie noch kein Kunde sind. Abonnieren Sie unseren YouTube-Kanal, um jede neue Folge zu sehen, sobald sie veröffentlicht wird. Und wenn Sie über die neuesten Inhalte, Updates und Ressourcen auf dem Laufenden bleiben möchten, melden Sie sich hier an, um unserer Gemeinschaft von Entwicklern und Sicherheitsverantwortlichen beizutreten.
Episoden (Wöchentlich aktualisiert)
Woche 1 - KI-Coding-Risiken: Gefahren bei der Verwendung von LLMs
In diesem Video untersuchen wir die potenziellen Gefahren bei der Verwendung von KI/LLMs beim Schreiben von Code und zeigen die wichtigsten Risiken auf, denen Entwickler bei der Integration von KI-gestützten Tools in ihre Arbeitsabläufe ausgesetzt sind.
Woche 2 - Vorteile der KI-Codierung: Sichere KI-gestützte Entwicklung
KI-Codierungstoolssind nicht nur riskant - wenn sie sicher eingesetzt werden, können sie Entwicklern helfen, schneller und intelligenter zu arbeiten. In diesem Video erkunden wir die Vorteile der Verwendung von KI/LLMs beim Schreiben von Code und zeigen auf, wie Teams KI verantwortungsvoll nutzen und gleichzeitig häufige Sicherheitsfallen vermeiden können.
Woche 3 - Prompt Injection erklärt: Schutz von KI-generiertem Code
PromptInjection ist eine der häufigsten KI/LLM-Schwachstellen - und eine, die jeder Entwickler zu verhindern wissen sollte. In diesem Video stellen wir dire
Woche 4 - Offenlegung sensibler Informationen: Vermeidung von KI-Datenlecks
KI-gestützte Tools können unbeabsichtigt sensible Informationen preisgeben und damit Ihre Anwendungen und Daten gefährden. In diesem Video befassen wir uns mit Schwachstellen bei der Offenlegung sensibler Informationen, erklären, wie sie bei der Verwendung von KI/LLMs entstehen, und teilen praktische Schritte mit, die Entwickler unternehmen können, um das Risiko zu verringern.
Woche 5 - KI-Risiken in der Lieferkette: Absicherung von Abhängigkeiten
KI-gestützteEntwicklung beschleunigt die Codierung - aber sie führt auch Supply-Chain-Risiken ein, die sich auf jede Ebene Ihrer Anwendungen auswirken können. In diesem Video gehen wir auf Schwachstellen im Zusammenhang mit KI/LLMs ein, erklären, wie Modelle und APIs von Drittanbietern Ihre Angriffsfläche erweitern können, und teilen Strategien zur Minimierung der Gefährdung.
Woche 6 - Data Poisoning: Absicherung von KI-Modellen und -Outputs
KI-Systemesind nur so sicher wie ihre Trainingsdaten - und kompromittierte Eingaben können Schwachstellen schaffen, die sich auf Ihre Anwendungen auswirken. In diesem Video stellen wir Daten- und Modellvergiftungsangriffe vor, erklären, wie bösartige Eingaben KI-Ausgaben manipulieren können, und teilen Strategien zum Schutz Ihrer Systeme.
Woche 7 - Unsachgemäße Ausgabebehandlung: Validierung von KI-generiertem Code
KI-gestützteTools können schnell Code generieren - aber wenn die Ausgaben nicht validiert werden, können sich unbemerkt Schwachstellen einschleichen. In diesem Video untersuchen wir den unsachgemäßen Umgang mit Ausgaben in der KI-gestützten Entwicklung, erklären, wie riskante Ausgaben Ihre Anwendungen gefährden können, und zeigen Techniken zum Schutz von generiertem Code.
Woche 8 - Exzessive Handlungsfähigkeit: Kontrolle von KI-Autonomierisiken
Mit zunehmenderAutonomie von KI-Systemen entstehen neue Risiken, wenn Modelle über ihren beabsichtigten Rahmen hinaus agieren. In diesem Video untersuchen wir die Schwachstellen von exzessiver Handlungsfähigkeit in der KI-gestützten Entwicklung, erklären, wie überschießendes Verhalten entsteht, und diskutieren Techniken, um die Kontrolle über KI-gesteuerte Prozesse zu behalten.
Woche 9 - System Prompt Leakage: Versteckte KI-Sicherheitsrisiken
System-Promptsenthalten oft versteckte Anweisungen, die das KI-Verhalten steuern - doch wenn diese offengelegt werden, können Angreifer Modelle manipulieren oder sensible Informationen extrahieren. In diesem Video gehen wir auf Schwachstellen bei Systemansagen ein, erklären, wie sie entstehen, und erörtern Schritte, die Entwickler unternehmen können, um ihre KI-gestützten Workflows zu schützen.
Woche 10 - Vektor-Schwachstellen: Absicherung von KI-Retrieval-Workflows
AI-Modellestützen sich häufig auf Vektordatenbanken und Einbettungen, um leistungsstarke Funktionen bereitzustellen - aber Fehlkonfigurationen und unsichere Implementierungen können sensible Daten offenlegen und neue Angriffsvektoren schaffen. In diesem Video gehen wir auf Schwachstellen bei Vektoren und Einbettungen ein, erläutern gängige Sicherheitsprobleme und zeigen Strategien zur Absicherung Ihrer KI-gestützten Such- und Abfrage-Workflows.
Woche 11 – Fehlinformationen durch KI: Risiken durch Halluzinationen vermeiden
KI-Toolskönnen manchmal Ergebnisse generieren, die korrekt aussehen, aber falsch sind – wodurch das Risiko von Fehlinformationen entsteht, die sich auf Sicherheit, Zuverlässigkeit und Entscheidungsfindung auswirken. In diesem Video erklären wir Schwachstellen durch Fehlinformationen bei der KI-gestützten Codierung, untersuchen, wie falsche Ergebnisse entstehen, und stellen Strategien zur Validierung und Sicherung KI-gesteuerter Inhalte vor.
Woche 12 „ ” – Unbegrenzter Verbrauch: Verhindern von KI-DoS-Risiken
KI-Systeme können Ressourcen unbegrenzt verbrauchen, was zu Risiken wie Denial-of-Service (DoS), Datenoffenlegung und unerwarteten Betriebsausfällen führen kann. In diesem Video behandeln wir Schwachstellen durch unbegrenzten Verbrauch in KI/LLMs, erklären, wie sie entstehen, und stellen praktische Strategien zur Überwachung, Steuerung und Sicherung der KI-Ressourcennutzung vor.
Diese Videos sollen die Kernkonzepte der KI-/LLM-Sicherheit vorstellen, aber die Secure Code Warrior hat noch viel mehr zu bieten. Tauchen Sie ein in KI-Herausforderungen, die reale KI-gestützte Codeüberprüfungen und -korrekturen simulieren, entdecken Sie unsere KI-/LLM-Richtlinien, die sich an den Best Practices der Branche orientieren, und arbeiten Sie sich durch Walkthroughs, Missions, Quests und Kursvorlagen, die Ihnen praktische Erfahrungen beim Aufbau sicherer Programmiergewohnheiten vermitteln. Für Teams, die ihre Fähigkeiten weiterentwickeln möchten, bietet die Plattform außerdem eine wachsende Bibliothek mit über 130 AI/LLM-bezogenen Lernaktivitäten, darunter Themen wie „Coding with AI“, „Intro to AI Risk & Security“ und „OWASP Top 10 for LLM Applications“. Fordern Sie eine Demo an, um mehr zu erfahren.

Klicken Sie auf den unten stehenden Link und laden Sie die PDF-Datei dieser Ressource herunter.
Secure Code Warrior ist für Ihr Unternehmen da, um Sie dabei zu unterstützen, Ihren Code über den gesamten Lebenszyklus der Softwareentwicklung hinweg zu sichern und eine Kultur zu schaffen, in der Cybersicherheit an erster Stelle steht. Ganz gleich, ob Sie AppSec-Manager, Entwickler, CISO oder ein anderer Sicherheitsverantwortlicher sind, wir können Ihrem Unternehmen helfen, die mit unsicherem Code verbundenen Risiken zu reduzieren.
Bericht ansehenDemo buchenShannon Holt ist eine Vermarkterin von Cybersicherheitsprodukten mit Hintergrund in Anwendungssicherheit, Cloud-Sicherheitsdiensten und Compliance-Standards wie PCI-DSS und HITRUST.
Shannon Holt ist Produktvermarkterin für Cybersicherheit mit Erfahrung in Anwendungssicherheit, Cloud-Sicherheitsdiensten und Compliance-Standards wie PCI-DSS und HITRUST. Ihr großes Ziel ist es, sichere Entwicklung und Compliance für technische Teams praktikabler und zugänglicher zu gestalten und die Lücke zwischen Sicherheitserwartungen und der Realität moderner Softwareentwicklung zu schließen.
Ihr Leitfaden für die Einführungsreihe zur AI/LLM-Sicherheit
KI-Codierungstools wie GitHub Copilot, Cursor und andere verändern die Art und Weise, wie Software erstellt wird - aber sie bringen auch neue Sicherheitsherausforderungen mit sich, die Entwickler verstehen müssen, um sichere, zuverlässige Anwendungen zu erstellen. Um Teams bei der sicheren Einführung von KI zu unterstützen, haben wir eine kostenlose, 12-wöchige KI/LLM-Sicherheitseinführungsvideoserie auf YouTube erstellt.
Dieser Beitrag dient als zentrale Anlaufstelle für die Serie. Jede Woche aktualisieren wir ihn mit einem neuen Video und einer Beschreibung, die wichtige Konzepte wie Prompt Injection, Data und Model Poisoning, Risiken in der Lieferkette, sicheres Prompting und mehr behandeln. Setzen Sie ein Lesezeichen auf diese Seite, um wöchentlich mitzuverfolgen, oder abonnieren Sie unseren YouTube-Kanal, um jede Lektion zu erhalten, sobald sie veröffentlicht wird.
Wenn Sie über diese einführenden Lektionen hinaus tiefer eintauchen möchten, erkunden Sie die gesamte AI/LLM-Sammlung auf der SCW-Plattform oder fordern Sie eine Demo an, wenn Sie noch kein Kunde sind. Abonnieren Sie unseren YouTube-Kanal, um jede neue Folge zu sehen, sobald sie veröffentlicht wird. Und wenn Sie über die neuesten Inhalte, Updates und Ressourcen auf dem Laufenden bleiben möchten, melden Sie sich hier an, um unserer Gemeinschaft von Entwicklern und Sicherheitsverantwortlichen beizutreten.
Episoden (Wöchentlich aktualisiert)
Woche 1 - KI-Coding-Risiken: Gefahren bei der Verwendung von LLMs
In diesem Video untersuchen wir die potenziellen Gefahren bei der Verwendung von KI/LLMs beim Schreiben von Code und zeigen die wichtigsten Risiken auf, denen Entwickler bei der Integration von KI-gestützten Tools in ihre Arbeitsabläufe ausgesetzt sind.
Woche 2 - Vorteile der KI-Codierung: Sichere KI-gestützte Entwicklung
KI-Codierungstoolssind nicht nur riskant - wenn sie sicher eingesetzt werden, können sie Entwicklern helfen, schneller und intelligenter zu arbeiten. In diesem Video erkunden wir die Vorteile der Verwendung von KI/LLMs beim Schreiben von Code und zeigen auf, wie Teams KI verantwortungsvoll nutzen und gleichzeitig häufige Sicherheitsfallen vermeiden können.
Woche 3 - Prompt Injection erklärt: Schutz von KI-generiertem Code
PromptInjection ist eine der häufigsten KI/LLM-Schwachstellen - und eine, die jeder Entwickler zu verhindern wissen sollte. In diesem Video stellen wir dire
Woche 4 - Offenlegung sensibler Informationen: Vermeidung von KI-Datenlecks
KI-gestützte Tools können unbeabsichtigt sensible Informationen preisgeben und damit Ihre Anwendungen und Daten gefährden. In diesem Video befassen wir uns mit Schwachstellen bei der Offenlegung sensibler Informationen, erklären, wie sie bei der Verwendung von KI/LLMs entstehen, und teilen praktische Schritte mit, die Entwickler unternehmen können, um das Risiko zu verringern.
Woche 5 - KI-Risiken in der Lieferkette: Absicherung von Abhängigkeiten
KI-gestützteEntwicklung beschleunigt die Codierung - aber sie führt auch Supply-Chain-Risiken ein, die sich auf jede Ebene Ihrer Anwendungen auswirken können. In diesem Video gehen wir auf Schwachstellen im Zusammenhang mit KI/LLMs ein, erklären, wie Modelle und APIs von Drittanbietern Ihre Angriffsfläche erweitern können, und teilen Strategien zur Minimierung der Gefährdung.
Woche 6 - Data Poisoning: Absicherung von KI-Modellen und -Outputs
KI-Systemesind nur so sicher wie ihre Trainingsdaten - und kompromittierte Eingaben können Schwachstellen schaffen, die sich auf Ihre Anwendungen auswirken. In diesem Video stellen wir Daten- und Modellvergiftungsangriffe vor, erklären, wie bösartige Eingaben KI-Ausgaben manipulieren können, und teilen Strategien zum Schutz Ihrer Systeme.
Woche 7 - Unsachgemäße Ausgabebehandlung: Validierung von KI-generiertem Code
KI-gestützteTools können schnell Code generieren - aber wenn die Ausgaben nicht validiert werden, können sich unbemerkt Schwachstellen einschleichen. In diesem Video untersuchen wir den unsachgemäßen Umgang mit Ausgaben in der KI-gestützten Entwicklung, erklären, wie riskante Ausgaben Ihre Anwendungen gefährden können, und zeigen Techniken zum Schutz von generiertem Code.
Woche 8 - Exzessive Handlungsfähigkeit: Kontrolle von KI-Autonomierisiken
Mit zunehmenderAutonomie von KI-Systemen entstehen neue Risiken, wenn Modelle über ihren beabsichtigten Rahmen hinaus agieren. In diesem Video untersuchen wir die Schwachstellen von exzessiver Handlungsfähigkeit in der KI-gestützten Entwicklung, erklären, wie überschießendes Verhalten entsteht, und diskutieren Techniken, um die Kontrolle über KI-gesteuerte Prozesse zu behalten.
Woche 9 - System Prompt Leakage: Versteckte KI-Sicherheitsrisiken
System-Promptsenthalten oft versteckte Anweisungen, die das KI-Verhalten steuern - doch wenn diese offengelegt werden, können Angreifer Modelle manipulieren oder sensible Informationen extrahieren. In diesem Video gehen wir auf Schwachstellen bei Systemansagen ein, erklären, wie sie entstehen, und erörtern Schritte, die Entwickler unternehmen können, um ihre KI-gestützten Workflows zu schützen.
Woche 10 - Vektor-Schwachstellen: Absicherung von KI-Retrieval-Workflows
AI-Modellestützen sich häufig auf Vektordatenbanken und Einbettungen, um leistungsstarke Funktionen bereitzustellen - aber Fehlkonfigurationen und unsichere Implementierungen können sensible Daten offenlegen und neue Angriffsvektoren schaffen. In diesem Video gehen wir auf Schwachstellen bei Vektoren und Einbettungen ein, erläutern gängige Sicherheitsprobleme und zeigen Strategien zur Absicherung Ihrer KI-gestützten Such- und Abfrage-Workflows.
Woche 11 – Fehlinformationen durch KI: Risiken durch Halluzinationen vermeiden
KI-Toolskönnen manchmal Ergebnisse generieren, die korrekt aussehen, aber falsch sind – wodurch das Risiko von Fehlinformationen entsteht, die sich auf Sicherheit, Zuverlässigkeit und Entscheidungsfindung auswirken. In diesem Video erklären wir Schwachstellen durch Fehlinformationen bei der KI-gestützten Codierung, untersuchen, wie falsche Ergebnisse entstehen, und stellen Strategien zur Validierung und Sicherung KI-gesteuerter Inhalte vor.
Woche 12 „ ” – Unbegrenzter Verbrauch: Verhindern von KI-DoS-Risiken
KI-Systeme können Ressourcen unbegrenzt verbrauchen, was zu Risiken wie Denial-of-Service (DoS), Datenoffenlegung und unerwarteten Betriebsausfällen führen kann. In diesem Video behandeln wir Schwachstellen durch unbegrenzten Verbrauch in KI/LLMs, erklären, wie sie entstehen, und stellen praktische Strategien zur Überwachung, Steuerung und Sicherung der KI-Ressourcennutzung vor.
Diese Videos sollen die Kernkonzepte der KI-/LLM-Sicherheit vorstellen, aber die Secure Code Warrior hat noch viel mehr zu bieten. Tauchen Sie ein in KI-Herausforderungen, die reale KI-gestützte Codeüberprüfungen und -korrekturen simulieren, entdecken Sie unsere KI-/LLM-Richtlinien, die sich an den Best Practices der Branche orientieren, und arbeiten Sie sich durch Walkthroughs, Missions, Quests und Kursvorlagen, die Ihnen praktische Erfahrungen beim Aufbau sicherer Programmiergewohnheiten vermitteln. Für Teams, die ihre Fähigkeiten weiterentwickeln möchten, bietet die Plattform außerdem eine wachsende Bibliothek mit über 130 AI/LLM-bezogenen Lernaktivitäten, darunter Themen wie „Coding with AI“, „Intro to AI Risk & Security“ und „OWASP Top 10 for LLM Applications“. Fordern Sie eine Demo an, um mehr zu erfahren.
Inhaltsübersicht
Shannon Holt ist eine Vermarkterin von Cybersicherheitsprodukten mit Hintergrund in Anwendungssicherheit, Cloud-Sicherheitsdiensten und Compliance-Standards wie PCI-DSS und HITRUST.

Secure Code Warrior ist für Ihr Unternehmen da, um Sie dabei zu unterstützen, Ihren Code über den gesamten Lebenszyklus der Softwareentwicklung hinweg zu sichern und eine Kultur zu schaffen, in der Cybersicherheit an erster Stelle steht. Ganz gleich, ob Sie AppSec-Manager, Entwickler, CISO oder ein anderer Sicherheitsverantwortlicher sind, wir können Ihrem Unternehmen helfen, die mit unsicherem Code verbundenen Risiken zu reduzieren.
Demo buchenHerunterladenRessourcen für den Einstieg
Trust Agent:AI - Secure and scale AI-Drive development
AI is writing code. Who’s governing it? With up to 50% of AI-generated code containing security weaknesses, managing AI risk is critical. Discover how SCW's Trust Agent: AI provides the real-time visibility, proactive governance, and targeted upskilling needed to scale AI-driven development securely.
Die Leistungsfähigkeit von OpenText Application Security + Secure Code Warrior
OpenText Application Security and Secure Code Warrior combine vulnerability detection with AI Software Governance and developer capability. Together, they help organizations reduce risk, strengthen secure coding practices, and confidently adopt AI-driven development.
Secure Code Warrior corporate overview
Secure Code Warrior is an AI Software Governance platform designed to enable organizations to safely adopt AI-driven development by bridging the gap between development velocity and enterprise security. The platform addresses the "Visibility Gap," where security teams often lack insights into shadow AI coding tools and the origins of production code.
Themen und Inhalte der Schulung zu sicherem Code
Our industry-leading content is always evolving to fit the ever changing software development landscape with your role in mind. Topics covering everything from AI to XQuery Injection, offered for a variety of roles from Architects and Engineers to Product Managers and QA. Get a sneak peek of what our content catalog has to offer by topic and role.
Ressourcen für den Einstieg
Observe and Secure the ADLC: A Four-Point Framework for CISOs and Development Teams Using AI
While development teams look to make the most of GenAI’s undeniable benefits, we’d like to propose a four-point foundational framework that will allow security leaders to deploy AI coding tools and agents with a higher, more relevant standard of security best practices. It details exactly what enterprises can do to ensure safe, secure code development right now, and as agentic AI becomes an even bigger factor in the future.
KI kann Code schreiben und überprüfen – aber das Risiko tragen weiterhin die Menschen.
Die Einführung von Claude Code Security durch Anthropic markiert einen entscheidenden Schnittpunkt zwischen KI-gestützter Softwareentwicklung und der rasanten Weiterentwicklung unserer Herangehensweise an moderne Cybersicherheit.


















