
AI/LLM-Sicherheitsvideoserie: Alle Episoden, wöchentlich aktualisiert
Ihr Leitfaden für die Einführungsreihe zur AI/LLM-Sicherheit
KI-Codierungstools wie GitHub Copilot, Cursor und andere verändern die Art und Weise, wie Software erstellt wird - aber sie bringen auch neue Sicherheitsherausforderungen mit sich, die Entwickler verstehen müssen, um sichere, zuverlässige Anwendungen zu erstellen. Um Teams bei der sicheren Einführung von KI zu unterstützen, haben wir eine kostenlose, 12-wöchige KI/LLM-Sicherheitseinführungsvideoserie auf YouTube erstellt.
Dieser Beitrag dient als zentrale Anlaufstelle für die Serie. Jede Woche aktualisieren wir ihn mit einem neuen Video und einer Beschreibung, die wichtige Konzepte wie Prompt Injection, Data und Model Poisoning, Risiken in der Lieferkette, sicheres Prompting und mehr behandeln. Setzen Sie ein Lesezeichen auf diese Seite, um wöchentlich mitzuverfolgen, oder abonnieren Sie unseren YouTube-Kanal, um jede Lektion zu erhalten, sobald sie veröffentlicht wird.
Wenn Sie über diese einführenden Lektionen hinaus tiefer eintauchen möchten, erkunden Sie die gesamte AI/LLM-Sammlung auf der SCW-Plattform oder fordern Sie eine Demo an, wenn Sie noch kein Kunde sind. Abonnieren Sie unseren YouTube-Kanal, um jede neue Folge zu sehen, sobald sie veröffentlicht wird. Und wenn Sie über die neuesten Inhalte, Updates und Ressourcen auf dem Laufenden bleiben möchten, melden Sie sich hier an, um unserer Gemeinschaft von Entwicklern und Sicherheitsverantwortlichen beizutreten.
Episoden (Wöchentlich aktualisiert)
Woche 1 - KI-Coding-Risiken: Gefahren bei der Verwendung von LLMs
In diesem Video untersuchen wir die potenziellen Gefahren bei der Verwendung von KI/LLMs beim Schreiben von Code und zeigen die wichtigsten Risiken auf, denen Entwickler bei der Integration von KI-gestützten Tools in ihre Arbeitsabläufe ausgesetzt sind.
Woche 2 - Vorteile der KI-Codierung: Sichere KI-gestützte Entwicklung
KI-Codierungstoolssind nicht nur riskant - wenn sie sicher eingesetzt werden, können sie Entwicklern helfen, schneller und intelligenter zu arbeiten. In diesem Video erkunden wir die Vorteile der Verwendung von KI/LLMs beim Schreiben von Code und zeigen auf, wie Teams KI verantwortungsvoll nutzen und gleichzeitig häufige Sicherheitsfallen vermeiden können.
Woche 3 - Prompt Injection erklärt: Schutz von KI-generiertem Code
PromptInjection ist eine der häufigsten KI/LLM-Schwachstellen - und eine, die jeder Entwickler zu verhindern wissen sollte. In diesem Video stellen wir dire
Woche 4 - Offenlegung sensibler Informationen: Vermeidung von KI-Datenlecks
KI-gestützte Tools können unbeabsichtigt sensible Informationen preisgeben und damit Ihre Anwendungen und Daten gefährden. In diesem Video befassen wir uns mit Schwachstellen bei der Offenlegung sensibler Informationen, erklären, wie sie bei der Verwendung von KI/LLMs entstehen, und teilen praktische Schritte mit, die Entwickler unternehmen können, um das Risiko zu verringern.
Woche 5 - KI-Risiken in der Lieferkette: Absicherung von Abhängigkeiten
KI-gestützteEntwicklung beschleunigt die Codierung - aber sie führt auch Supply-Chain-Risiken ein, die sich auf jede Ebene Ihrer Anwendungen auswirken können. In diesem Video gehen wir auf Schwachstellen im Zusammenhang mit KI/LLMs ein, erklären, wie Modelle und APIs von Drittanbietern Ihre Angriffsfläche erweitern können, und teilen Strategien zur Minimierung der Gefährdung.
Woche 6 - Data Poisoning: Absicherung von KI-Modellen und -Outputs
KI-Systemesind nur so sicher wie ihre Trainingsdaten - und kompromittierte Eingaben können Schwachstellen schaffen, die sich auf Ihre Anwendungen auswirken. In diesem Video stellen wir Daten- und Modellvergiftungsangriffe vor, erklären, wie bösartige Eingaben KI-Ausgaben manipulieren können, und teilen Strategien zum Schutz Ihrer Systeme.
Woche 7 - Unsachgemäße Ausgabebehandlung: Validierung von KI-generiertem Code
KI-gestützteTools können schnell Code generieren - aber wenn die Ausgaben nicht validiert werden, können sich unbemerkt Schwachstellen einschleichen. In diesem Video untersuchen wir den unsachgemäßen Umgang mit Ausgaben in der KI-gestützten Entwicklung, erklären, wie riskante Ausgaben Ihre Anwendungen gefährden können, und zeigen Techniken zum Schutz von generiertem Code.
Woche 8 - Exzessive Handlungsfähigkeit: Kontrolle von KI-Autonomierisiken
Mit zunehmenderAutonomie von KI-Systemen entstehen neue Risiken, wenn Modelle über ihren beabsichtigten Rahmen hinaus agieren. In diesem Video untersuchen wir die Schwachstellen von exzessiver Handlungsfähigkeit in der KI-gestützten Entwicklung, erklären, wie überschießendes Verhalten entsteht, und diskutieren Techniken, um die Kontrolle über KI-gesteuerte Prozesse zu behalten.
Woche 9 - System Prompt Leakage: Versteckte KI-Sicherheitsrisiken
System-Promptsenthalten oft versteckte Anweisungen, die das KI-Verhalten steuern - doch wenn diese offengelegt werden, können Angreifer Modelle manipulieren oder sensible Informationen extrahieren. In diesem Video gehen wir auf Schwachstellen bei Systemansagen ein, erklären, wie sie entstehen, und erörtern Schritte, die Entwickler unternehmen können, um ihre KI-gestützten Workflows zu schützen.
Woche 10 - Vektor-Schwachstellen: Absicherung von KI-Retrieval-Workflows
AI-Modellestützen sich häufig auf Vektordatenbanken und Einbettungen, um leistungsstarke Funktionen bereitzustellen - aber Fehlkonfigurationen und unsichere Implementierungen können sensible Daten offenlegen und neue Angriffsvektoren schaffen. In diesem Video gehen wir auf Schwachstellen bei Vektoren und Einbettungen ein, erläutern gängige Sicherheitsprobleme und zeigen Strategien zur Absicherung Ihrer KI-gestützten Such- und Abfrage-Workflows.
Woche 11 – Fehlinformationen durch KI: Risiken durch Halluzinationen vermeiden
KI-Toolskönnen manchmal Ergebnisse generieren, die korrekt aussehen, aber falsch sind – wodurch das Risiko von Fehlinformationen entsteht, die sich auf Sicherheit, Zuverlässigkeit und Entscheidungsfindung auswirken. In diesem Video erklären wir Schwachstellen durch Fehlinformationen bei der KI-gestützten Codierung, untersuchen, wie falsche Ergebnisse entstehen, und stellen Strategien zur Validierung und Sicherung KI-gesteuerter Inhalte vor.
Woche 12 „ ” – Unbegrenzter Verbrauch: Verhindern von KI-DoS-Risiken
KI-Systeme können Ressourcen unbegrenzt verbrauchen, was zu Risiken wie Denial-of-Service (DoS), Datenoffenlegung und unerwarteten Betriebsausfällen führen kann. In diesem Video behandeln wir Schwachstellen durch unbegrenzten Verbrauch in KI/LLMs, erklären, wie sie entstehen, und stellen praktische Strategien zur Überwachung, Steuerung und Sicherung der KI-Ressourcennutzung vor.
Diese Videos sollen die Kernkonzepte der KI-/LLM-Sicherheit vorstellen, aber die Secure Code Warrior hat noch viel mehr zu bieten. Tauchen Sie ein in KI-Herausforderungen, die reale KI-gestützte Codeüberprüfungen und -korrekturen simulieren, entdecken Sie unsere KI-/LLM-Richtlinien, die sich an den Best Practices der Branche orientieren, und arbeiten Sie sich durch Walkthroughs, Missions, Quests und Kursvorlagen, die Ihnen praktische Erfahrungen beim Aufbau sicherer Programmiergewohnheiten vermitteln. Für Teams, die ihre Fähigkeiten weiterentwickeln möchten, bietet die Plattform außerdem eine wachsende Bibliothek mit über 130 AI/LLM-bezogenen Lernaktivitäten, darunter Themen wie „Coding with AI“, „Intro to AI Risk & Security“ und „OWASP Top 10 for LLM Applications“. Fordern Sie eine Demo an, um mehr zu erfahren.


Ihr umfassender Leitfaden für unsere 12-wöchige KI/LLM-Sicherheitsvideoserie. Sehen Sie sich jede Folge an, lernen Sie die wichtigsten KI-Sicherheitskonzepte kennen und verfolgen Sie die Serie wöchentlich.
Shannon Holt est une spécialiste de la commercialisation de produits de cybersécurité avec une expérience dans les domaines de la sécurité des applications, des services de sécurité du cloud et des normes de conformité telles que PCI-DSS et HITRUST.

Secure Code Warrior Ihr Unternehmen dabei, den Code während des gesamten Softwareentwicklungszyklus zu sichern und eine Kultur zu schaffen, in der Cybersicherheit oberste Priorität hat. Ganz gleich, ob Sie für die Anwendungssicherheit verantwortlich sind, Entwickler, IT-Sicherheitsbeauftragter oder in einer anderen Funktion im Bereich Sicherheit tätig sind – wir können Ihrem Unternehmen dabei helfen, die mit unsicherem Code verbundenen Risiken zu reduzieren.
Demo buchenShannon Holt est une spécialiste de la commercialisation de produits de cybersécurité avec une expérience dans les domaines de la sécurité des applications, des services de sécurité du cloud et des normes de conformité telles que PCI-DSS et HITRUST.
Shannon Holt est une spécialiste de la commercialisation de produits de cybersécurité avec une expérience dans les domaines de la sécurité des applications, des services de sécurité du cloud et des normes de conformité telles que PCI-DSS et HITRUST. Elle tient à rendre le développement sécurisé et la conformité plus pratiques et plus accessibles pour les équipes techniques, en comblant le fossé entre les attentes en matière de sécurité et les réalités du développement logiciel moderne.


Ihr Leitfaden für die Einführungsreihe zur AI/LLM-Sicherheit
KI-Codierungstools wie GitHub Copilot, Cursor und andere verändern die Art und Weise, wie Software erstellt wird - aber sie bringen auch neue Sicherheitsherausforderungen mit sich, die Entwickler verstehen müssen, um sichere, zuverlässige Anwendungen zu erstellen. Um Teams bei der sicheren Einführung von KI zu unterstützen, haben wir eine kostenlose, 12-wöchige KI/LLM-Sicherheitseinführungsvideoserie auf YouTube erstellt.
Dieser Beitrag dient als zentrale Anlaufstelle für die Serie. Jede Woche aktualisieren wir ihn mit einem neuen Video und einer Beschreibung, die wichtige Konzepte wie Prompt Injection, Data und Model Poisoning, Risiken in der Lieferkette, sicheres Prompting und mehr behandeln. Setzen Sie ein Lesezeichen auf diese Seite, um wöchentlich mitzuverfolgen, oder abonnieren Sie unseren YouTube-Kanal, um jede Lektion zu erhalten, sobald sie veröffentlicht wird.
Wenn Sie über diese einführenden Lektionen hinaus tiefer eintauchen möchten, erkunden Sie die gesamte AI/LLM-Sammlung auf der SCW-Plattform oder fordern Sie eine Demo an, wenn Sie noch kein Kunde sind. Abonnieren Sie unseren YouTube-Kanal, um jede neue Folge zu sehen, sobald sie veröffentlicht wird. Und wenn Sie über die neuesten Inhalte, Updates und Ressourcen auf dem Laufenden bleiben möchten, melden Sie sich hier an, um unserer Gemeinschaft von Entwicklern und Sicherheitsverantwortlichen beizutreten.
Episoden (Wöchentlich aktualisiert)
Woche 1 - KI-Coding-Risiken: Gefahren bei der Verwendung von LLMs
In diesem Video untersuchen wir die potenziellen Gefahren bei der Verwendung von KI/LLMs beim Schreiben von Code und zeigen die wichtigsten Risiken auf, denen Entwickler bei der Integration von KI-gestützten Tools in ihre Arbeitsabläufe ausgesetzt sind.
Woche 2 - Vorteile der KI-Codierung: Sichere KI-gestützte Entwicklung
KI-Codierungstoolssind nicht nur riskant - wenn sie sicher eingesetzt werden, können sie Entwicklern helfen, schneller und intelligenter zu arbeiten. In diesem Video erkunden wir die Vorteile der Verwendung von KI/LLMs beim Schreiben von Code und zeigen auf, wie Teams KI verantwortungsvoll nutzen und gleichzeitig häufige Sicherheitsfallen vermeiden können.
Woche 3 - Prompt Injection erklärt: Schutz von KI-generiertem Code
PromptInjection ist eine der häufigsten KI/LLM-Schwachstellen - und eine, die jeder Entwickler zu verhindern wissen sollte. In diesem Video stellen wir dire
Woche 4 - Offenlegung sensibler Informationen: Vermeidung von KI-Datenlecks
KI-gestützte Tools können unbeabsichtigt sensible Informationen preisgeben und damit Ihre Anwendungen und Daten gefährden. In diesem Video befassen wir uns mit Schwachstellen bei der Offenlegung sensibler Informationen, erklären, wie sie bei der Verwendung von KI/LLMs entstehen, und teilen praktische Schritte mit, die Entwickler unternehmen können, um das Risiko zu verringern.
Woche 5 - KI-Risiken in der Lieferkette: Absicherung von Abhängigkeiten
KI-gestützteEntwicklung beschleunigt die Codierung - aber sie führt auch Supply-Chain-Risiken ein, die sich auf jede Ebene Ihrer Anwendungen auswirken können. In diesem Video gehen wir auf Schwachstellen im Zusammenhang mit KI/LLMs ein, erklären, wie Modelle und APIs von Drittanbietern Ihre Angriffsfläche erweitern können, und teilen Strategien zur Minimierung der Gefährdung.
Woche 6 - Data Poisoning: Absicherung von KI-Modellen und -Outputs
KI-Systemesind nur so sicher wie ihre Trainingsdaten - und kompromittierte Eingaben können Schwachstellen schaffen, die sich auf Ihre Anwendungen auswirken. In diesem Video stellen wir Daten- und Modellvergiftungsangriffe vor, erklären, wie bösartige Eingaben KI-Ausgaben manipulieren können, und teilen Strategien zum Schutz Ihrer Systeme.
Woche 7 - Unsachgemäße Ausgabebehandlung: Validierung von KI-generiertem Code
KI-gestützteTools können schnell Code generieren - aber wenn die Ausgaben nicht validiert werden, können sich unbemerkt Schwachstellen einschleichen. In diesem Video untersuchen wir den unsachgemäßen Umgang mit Ausgaben in der KI-gestützten Entwicklung, erklären, wie riskante Ausgaben Ihre Anwendungen gefährden können, und zeigen Techniken zum Schutz von generiertem Code.
Woche 8 - Exzessive Handlungsfähigkeit: Kontrolle von KI-Autonomierisiken
Mit zunehmenderAutonomie von KI-Systemen entstehen neue Risiken, wenn Modelle über ihren beabsichtigten Rahmen hinaus agieren. In diesem Video untersuchen wir die Schwachstellen von exzessiver Handlungsfähigkeit in der KI-gestützten Entwicklung, erklären, wie überschießendes Verhalten entsteht, und diskutieren Techniken, um die Kontrolle über KI-gesteuerte Prozesse zu behalten.
Woche 9 - System Prompt Leakage: Versteckte KI-Sicherheitsrisiken
System-Promptsenthalten oft versteckte Anweisungen, die das KI-Verhalten steuern - doch wenn diese offengelegt werden, können Angreifer Modelle manipulieren oder sensible Informationen extrahieren. In diesem Video gehen wir auf Schwachstellen bei Systemansagen ein, erklären, wie sie entstehen, und erörtern Schritte, die Entwickler unternehmen können, um ihre KI-gestützten Workflows zu schützen.
Woche 10 - Vektor-Schwachstellen: Absicherung von KI-Retrieval-Workflows
AI-Modellestützen sich häufig auf Vektordatenbanken und Einbettungen, um leistungsstarke Funktionen bereitzustellen - aber Fehlkonfigurationen und unsichere Implementierungen können sensible Daten offenlegen und neue Angriffsvektoren schaffen. In diesem Video gehen wir auf Schwachstellen bei Vektoren und Einbettungen ein, erläutern gängige Sicherheitsprobleme und zeigen Strategien zur Absicherung Ihrer KI-gestützten Such- und Abfrage-Workflows.
Woche 11 – Fehlinformationen durch KI: Risiken durch Halluzinationen vermeiden
KI-Toolskönnen manchmal Ergebnisse generieren, die korrekt aussehen, aber falsch sind – wodurch das Risiko von Fehlinformationen entsteht, die sich auf Sicherheit, Zuverlässigkeit und Entscheidungsfindung auswirken. In diesem Video erklären wir Schwachstellen durch Fehlinformationen bei der KI-gestützten Codierung, untersuchen, wie falsche Ergebnisse entstehen, und stellen Strategien zur Validierung und Sicherung KI-gesteuerter Inhalte vor.
Woche 12 „ ” – Unbegrenzter Verbrauch: Verhindern von KI-DoS-Risiken
KI-Systeme können Ressourcen unbegrenzt verbrauchen, was zu Risiken wie Denial-of-Service (DoS), Datenoffenlegung und unerwarteten Betriebsausfällen führen kann. In diesem Video behandeln wir Schwachstellen durch unbegrenzten Verbrauch in KI/LLMs, erklären, wie sie entstehen, und stellen praktische Strategien zur Überwachung, Steuerung und Sicherung der KI-Ressourcennutzung vor.
Diese Videos sollen die Kernkonzepte der KI-/LLM-Sicherheit vorstellen, aber die Secure Code Warrior hat noch viel mehr zu bieten. Tauchen Sie ein in KI-Herausforderungen, die reale KI-gestützte Codeüberprüfungen und -korrekturen simulieren, entdecken Sie unsere KI-/LLM-Richtlinien, die sich an den Best Practices der Branche orientieren, und arbeiten Sie sich durch Walkthroughs, Missions, Quests und Kursvorlagen, die Ihnen praktische Erfahrungen beim Aufbau sicherer Programmiergewohnheiten vermitteln. Für Teams, die ihre Fähigkeiten weiterentwickeln möchten, bietet die Plattform außerdem eine wachsende Bibliothek mit über 130 AI/LLM-bezogenen Lernaktivitäten, darunter Themen wie „Coding with AI“, „Intro to AI Risk & Security“ und „OWASP Top 10 for LLM Applications“. Fordern Sie eine Demo an, um mehr zu erfahren.

Ihr Leitfaden für die Einführungsreihe zur AI/LLM-Sicherheit
KI-Codierungstools wie GitHub Copilot, Cursor und andere verändern die Art und Weise, wie Software erstellt wird - aber sie bringen auch neue Sicherheitsherausforderungen mit sich, die Entwickler verstehen müssen, um sichere, zuverlässige Anwendungen zu erstellen. Um Teams bei der sicheren Einführung von KI zu unterstützen, haben wir eine kostenlose, 12-wöchige KI/LLM-Sicherheitseinführungsvideoserie auf YouTube erstellt.
Dieser Beitrag dient als zentrale Anlaufstelle für die Serie. Jede Woche aktualisieren wir ihn mit einem neuen Video und einer Beschreibung, die wichtige Konzepte wie Prompt Injection, Data und Model Poisoning, Risiken in der Lieferkette, sicheres Prompting und mehr behandeln. Setzen Sie ein Lesezeichen auf diese Seite, um wöchentlich mitzuverfolgen, oder abonnieren Sie unseren YouTube-Kanal, um jede Lektion zu erhalten, sobald sie veröffentlicht wird.
Wenn Sie über diese einführenden Lektionen hinaus tiefer eintauchen möchten, erkunden Sie die gesamte AI/LLM-Sammlung auf der SCW-Plattform oder fordern Sie eine Demo an, wenn Sie noch kein Kunde sind. Abonnieren Sie unseren YouTube-Kanal, um jede neue Folge zu sehen, sobald sie veröffentlicht wird. Und wenn Sie über die neuesten Inhalte, Updates und Ressourcen auf dem Laufenden bleiben möchten, melden Sie sich hier an, um unserer Gemeinschaft von Entwicklern und Sicherheitsverantwortlichen beizutreten.
Episoden (Wöchentlich aktualisiert)
Woche 1 - KI-Coding-Risiken: Gefahren bei der Verwendung von LLMs
In diesem Video untersuchen wir die potenziellen Gefahren bei der Verwendung von KI/LLMs beim Schreiben von Code und zeigen die wichtigsten Risiken auf, denen Entwickler bei der Integration von KI-gestützten Tools in ihre Arbeitsabläufe ausgesetzt sind.
Woche 2 - Vorteile der KI-Codierung: Sichere KI-gestützte Entwicklung
KI-Codierungstoolssind nicht nur riskant - wenn sie sicher eingesetzt werden, können sie Entwicklern helfen, schneller und intelligenter zu arbeiten. In diesem Video erkunden wir die Vorteile der Verwendung von KI/LLMs beim Schreiben von Code und zeigen auf, wie Teams KI verantwortungsvoll nutzen und gleichzeitig häufige Sicherheitsfallen vermeiden können.
Woche 3 - Prompt Injection erklärt: Schutz von KI-generiertem Code
PromptInjection ist eine der häufigsten KI/LLM-Schwachstellen - und eine, die jeder Entwickler zu verhindern wissen sollte. In diesem Video stellen wir dire
Woche 4 - Offenlegung sensibler Informationen: Vermeidung von KI-Datenlecks
KI-gestützte Tools können unbeabsichtigt sensible Informationen preisgeben und damit Ihre Anwendungen und Daten gefährden. In diesem Video befassen wir uns mit Schwachstellen bei der Offenlegung sensibler Informationen, erklären, wie sie bei der Verwendung von KI/LLMs entstehen, und teilen praktische Schritte mit, die Entwickler unternehmen können, um das Risiko zu verringern.
Woche 5 - KI-Risiken in der Lieferkette: Absicherung von Abhängigkeiten
KI-gestützteEntwicklung beschleunigt die Codierung - aber sie führt auch Supply-Chain-Risiken ein, die sich auf jede Ebene Ihrer Anwendungen auswirken können. In diesem Video gehen wir auf Schwachstellen im Zusammenhang mit KI/LLMs ein, erklären, wie Modelle und APIs von Drittanbietern Ihre Angriffsfläche erweitern können, und teilen Strategien zur Minimierung der Gefährdung.
Woche 6 - Data Poisoning: Absicherung von KI-Modellen und -Outputs
KI-Systemesind nur so sicher wie ihre Trainingsdaten - und kompromittierte Eingaben können Schwachstellen schaffen, die sich auf Ihre Anwendungen auswirken. In diesem Video stellen wir Daten- und Modellvergiftungsangriffe vor, erklären, wie bösartige Eingaben KI-Ausgaben manipulieren können, und teilen Strategien zum Schutz Ihrer Systeme.
Woche 7 - Unsachgemäße Ausgabebehandlung: Validierung von KI-generiertem Code
KI-gestützteTools können schnell Code generieren - aber wenn die Ausgaben nicht validiert werden, können sich unbemerkt Schwachstellen einschleichen. In diesem Video untersuchen wir den unsachgemäßen Umgang mit Ausgaben in der KI-gestützten Entwicklung, erklären, wie riskante Ausgaben Ihre Anwendungen gefährden können, und zeigen Techniken zum Schutz von generiertem Code.
Woche 8 - Exzessive Handlungsfähigkeit: Kontrolle von KI-Autonomierisiken
Mit zunehmenderAutonomie von KI-Systemen entstehen neue Risiken, wenn Modelle über ihren beabsichtigten Rahmen hinaus agieren. In diesem Video untersuchen wir die Schwachstellen von exzessiver Handlungsfähigkeit in der KI-gestützten Entwicklung, erklären, wie überschießendes Verhalten entsteht, und diskutieren Techniken, um die Kontrolle über KI-gesteuerte Prozesse zu behalten.
Woche 9 - System Prompt Leakage: Versteckte KI-Sicherheitsrisiken
System-Promptsenthalten oft versteckte Anweisungen, die das KI-Verhalten steuern - doch wenn diese offengelegt werden, können Angreifer Modelle manipulieren oder sensible Informationen extrahieren. In diesem Video gehen wir auf Schwachstellen bei Systemansagen ein, erklären, wie sie entstehen, und erörtern Schritte, die Entwickler unternehmen können, um ihre KI-gestützten Workflows zu schützen.
Woche 10 - Vektor-Schwachstellen: Absicherung von KI-Retrieval-Workflows
AI-Modellestützen sich häufig auf Vektordatenbanken und Einbettungen, um leistungsstarke Funktionen bereitzustellen - aber Fehlkonfigurationen und unsichere Implementierungen können sensible Daten offenlegen und neue Angriffsvektoren schaffen. In diesem Video gehen wir auf Schwachstellen bei Vektoren und Einbettungen ein, erläutern gängige Sicherheitsprobleme und zeigen Strategien zur Absicherung Ihrer KI-gestützten Such- und Abfrage-Workflows.
Woche 11 – Fehlinformationen durch KI: Risiken durch Halluzinationen vermeiden
KI-Toolskönnen manchmal Ergebnisse generieren, die korrekt aussehen, aber falsch sind – wodurch das Risiko von Fehlinformationen entsteht, die sich auf Sicherheit, Zuverlässigkeit und Entscheidungsfindung auswirken. In diesem Video erklären wir Schwachstellen durch Fehlinformationen bei der KI-gestützten Codierung, untersuchen, wie falsche Ergebnisse entstehen, und stellen Strategien zur Validierung und Sicherung KI-gesteuerter Inhalte vor.
Woche 12 „ ” – Unbegrenzter Verbrauch: Verhindern von KI-DoS-Risiken
KI-Systeme können Ressourcen unbegrenzt verbrauchen, was zu Risiken wie Denial-of-Service (DoS), Datenoffenlegung und unerwarteten Betriebsausfällen führen kann. In diesem Video behandeln wir Schwachstellen durch unbegrenzten Verbrauch in KI/LLMs, erklären, wie sie entstehen, und stellen praktische Strategien zur Überwachung, Steuerung und Sicherung der KI-Ressourcennutzung vor.
Diese Videos sollen die Kernkonzepte der KI-/LLM-Sicherheit vorstellen, aber die Secure Code Warrior hat noch viel mehr zu bieten. Tauchen Sie ein in KI-Herausforderungen, die reale KI-gestützte Codeüberprüfungen und -korrekturen simulieren, entdecken Sie unsere KI-/LLM-Richtlinien, die sich an den Best Practices der Branche orientieren, und arbeiten Sie sich durch Walkthroughs, Missions, Quests und Kursvorlagen, die Ihnen praktische Erfahrungen beim Aufbau sicherer Programmiergewohnheiten vermitteln. Für Teams, die ihre Fähigkeiten weiterentwickeln möchten, bietet die Plattform außerdem eine wachsende Bibliothek mit über 130 AI/LLM-bezogenen Lernaktivitäten, darunter Themen wie „Coding with AI“, „Intro to AI Risk & Security“ und „OWASP Top 10 for LLM Applications“. Fordern Sie eine Demo an, um mehr zu erfahren.

Klicken Sie auf den untenstehenden Link und laden Sie das PDF dieser Ressource herunter.
Secure Code Warrior Ihr Unternehmen dabei, den Code während des gesamten Softwareentwicklungszyklus zu sichern und eine Kultur zu schaffen, in der Cybersicherheit oberste Priorität hat. Ganz gleich, ob Sie für die Anwendungssicherheit verantwortlich sind, Entwickler, IT-Sicherheitsbeauftragter oder in einer anderen Funktion im Bereich Sicherheit tätig sind – wir können Ihrem Unternehmen dabei helfen, die mit unsicherem Code verbundenen Risiken zu reduzieren.
Bericht anzeigenDemo buchenShannon Holt est une spécialiste de la commercialisation de produits de cybersécurité avec une expérience dans les domaines de la sécurité des applications, des services de sécurité du cloud et des normes de conformité telles que PCI-DSS et HITRUST.
Shannon Holt est une spécialiste de la commercialisation de produits de cybersécurité avec une expérience dans les domaines de la sécurité des applications, des services de sécurité du cloud et des normes de conformité telles que PCI-DSS et HITRUST. Elle tient à rendre le développement sécurisé et la conformité plus pratiques et plus accessibles pour les équipes techniques, en comblant le fossé entre les attentes en matière de sécurité et les réalités du développement logiciel moderne.
Ihr Leitfaden für die Einführungsreihe zur AI/LLM-Sicherheit
KI-Codierungstools wie GitHub Copilot, Cursor und andere verändern die Art und Weise, wie Software erstellt wird - aber sie bringen auch neue Sicherheitsherausforderungen mit sich, die Entwickler verstehen müssen, um sichere, zuverlässige Anwendungen zu erstellen. Um Teams bei der sicheren Einführung von KI zu unterstützen, haben wir eine kostenlose, 12-wöchige KI/LLM-Sicherheitseinführungsvideoserie auf YouTube erstellt.
Dieser Beitrag dient als zentrale Anlaufstelle für die Serie. Jede Woche aktualisieren wir ihn mit einem neuen Video und einer Beschreibung, die wichtige Konzepte wie Prompt Injection, Data und Model Poisoning, Risiken in der Lieferkette, sicheres Prompting und mehr behandeln. Setzen Sie ein Lesezeichen auf diese Seite, um wöchentlich mitzuverfolgen, oder abonnieren Sie unseren YouTube-Kanal, um jede Lektion zu erhalten, sobald sie veröffentlicht wird.
Wenn Sie über diese einführenden Lektionen hinaus tiefer eintauchen möchten, erkunden Sie die gesamte AI/LLM-Sammlung auf der SCW-Plattform oder fordern Sie eine Demo an, wenn Sie noch kein Kunde sind. Abonnieren Sie unseren YouTube-Kanal, um jede neue Folge zu sehen, sobald sie veröffentlicht wird. Und wenn Sie über die neuesten Inhalte, Updates und Ressourcen auf dem Laufenden bleiben möchten, melden Sie sich hier an, um unserer Gemeinschaft von Entwicklern und Sicherheitsverantwortlichen beizutreten.
Episoden (Wöchentlich aktualisiert)
Woche 1 - KI-Coding-Risiken: Gefahren bei der Verwendung von LLMs
In diesem Video untersuchen wir die potenziellen Gefahren bei der Verwendung von KI/LLMs beim Schreiben von Code und zeigen die wichtigsten Risiken auf, denen Entwickler bei der Integration von KI-gestützten Tools in ihre Arbeitsabläufe ausgesetzt sind.
Woche 2 - Vorteile der KI-Codierung: Sichere KI-gestützte Entwicklung
KI-Codierungstoolssind nicht nur riskant - wenn sie sicher eingesetzt werden, können sie Entwicklern helfen, schneller und intelligenter zu arbeiten. In diesem Video erkunden wir die Vorteile der Verwendung von KI/LLMs beim Schreiben von Code und zeigen auf, wie Teams KI verantwortungsvoll nutzen und gleichzeitig häufige Sicherheitsfallen vermeiden können.
Woche 3 - Prompt Injection erklärt: Schutz von KI-generiertem Code
PromptInjection ist eine der häufigsten KI/LLM-Schwachstellen - und eine, die jeder Entwickler zu verhindern wissen sollte. In diesem Video stellen wir dire
Woche 4 - Offenlegung sensibler Informationen: Vermeidung von KI-Datenlecks
KI-gestützte Tools können unbeabsichtigt sensible Informationen preisgeben und damit Ihre Anwendungen und Daten gefährden. In diesem Video befassen wir uns mit Schwachstellen bei der Offenlegung sensibler Informationen, erklären, wie sie bei der Verwendung von KI/LLMs entstehen, und teilen praktische Schritte mit, die Entwickler unternehmen können, um das Risiko zu verringern.
Woche 5 - KI-Risiken in der Lieferkette: Absicherung von Abhängigkeiten
KI-gestützteEntwicklung beschleunigt die Codierung - aber sie führt auch Supply-Chain-Risiken ein, die sich auf jede Ebene Ihrer Anwendungen auswirken können. In diesem Video gehen wir auf Schwachstellen im Zusammenhang mit KI/LLMs ein, erklären, wie Modelle und APIs von Drittanbietern Ihre Angriffsfläche erweitern können, und teilen Strategien zur Minimierung der Gefährdung.
Woche 6 - Data Poisoning: Absicherung von KI-Modellen und -Outputs
KI-Systemesind nur so sicher wie ihre Trainingsdaten - und kompromittierte Eingaben können Schwachstellen schaffen, die sich auf Ihre Anwendungen auswirken. In diesem Video stellen wir Daten- und Modellvergiftungsangriffe vor, erklären, wie bösartige Eingaben KI-Ausgaben manipulieren können, und teilen Strategien zum Schutz Ihrer Systeme.
Woche 7 - Unsachgemäße Ausgabebehandlung: Validierung von KI-generiertem Code
KI-gestützteTools können schnell Code generieren - aber wenn die Ausgaben nicht validiert werden, können sich unbemerkt Schwachstellen einschleichen. In diesem Video untersuchen wir den unsachgemäßen Umgang mit Ausgaben in der KI-gestützten Entwicklung, erklären, wie riskante Ausgaben Ihre Anwendungen gefährden können, und zeigen Techniken zum Schutz von generiertem Code.
Woche 8 - Exzessive Handlungsfähigkeit: Kontrolle von KI-Autonomierisiken
Mit zunehmenderAutonomie von KI-Systemen entstehen neue Risiken, wenn Modelle über ihren beabsichtigten Rahmen hinaus agieren. In diesem Video untersuchen wir die Schwachstellen von exzessiver Handlungsfähigkeit in der KI-gestützten Entwicklung, erklären, wie überschießendes Verhalten entsteht, und diskutieren Techniken, um die Kontrolle über KI-gesteuerte Prozesse zu behalten.
Woche 9 - System Prompt Leakage: Versteckte KI-Sicherheitsrisiken
System-Promptsenthalten oft versteckte Anweisungen, die das KI-Verhalten steuern - doch wenn diese offengelegt werden, können Angreifer Modelle manipulieren oder sensible Informationen extrahieren. In diesem Video gehen wir auf Schwachstellen bei Systemansagen ein, erklären, wie sie entstehen, und erörtern Schritte, die Entwickler unternehmen können, um ihre KI-gestützten Workflows zu schützen.
Woche 10 - Vektor-Schwachstellen: Absicherung von KI-Retrieval-Workflows
AI-Modellestützen sich häufig auf Vektordatenbanken und Einbettungen, um leistungsstarke Funktionen bereitzustellen - aber Fehlkonfigurationen und unsichere Implementierungen können sensible Daten offenlegen und neue Angriffsvektoren schaffen. In diesem Video gehen wir auf Schwachstellen bei Vektoren und Einbettungen ein, erläutern gängige Sicherheitsprobleme und zeigen Strategien zur Absicherung Ihrer KI-gestützten Such- und Abfrage-Workflows.
Woche 11 – Fehlinformationen durch KI: Risiken durch Halluzinationen vermeiden
KI-Toolskönnen manchmal Ergebnisse generieren, die korrekt aussehen, aber falsch sind – wodurch das Risiko von Fehlinformationen entsteht, die sich auf Sicherheit, Zuverlässigkeit und Entscheidungsfindung auswirken. In diesem Video erklären wir Schwachstellen durch Fehlinformationen bei der KI-gestützten Codierung, untersuchen, wie falsche Ergebnisse entstehen, und stellen Strategien zur Validierung und Sicherung KI-gesteuerter Inhalte vor.
Woche 12 „ ” – Unbegrenzter Verbrauch: Verhindern von KI-DoS-Risiken
KI-Systeme können Ressourcen unbegrenzt verbrauchen, was zu Risiken wie Denial-of-Service (DoS), Datenoffenlegung und unerwarteten Betriebsausfällen führen kann. In diesem Video behandeln wir Schwachstellen durch unbegrenzten Verbrauch in KI/LLMs, erklären, wie sie entstehen, und stellen praktische Strategien zur Überwachung, Steuerung und Sicherung der KI-Ressourcennutzung vor.
Diese Videos sollen die Kernkonzepte der KI-/LLM-Sicherheit vorstellen, aber die Secure Code Warrior hat noch viel mehr zu bieten. Tauchen Sie ein in KI-Herausforderungen, die reale KI-gestützte Codeüberprüfungen und -korrekturen simulieren, entdecken Sie unsere KI-/LLM-Richtlinien, die sich an den Best Practices der Branche orientieren, und arbeiten Sie sich durch Walkthroughs, Missions, Quests und Kursvorlagen, die Ihnen praktische Erfahrungen beim Aufbau sicherer Programmiergewohnheiten vermitteln. Für Teams, die ihre Fähigkeiten weiterentwickeln möchten, bietet die Plattform außerdem eine wachsende Bibliothek mit über 130 AI/LLM-bezogenen Lernaktivitäten, darunter Themen wie „Coding with AI“, „Intro to AI Risk & Security“ und „OWASP Top 10 for LLM Applications“. Fordern Sie eine Demo an, um mehr zu erfahren.
Inhaltsverzeichnis
Shannon Holt est une spécialiste de la commercialisation de produits de cybersécurité avec une expérience dans les domaines de la sécurité des applications, des services de sécurité du cloud et des normes de conformité telles que PCI-DSS et HITRUST.

Secure Code Warrior Ihr Unternehmen dabei, den Code während des gesamten Softwareentwicklungszyklus zu sichern und eine Kultur zu schaffen, in der Cybersicherheit oberste Priorität hat. Ganz gleich, ob Sie für die Anwendungssicherheit verantwortlich sind, Entwickler, IT-Sicherheitsbeauftragter oder in einer anderen Funktion im Bereich Sicherheit tätig sind – wir können Ihrem Unternehmen dabei helfen, die mit unsicherem Code verbundenen Risiken zu reduzieren.
Demo buchenHerunterladenRessourcen, die Ihnen den Einstieg erleichtern
Themen und Inhalte der Schulung zum sicheren Code
Unsere hochmodernen Inhalte werden ständig weiterentwickelt, um mit den ständigen Veränderungen in der Softwareentwicklungslandschaft Schritt zu halten und gleichzeitig Ihre Rolle zu berücksichtigen. Die Themen reichen von KI bis hin zu XQuery-Injection und sind für eine Vielzahl von Positionen konzipiert, von Architekten über Ingenieure bis hin zu Produktmanagern und Qualitätssicherungsmitarbeitern. Verschaffen Sie sich einen Überblick über die Inhalte unseres Katalogs, sortiert nach Themen und Rollen.
Die Kamer van Koophandel setzt Maßstäbe für entwicklergesteuerte Sicherheit in großem Maßstab
Die Kamer van Koophandel berichtet, wie sie sicheres Codieren durch rollenbasierte Zertifizierungen, Trust Score-Benchmarking und eine Kultur der gemeinsamen Verantwortung für Sicherheit in die tägliche Entwicklungsarbeit integriert hat.
Bedrohungsmodellierung mit KI: So wird jeder Entwickler zum Bedrohungsmodellierer
Sie werden besser gerüstet sein, um Entwicklern dabei zu helfen, Ideen und Techniken zur Bedrohungsmodellierung mit den KI-Tools zu kombinieren, die sie bereits verwenden, um die Sicherheit zu erhöhen, die Zusammenarbeit zu verbessern und von Anfang an widerstandsfähigere Software zu entwickeln.
Ressourcen, die Ihnen den Einstieg erleichtern
Cybermon ist zurück: Die missions „Beat the Boss“ sind jetzt auf Abruf verfügbar.
Cybermon 2025 Beat the Boss ist jetzt das ganze Jahr über in SCW verfügbar. Setzen Sie fortschrittliche Sicherheitsherausforderungen im Zusammenhang mit KI und LLM ein, um die sichere Entwicklung von KI in großem Maßstab zu stärken.
Erläuterung des Gesetzes zur Cyberresilienz: Was bedeutet das für die Entwicklung sicherer Software bereits ab der Konzeption?
Entdecken Sie, was das europäische Gesetz zur Cyberresilienz (CRA) verlangt, für wen es gilt und wie sich Ingenieurteams durch Sicherheitsmaßnahmen bereits in der Entwurfsphase, durch die Vermeidung von Schwachstellen und durch die Stärkung der Fähigkeiten der Entwickler darauf vorbereiten können.
Moderator 1: Definierte und messbare Erfolgskriterien
Enabler 1 gibt den Startschuss für unsere 10-teilige Serie mit dem Titel „Enablers of Success“ und zeigt, wie sichere Codierung mit geschäftlichen Ergebnissen wie Risikominderung und Schnelligkeit kombiniert werden kann, um die langfristige Reife von Programmen sicherzustellen.
















%20(1).avif)
.avif)
