AI/LLM-Sicherheitsvideoserie: Alle Episoden, wöchentlich aktualisiert
Ihr Leitfaden für die Einführungsreihe zur AI/LLM-Sicherheit
KI-Codierungstools wie GitHub Copilot, Cursor und andere verändern die Art und Weise, wie Software erstellt wird - aber sie bringen auch neue Sicherheitsherausforderungen mit sich, die Entwickler verstehen müssen, um sichere, zuverlässige Anwendungen zu erstellen. Um Teams bei der sicheren Einführung von KI zu unterstützen, haben wir eine kostenlose, 12-wöchige KI/LLM-Sicherheitseinführungsvideoserie auf YouTube erstellt.
Dieser Beitrag dient als zentrale Anlaufstelle für die Serie. Jede Woche aktualisieren wir ihn mit einem neuen Video und einer Beschreibung, die wichtige Konzepte wie Prompt Injection, Data und Model Poisoning, Risiken in der Lieferkette, sicheres Prompting und mehr behandeln. Setzen Sie ein Lesezeichen auf diese Seite, um wöchentlich mitzuverfolgen, oder abonnieren Sie unseren YouTube-Kanal, um jede Lektion zu erhalten, sobald sie veröffentlicht wird.
Wenn Sie über diese einführenden Lektionen hinaus tiefer eintauchen möchten, erkunden Sie die gesamte AI/LLM-Sammlung auf der SCW-Plattform oder fordern Sie eine Demo an, wenn Sie noch kein Kunde sind. Abonnieren Sie unseren YouTube-Kanal, um jede neue Folge zu sehen, sobald sie veröffentlicht wird. Und wenn Sie über die neuesten Inhalte, Updates und Ressourcen auf dem Laufenden bleiben möchten, melden Sie sich hier an, um unserer Gemeinschaft von Entwicklern und Sicherheitsverantwortlichen beizutreten.
Episoden (Wöchentlich aktualisiert)
Woche 1 - KI-Coding-Risiken: Gefahren bei der Verwendung von LLMs
In diesem Video untersuchen wir die potenziellen Gefahren bei der Verwendung von KI/LLMs beim Schreiben von Code und zeigen die wichtigsten Risiken auf, denen Entwickler bei der Integration von KI-gestützten Tools in ihre Arbeitsabläufe ausgesetzt sind.
Woche 2 - Vorteile der KI-Codierung: Sichere KI-gestützte Entwicklung
KI-Codierungstoolssind nicht nur riskant - wenn sie sicher eingesetzt werden, können sie Entwicklern helfen, schneller und intelligenter zu arbeiten. In diesem Video erkunden wir die Vorteile der Verwendung von KI/LLMs beim Schreiben von Code und zeigen auf, wie Teams KI verantwortungsvoll nutzen und gleichzeitig häufige Sicherheitsfallen vermeiden können.
Woche 3 - Prompt Injection erklärt: Schutz von KI-generiertem Code
PromptInjection ist eine der häufigsten KI/LLM-Schwachstellen - und eine, die jeder Entwickler zu verhindern wissen sollte. In diesem Video stellen wir dire
Woche 4 - Offenlegung sensibler Informationen: Vermeidung von KI-Datenlecks
KI-gestützte Tools können unbeabsichtigt sensible Informationen preisgeben und damit Ihre Anwendungen und Daten gefährden. In diesem Video befassen wir uns mit Schwachstellen bei der Offenlegung sensibler Informationen, erklären, wie sie bei der Verwendung von KI/LLMs entstehen, und teilen praktische Schritte mit, die Entwickler unternehmen können, um das Risiko zu verringern.
Woche 5 - KI-Risiken in der Lieferkette: Absicherung von Abhängigkeiten
KI-gestützteEntwicklung beschleunigt die Codierung - aber sie führt auch Supply-Chain-Risiken ein, die sich auf jede Ebene Ihrer Anwendungen auswirken können. In diesem Video gehen wir auf Schwachstellen im Zusammenhang mit KI/LLMs ein, erklären, wie Modelle und APIs von Drittanbietern Ihre Angriffsfläche erweitern können, und teilen Strategien zur Minimierung der Gefährdung.
Woche 6 - Data Poisoning: Absicherung von KI-Modellen und -Outputs
KI-Systemesind nur so sicher wie ihre Trainingsdaten - und kompromittierte Eingaben können Schwachstellen schaffen, die sich auf Ihre Anwendungen auswirken. In diesem Video stellen wir Daten- und Modellvergiftungsangriffe vor, erklären, wie bösartige Eingaben KI-Ausgaben manipulieren können, und teilen Strategien zum Schutz Ihrer Systeme.
Woche 7 - Unsachgemäße Ausgabebehandlung: Validierung von KI-generiertem Code
KI-gestützteTools können schnell Code generieren - aber wenn die Ausgaben nicht validiert werden, können sich unbemerkt Schwachstellen einschleichen. In diesem Video untersuchen wir den unsachgemäßen Umgang mit Ausgaben in der KI-gestützten Entwicklung, erklären, wie riskante Ausgaben Ihre Anwendungen gefährden können, und zeigen Techniken zum Schutz von generiertem Code.
Woche 8 - Exzessive Handlungsfähigkeit: Kontrolle von KI-Autonomierisiken
Mit zunehmenderAutonomie von KI-Systemen entstehen neue Risiken, wenn Modelle über ihren beabsichtigten Rahmen hinaus agieren. In diesem Video untersuchen wir die Schwachstellen von exzessiver Handlungsfähigkeit in der KI-gestützten Entwicklung, erklären, wie überschießendes Verhalten entsteht, und diskutieren Techniken, um die Kontrolle über KI-gesteuerte Prozesse zu behalten.
Woche 9 - System Prompt Leakage: Versteckte KI-Sicherheitsrisiken
System-Promptsenthalten oft versteckte Anweisungen, die das KI-Verhalten steuern - doch wenn diese offengelegt werden, können Angreifer Modelle manipulieren oder sensible Informationen extrahieren. In diesem Video gehen wir auf Schwachstellen bei Systemansagen ein, erklären, wie sie entstehen, und erörtern Schritte, die Entwickler unternehmen können, um ihre KI-gestützten Workflows zu schützen.
Woche 10 - Vektor-Schwachstellen: Absicherung von KI-Retrieval-Workflows
AI-Modellestützen sich häufig auf Vektordatenbanken und Einbettungen, um leistungsstarke Funktionen bereitzustellen - aber Fehlkonfigurationen und unsichere Implementierungen können sensible Daten offenlegen und neue Angriffsvektoren schaffen. In diesem Video gehen wir auf Schwachstellen bei Vektoren und Einbettungen ein, erläutern gängige Sicherheitsprobleme und zeigen Strategien zur Absicherung Ihrer KI-gestützten Such- und Abfrage-Workflows.
Diese Videos wurden entwickelt, um die Kernkonzepte der KI/LLM-Sicherheit vorzustellen, aber es gibt noch viel mehr auf der Secure Code Warrior zu entdecken. Tauchen Sie ein in KI-Herausforderungen, die eine reale KI-gestützte Codeüberprüfung und -behebung simulieren, erkunden Sie unsere KI/LLM-Richtlinien, die sich an den Best Practices der Branche orientieren, und arbeiten Sie sich durch Walkthroughs, Missions, Quests und Kursvorlagen, die praktische Erfahrungen beim Aufbau sicherer Programmiergewohnheiten bieten. Für Teams, die ihre Fähigkeiten erweitern möchten, bietet die Plattform außerdem eine wachsende Bibliothek mit über 130 KI/LLM-bezogenen Lernaktivitäten, darunter Themen wie Coding with AI, Intro to AI Risk & Security und die OWASP Top 10 for LLM Applications. Fordern Sie eine Demo an, um mehr zu erfahren.


Ihr umfassender Leitfaden für unsere 12-wöchige KI/LLM-Sicherheitsvideoserie. Sehen Sie sich jede Folge an, lernen Sie die wichtigsten KI-Sicherheitskonzepte kennen und verfolgen Sie die Serie wöchentlich.
Shannon Holt ist eine Vermarkterin von Cybersicherheitsprodukten mit Hintergrund in Anwendungssicherheit, Cloud-Sicherheitsdiensten und Compliance-Standards wie PCI-DSS und HITRUST.

Secure Code Warrior ist für Ihr Unternehmen da, um Sie dabei zu unterstützen, Ihren Code über den gesamten Lebenszyklus der Softwareentwicklung hinweg zu sichern und eine Kultur zu schaffen, in der Cybersicherheit an erster Stelle steht. Ganz gleich, ob Sie AppSec-Manager, Entwickler, CISO oder ein anderer Sicherheitsverantwortlicher sind, wir können Ihrem Unternehmen helfen, die mit unsicherem Code verbundenen Risiken zu reduzieren.
Demo buchenShannon Holt ist eine Vermarkterin von Cybersicherheitsprodukten mit Hintergrund in Anwendungssicherheit, Cloud-Sicherheitsdiensten und Compliance-Standards wie PCI-DSS und HITRUST.
Shannon Holt ist Produktvermarkterin für Cybersicherheit mit Erfahrung in Anwendungssicherheit, Cloud-Sicherheitsdiensten und Compliance-Standards wie PCI-DSS und HITRUST. Ihr großes Ziel ist es, sichere Entwicklung und Compliance für technische Teams praktikabler und zugänglicher zu gestalten und die Lücke zwischen Sicherheitserwartungen und der Realität moderner Softwareentwicklung zu schließen.


Ihr Leitfaden für die Einführungsreihe zur AI/LLM-Sicherheit
KI-Codierungstools wie GitHub Copilot, Cursor und andere verändern die Art und Weise, wie Software erstellt wird - aber sie bringen auch neue Sicherheitsherausforderungen mit sich, die Entwickler verstehen müssen, um sichere, zuverlässige Anwendungen zu erstellen. Um Teams bei der sicheren Einführung von KI zu unterstützen, haben wir eine kostenlose, 12-wöchige KI/LLM-Sicherheitseinführungsvideoserie auf YouTube erstellt.
Dieser Beitrag dient als zentrale Anlaufstelle für die Serie. Jede Woche aktualisieren wir ihn mit einem neuen Video und einer Beschreibung, die wichtige Konzepte wie Prompt Injection, Data und Model Poisoning, Risiken in der Lieferkette, sicheres Prompting und mehr behandeln. Setzen Sie ein Lesezeichen auf diese Seite, um wöchentlich mitzuverfolgen, oder abonnieren Sie unseren YouTube-Kanal, um jede Lektion zu erhalten, sobald sie veröffentlicht wird.
Wenn Sie über diese einführenden Lektionen hinaus tiefer eintauchen möchten, erkunden Sie die gesamte AI/LLM-Sammlung auf der SCW-Plattform oder fordern Sie eine Demo an, wenn Sie noch kein Kunde sind. Abonnieren Sie unseren YouTube-Kanal, um jede neue Folge zu sehen, sobald sie veröffentlicht wird. Und wenn Sie über die neuesten Inhalte, Updates und Ressourcen auf dem Laufenden bleiben möchten, melden Sie sich hier an, um unserer Gemeinschaft von Entwicklern und Sicherheitsverantwortlichen beizutreten.
Episoden (Wöchentlich aktualisiert)
Woche 1 - KI-Coding-Risiken: Gefahren bei der Verwendung von LLMs
In diesem Video untersuchen wir die potenziellen Gefahren bei der Verwendung von KI/LLMs beim Schreiben von Code und zeigen die wichtigsten Risiken auf, denen Entwickler bei der Integration von KI-gestützten Tools in ihre Arbeitsabläufe ausgesetzt sind.
Woche 2 - Vorteile der KI-Codierung: Sichere KI-gestützte Entwicklung
KI-Codierungstoolssind nicht nur riskant - wenn sie sicher eingesetzt werden, können sie Entwicklern helfen, schneller und intelligenter zu arbeiten. In diesem Video erkunden wir die Vorteile der Verwendung von KI/LLMs beim Schreiben von Code und zeigen auf, wie Teams KI verantwortungsvoll nutzen und gleichzeitig häufige Sicherheitsfallen vermeiden können.
Woche 3 - Prompt Injection erklärt: Schutz von KI-generiertem Code
PromptInjection ist eine der häufigsten KI/LLM-Schwachstellen - und eine, die jeder Entwickler zu verhindern wissen sollte. In diesem Video stellen wir dire
Woche 4 - Offenlegung sensibler Informationen: Vermeidung von KI-Datenlecks
KI-gestützte Tools können unbeabsichtigt sensible Informationen preisgeben und damit Ihre Anwendungen und Daten gefährden. In diesem Video befassen wir uns mit Schwachstellen bei der Offenlegung sensibler Informationen, erklären, wie sie bei der Verwendung von KI/LLMs entstehen, und teilen praktische Schritte mit, die Entwickler unternehmen können, um das Risiko zu verringern.
Woche 5 - KI-Risiken in der Lieferkette: Absicherung von Abhängigkeiten
KI-gestützteEntwicklung beschleunigt die Codierung - aber sie führt auch Supply-Chain-Risiken ein, die sich auf jede Ebene Ihrer Anwendungen auswirken können. In diesem Video gehen wir auf Schwachstellen im Zusammenhang mit KI/LLMs ein, erklären, wie Modelle und APIs von Drittanbietern Ihre Angriffsfläche erweitern können, und teilen Strategien zur Minimierung der Gefährdung.
Woche 6 - Data Poisoning: Absicherung von KI-Modellen und -Outputs
KI-Systemesind nur so sicher wie ihre Trainingsdaten - und kompromittierte Eingaben können Schwachstellen schaffen, die sich auf Ihre Anwendungen auswirken. In diesem Video stellen wir Daten- und Modellvergiftungsangriffe vor, erklären, wie bösartige Eingaben KI-Ausgaben manipulieren können, und teilen Strategien zum Schutz Ihrer Systeme.
Woche 7 - Unsachgemäße Ausgabebehandlung: Validierung von KI-generiertem Code
KI-gestützteTools können schnell Code generieren - aber wenn die Ausgaben nicht validiert werden, können sich unbemerkt Schwachstellen einschleichen. In diesem Video untersuchen wir den unsachgemäßen Umgang mit Ausgaben in der KI-gestützten Entwicklung, erklären, wie riskante Ausgaben Ihre Anwendungen gefährden können, und zeigen Techniken zum Schutz von generiertem Code.
Woche 8 - Exzessive Handlungsfähigkeit: Kontrolle von KI-Autonomierisiken
Mit zunehmenderAutonomie von KI-Systemen entstehen neue Risiken, wenn Modelle über ihren beabsichtigten Rahmen hinaus agieren. In diesem Video untersuchen wir die Schwachstellen von exzessiver Handlungsfähigkeit in der KI-gestützten Entwicklung, erklären, wie überschießendes Verhalten entsteht, und diskutieren Techniken, um die Kontrolle über KI-gesteuerte Prozesse zu behalten.
Woche 9 - System Prompt Leakage: Versteckte KI-Sicherheitsrisiken
System-Promptsenthalten oft versteckte Anweisungen, die das KI-Verhalten steuern - doch wenn diese offengelegt werden, können Angreifer Modelle manipulieren oder sensible Informationen extrahieren. In diesem Video gehen wir auf Schwachstellen bei Systemansagen ein, erklären, wie sie entstehen, und erörtern Schritte, die Entwickler unternehmen können, um ihre KI-gestützten Workflows zu schützen.
Woche 10 - Vektor-Schwachstellen: Absicherung von KI-Retrieval-Workflows
AI-Modellestützen sich häufig auf Vektordatenbanken und Einbettungen, um leistungsstarke Funktionen bereitzustellen - aber Fehlkonfigurationen und unsichere Implementierungen können sensible Daten offenlegen und neue Angriffsvektoren schaffen. In diesem Video gehen wir auf Schwachstellen bei Vektoren und Einbettungen ein, erläutern gängige Sicherheitsprobleme und zeigen Strategien zur Absicherung Ihrer KI-gestützten Such- und Abfrage-Workflows.
Diese Videos wurden entwickelt, um die Kernkonzepte der KI/LLM-Sicherheit vorzustellen, aber es gibt noch viel mehr auf der Secure Code Warrior zu entdecken. Tauchen Sie ein in KI-Herausforderungen, die eine reale KI-gestützte Codeüberprüfung und -behebung simulieren, erkunden Sie unsere KI/LLM-Richtlinien, die sich an den Best Practices der Branche orientieren, und arbeiten Sie sich durch Walkthroughs, Missions, Quests und Kursvorlagen, die praktische Erfahrungen beim Aufbau sicherer Programmiergewohnheiten bieten. Für Teams, die ihre Fähigkeiten erweitern möchten, bietet die Plattform außerdem eine wachsende Bibliothek mit über 130 KI/LLM-bezogenen Lernaktivitäten, darunter Themen wie Coding with AI, Intro to AI Risk & Security und die OWASP Top 10 for LLM Applications. Fordern Sie eine Demo an, um mehr zu erfahren.

Ihr Leitfaden für die Einführungsreihe zur AI/LLM-Sicherheit
KI-Codierungstools wie GitHub Copilot, Cursor und andere verändern die Art und Weise, wie Software erstellt wird - aber sie bringen auch neue Sicherheitsherausforderungen mit sich, die Entwickler verstehen müssen, um sichere, zuverlässige Anwendungen zu erstellen. Um Teams bei der sicheren Einführung von KI zu unterstützen, haben wir eine kostenlose, 12-wöchige KI/LLM-Sicherheitseinführungsvideoserie auf YouTube erstellt.
Dieser Beitrag dient als zentrale Anlaufstelle für die Serie. Jede Woche aktualisieren wir ihn mit einem neuen Video und einer Beschreibung, die wichtige Konzepte wie Prompt Injection, Data und Model Poisoning, Risiken in der Lieferkette, sicheres Prompting und mehr behandeln. Setzen Sie ein Lesezeichen auf diese Seite, um wöchentlich mitzuverfolgen, oder abonnieren Sie unseren YouTube-Kanal, um jede Lektion zu erhalten, sobald sie veröffentlicht wird.
Wenn Sie über diese einführenden Lektionen hinaus tiefer eintauchen möchten, erkunden Sie die gesamte AI/LLM-Sammlung auf der SCW-Plattform oder fordern Sie eine Demo an, wenn Sie noch kein Kunde sind. Abonnieren Sie unseren YouTube-Kanal, um jede neue Folge zu sehen, sobald sie veröffentlicht wird. Und wenn Sie über die neuesten Inhalte, Updates und Ressourcen auf dem Laufenden bleiben möchten, melden Sie sich hier an, um unserer Gemeinschaft von Entwicklern und Sicherheitsverantwortlichen beizutreten.
Episoden (Wöchentlich aktualisiert)
Woche 1 - KI-Coding-Risiken: Gefahren bei der Verwendung von LLMs
In diesem Video untersuchen wir die potenziellen Gefahren bei der Verwendung von KI/LLMs beim Schreiben von Code und zeigen die wichtigsten Risiken auf, denen Entwickler bei der Integration von KI-gestützten Tools in ihre Arbeitsabläufe ausgesetzt sind.
Woche 2 - Vorteile der KI-Codierung: Sichere KI-gestützte Entwicklung
KI-Codierungstoolssind nicht nur riskant - wenn sie sicher eingesetzt werden, können sie Entwicklern helfen, schneller und intelligenter zu arbeiten. In diesem Video erkunden wir die Vorteile der Verwendung von KI/LLMs beim Schreiben von Code und zeigen auf, wie Teams KI verantwortungsvoll nutzen und gleichzeitig häufige Sicherheitsfallen vermeiden können.
Woche 3 - Prompt Injection erklärt: Schutz von KI-generiertem Code
PromptInjection ist eine der häufigsten KI/LLM-Schwachstellen - und eine, die jeder Entwickler zu verhindern wissen sollte. In diesem Video stellen wir dire
Woche 4 - Offenlegung sensibler Informationen: Vermeidung von KI-Datenlecks
KI-gestützte Tools können unbeabsichtigt sensible Informationen preisgeben und damit Ihre Anwendungen und Daten gefährden. In diesem Video befassen wir uns mit Schwachstellen bei der Offenlegung sensibler Informationen, erklären, wie sie bei der Verwendung von KI/LLMs entstehen, und teilen praktische Schritte mit, die Entwickler unternehmen können, um das Risiko zu verringern.
Woche 5 - KI-Risiken in der Lieferkette: Absicherung von Abhängigkeiten
KI-gestützteEntwicklung beschleunigt die Codierung - aber sie führt auch Supply-Chain-Risiken ein, die sich auf jede Ebene Ihrer Anwendungen auswirken können. In diesem Video gehen wir auf Schwachstellen im Zusammenhang mit KI/LLMs ein, erklären, wie Modelle und APIs von Drittanbietern Ihre Angriffsfläche erweitern können, und teilen Strategien zur Minimierung der Gefährdung.
Woche 6 - Data Poisoning: Absicherung von KI-Modellen und -Outputs
KI-Systemesind nur so sicher wie ihre Trainingsdaten - und kompromittierte Eingaben können Schwachstellen schaffen, die sich auf Ihre Anwendungen auswirken. In diesem Video stellen wir Daten- und Modellvergiftungsangriffe vor, erklären, wie bösartige Eingaben KI-Ausgaben manipulieren können, und teilen Strategien zum Schutz Ihrer Systeme.
Woche 7 - Unsachgemäße Ausgabebehandlung: Validierung von KI-generiertem Code
KI-gestützteTools können schnell Code generieren - aber wenn die Ausgaben nicht validiert werden, können sich unbemerkt Schwachstellen einschleichen. In diesem Video untersuchen wir den unsachgemäßen Umgang mit Ausgaben in der KI-gestützten Entwicklung, erklären, wie riskante Ausgaben Ihre Anwendungen gefährden können, und zeigen Techniken zum Schutz von generiertem Code.
Woche 8 - Exzessive Handlungsfähigkeit: Kontrolle von KI-Autonomierisiken
Mit zunehmenderAutonomie von KI-Systemen entstehen neue Risiken, wenn Modelle über ihren beabsichtigten Rahmen hinaus agieren. In diesem Video untersuchen wir die Schwachstellen von exzessiver Handlungsfähigkeit in der KI-gestützten Entwicklung, erklären, wie überschießendes Verhalten entsteht, und diskutieren Techniken, um die Kontrolle über KI-gesteuerte Prozesse zu behalten.
Woche 9 - System Prompt Leakage: Versteckte KI-Sicherheitsrisiken
System-Promptsenthalten oft versteckte Anweisungen, die das KI-Verhalten steuern - doch wenn diese offengelegt werden, können Angreifer Modelle manipulieren oder sensible Informationen extrahieren. In diesem Video gehen wir auf Schwachstellen bei Systemansagen ein, erklären, wie sie entstehen, und erörtern Schritte, die Entwickler unternehmen können, um ihre KI-gestützten Workflows zu schützen.
Woche 10 - Vektor-Schwachstellen: Absicherung von KI-Retrieval-Workflows
AI-Modellestützen sich häufig auf Vektordatenbanken und Einbettungen, um leistungsstarke Funktionen bereitzustellen - aber Fehlkonfigurationen und unsichere Implementierungen können sensible Daten offenlegen und neue Angriffsvektoren schaffen. In diesem Video gehen wir auf Schwachstellen bei Vektoren und Einbettungen ein, erläutern gängige Sicherheitsprobleme und zeigen Strategien zur Absicherung Ihrer KI-gestützten Such- und Abfrage-Workflows.
Diese Videos wurden entwickelt, um die Kernkonzepte der KI/LLM-Sicherheit vorzustellen, aber es gibt noch viel mehr auf der Secure Code Warrior zu entdecken. Tauchen Sie ein in KI-Herausforderungen, die eine reale KI-gestützte Codeüberprüfung und -behebung simulieren, erkunden Sie unsere KI/LLM-Richtlinien, die sich an den Best Practices der Branche orientieren, und arbeiten Sie sich durch Walkthroughs, Missions, Quests und Kursvorlagen, die praktische Erfahrungen beim Aufbau sicherer Programmiergewohnheiten bieten. Für Teams, die ihre Fähigkeiten erweitern möchten, bietet die Plattform außerdem eine wachsende Bibliothek mit über 130 KI/LLM-bezogenen Lernaktivitäten, darunter Themen wie Coding with AI, Intro to AI Risk & Security und die OWASP Top 10 for LLM Applications. Fordern Sie eine Demo an, um mehr zu erfahren.

Klicken Sie auf den unten stehenden Link und laden Sie die PDF-Datei dieser Ressource herunter.
Secure Code Warrior ist für Ihr Unternehmen da, um Sie dabei zu unterstützen, Ihren Code über den gesamten Lebenszyklus der Softwareentwicklung hinweg zu sichern und eine Kultur zu schaffen, in der Cybersicherheit an erster Stelle steht. Ganz gleich, ob Sie AppSec-Manager, Entwickler, CISO oder ein anderer Sicherheitsverantwortlicher sind, wir können Ihrem Unternehmen helfen, die mit unsicherem Code verbundenen Risiken zu reduzieren.
Bericht ansehenDemo buchenShannon Holt ist eine Vermarkterin von Cybersicherheitsprodukten mit Hintergrund in Anwendungssicherheit, Cloud-Sicherheitsdiensten und Compliance-Standards wie PCI-DSS und HITRUST.
Shannon Holt ist Produktvermarkterin für Cybersicherheit mit Erfahrung in Anwendungssicherheit, Cloud-Sicherheitsdiensten und Compliance-Standards wie PCI-DSS und HITRUST. Ihr großes Ziel ist es, sichere Entwicklung und Compliance für technische Teams praktikabler und zugänglicher zu gestalten und die Lücke zwischen Sicherheitserwartungen und der Realität moderner Softwareentwicklung zu schließen.
Ihr Leitfaden für die Einführungsreihe zur AI/LLM-Sicherheit
KI-Codierungstools wie GitHub Copilot, Cursor und andere verändern die Art und Weise, wie Software erstellt wird - aber sie bringen auch neue Sicherheitsherausforderungen mit sich, die Entwickler verstehen müssen, um sichere, zuverlässige Anwendungen zu erstellen. Um Teams bei der sicheren Einführung von KI zu unterstützen, haben wir eine kostenlose, 12-wöchige KI/LLM-Sicherheitseinführungsvideoserie auf YouTube erstellt.
Dieser Beitrag dient als zentrale Anlaufstelle für die Serie. Jede Woche aktualisieren wir ihn mit einem neuen Video und einer Beschreibung, die wichtige Konzepte wie Prompt Injection, Data und Model Poisoning, Risiken in der Lieferkette, sicheres Prompting und mehr behandeln. Setzen Sie ein Lesezeichen auf diese Seite, um wöchentlich mitzuverfolgen, oder abonnieren Sie unseren YouTube-Kanal, um jede Lektion zu erhalten, sobald sie veröffentlicht wird.
Wenn Sie über diese einführenden Lektionen hinaus tiefer eintauchen möchten, erkunden Sie die gesamte AI/LLM-Sammlung auf der SCW-Plattform oder fordern Sie eine Demo an, wenn Sie noch kein Kunde sind. Abonnieren Sie unseren YouTube-Kanal, um jede neue Folge zu sehen, sobald sie veröffentlicht wird. Und wenn Sie über die neuesten Inhalte, Updates und Ressourcen auf dem Laufenden bleiben möchten, melden Sie sich hier an, um unserer Gemeinschaft von Entwicklern und Sicherheitsverantwortlichen beizutreten.
Episoden (Wöchentlich aktualisiert)
Woche 1 - KI-Coding-Risiken: Gefahren bei der Verwendung von LLMs
In diesem Video untersuchen wir die potenziellen Gefahren bei der Verwendung von KI/LLMs beim Schreiben von Code und zeigen die wichtigsten Risiken auf, denen Entwickler bei der Integration von KI-gestützten Tools in ihre Arbeitsabläufe ausgesetzt sind.
Woche 2 - Vorteile der KI-Codierung: Sichere KI-gestützte Entwicklung
KI-Codierungstoolssind nicht nur riskant - wenn sie sicher eingesetzt werden, können sie Entwicklern helfen, schneller und intelligenter zu arbeiten. In diesem Video erkunden wir die Vorteile der Verwendung von KI/LLMs beim Schreiben von Code und zeigen auf, wie Teams KI verantwortungsvoll nutzen und gleichzeitig häufige Sicherheitsfallen vermeiden können.
Woche 3 - Prompt Injection erklärt: Schutz von KI-generiertem Code
PromptInjection ist eine der häufigsten KI/LLM-Schwachstellen - und eine, die jeder Entwickler zu verhindern wissen sollte. In diesem Video stellen wir dire
Woche 4 - Offenlegung sensibler Informationen: Vermeidung von KI-Datenlecks
KI-gestützte Tools können unbeabsichtigt sensible Informationen preisgeben und damit Ihre Anwendungen und Daten gefährden. In diesem Video befassen wir uns mit Schwachstellen bei der Offenlegung sensibler Informationen, erklären, wie sie bei der Verwendung von KI/LLMs entstehen, und teilen praktische Schritte mit, die Entwickler unternehmen können, um das Risiko zu verringern.
Woche 5 - KI-Risiken in der Lieferkette: Absicherung von Abhängigkeiten
KI-gestützteEntwicklung beschleunigt die Codierung - aber sie führt auch Supply-Chain-Risiken ein, die sich auf jede Ebene Ihrer Anwendungen auswirken können. In diesem Video gehen wir auf Schwachstellen im Zusammenhang mit KI/LLMs ein, erklären, wie Modelle und APIs von Drittanbietern Ihre Angriffsfläche erweitern können, und teilen Strategien zur Minimierung der Gefährdung.
Woche 6 - Data Poisoning: Absicherung von KI-Modellen und -Outputs
KI-Systemesind nur so sicher wie ihre Trainingsdaten - und kompromittierte Eingaben können Schwachstellen schaffen, die sich auf Ihre Anwendungen auswirken. In diesem Video stellen wir Daten- und Modellvergiftungsangriffe vor, erklären, wie bösartige Eingaben KI-Ausgaben manipulieren können, und teilen Strategien zum Schutz Ihrer Systeme.
Woche 7 - Unsachgemäße Ausgabebehandlung: Validierung von KI-generiertem Code
KI-gestützteTools können schnell Code generieren - aber wenn die Ausgaben nicht validiert werden, können sich unbemerkt Schwachstellen einschleichen. In diesem Video untersuchen wir den unsachgemäßen Umgang mit Ausgaben in der KI-gestützten Entwicklung, erklären, wie riskante Ausgaben Ihre Anwendungen gefährden können, und zeigen Techniken zum Schutz von generiertem Code.
Woche 8 - Exzessive Handlungsfähigkeit: Kontrolle von KI-Autonomierisiken
Mit zunehmenderAutonomie von KI-Systemen entstehen neue Risiken, wenn Modelle über ihren beabsichtigten Rahmen hinaus agieren. In diesem Video untersuchen wir die Schwachstellen von exzessiver Handlungsfähigkeit in der KI-gestützten Entwicklung, erklären, wie überschießendes Verhalten entsteht, und diskutieren Techniken, um die Kontrolle über KI-gesteuerte Prozesse zu behalten.
Woche 9 - System Prompt Leakage: Versteckte KI-Sicherheitsrisiken
System-Promptsenthalten oft versteckte Anweisungen, die das KI-Verhalten steuern - doch wenn diese offengelegt werden, können Angreifer Modelle manipulieren oder sensible Informationen extrahieren. In diesem Video gehen wir auf Schwachstellen bei Systemansagen ein, erklären, wie sie entstehen, und erörtern Schritte, die Entwickler unternehmen können, um ihre KI-gestützten Workflows zu schützen.
Woche 10 - Vektor-Schwachstellen: Absicherung von KI-Retrieval-Workflows
AI-Modellestützen sich häufig auf Vektordatenbanken und Einbettungen, um leistungsstarke Funktionen bereitzustellen - aber Fehlkonfigurationen und unsichere Implementierungen können sensible Daten offenlegen und neue Angriffsvektoren schaffen. In diesem Video gehen wir auf Schwachstellen bei Vektoren und Einbettungen ein, erläutern gängige Sicherheitsprobleme und zeigen Strategien zur Absicherung Ihrer KI-gestützten Such- und Abfrage-Workflows.
Diese Videos wurden entwickelt, um die Kernkonzepte der KI/LLM-Sicherheit vorzustellen, aber es gibt noch viel mehr auf der Secure Code Warrior zu entdecken. Tauchen Sie ein in KI-Herausforderungen, die eine reale KI-gestützte Codeüberprüfung und -behebung simulieren, erkunden Sie unsere KI/LLM-Richtlinien, die sich an den Best Practices der Branche orientieren, und arbeiten Sie sich durch Walkthroughs, Missions, Quests und Kursvorlagen, die praktische Erfahrungen beim Aufbau sicherer Programmiergewohnheiten bieten. Für Teams, die ihre Fähigkeiten erweitern möchten, bietet die Plattform außerdem eine wachsende Bibliothek mit über 130 KI/LLM-bezogenen Lernaktivitäten, darunter Themen wie Coding with AI, Intro to AI Risk & Security und die OWASP Top 10 for LLM Applications. Fordern Sie eine Demo an, um mehr zu erfahren.
Inhaltsübersicht
Shannon Holt ist eine Vermarkterin von Cybersicherheitsprodukten mit Hintergrund in Anwendungssicherheit, Cloud-Sicherheitsdiensten und Compliance-Standards wie PCI-DSS und HITRUST.

Secure Code Warrior ist für Ihr Unternehmen da, um Sie dabei zu unterstützen, Ihren Code über den gesamten Lebenszyklus der Softwareentwicklung hinweg zu sichern und eine Kultur zu schaffen, in der Cybersicherheit an erster Stelle steht. Ganz gleich, ob Sie AppSec-Manager, Entwickler, CISO oder ein anderer Sicherheitsverantwortlicher sind, wir können Ihrem Unternehmen helfen, die mit unsicherem Code verbundenen Risiken zu reduzieren.
Demo buchenHerunterladenRessourcen für den Einstieg
Bedrohungsmodellierung mit KI: So wird jeder Entwickler zum Bedrohungsmodellierer
Sie werden besser gerüstet sein, um Entwicklern dabei zu helfen, Ideen und Techniken zur Bedrohungsmodellierung mit den KI-Tools zu kombinieren, die sie bereits verwenden, um die Sicherheit zu erhöhen, die Zusammenarbeit zu verbessern und von Anfang an widerstandsfähigere Software zu entwickeln.
Die Macht der Marke in AppSec DevSec DevSecOps (Was steckt in einem Akronym!?)
Für eine dauerhafte Wirkung von AppSec-Programmen braucht es mehr als nur Technik - es braucht eine starke Marke. Eine starke Identität stellt sicher, dass Ihre Initiativen auf Resonanz stoßen und ein nachhaltiges Engagement innerhalb Ihrer Entwicklergemeinschaft fördern.
Ressourcen für den Einstieg
Neue Risikokategorie in den OWASP Top Ten: Erwarten Sie das Unerwartete
Die OWASP Top 10 2025 fügt die Fehlbehandlung von Ausnahmebedingungen auf Platz 10 hinzu. Reduzieren Sie die Risiken durch eine "fail closed"-Logik, globale Fehlerbehandlungsprogramme und eine strenge Eingabevalidierung.
OWASP Top 10: 2025 - Was gibt es Neues und wie Secure Code Warrior Ihnen hilft, auf dem Laufenden zu bleiben
Entdecken Sie, was sich in den OWASP Top 10 geändert hat: 2025 und wie Secure Code Warrior den Übergang mit aktualisierten Quests, Courses und Einblicken für Entwickler erleichtert.
Agenten-KI in der Software-Entwicklung SCHNELL einführen! (Spoiler: Wahrscheinlich sollten Sie es nicht tun.)
Arbeitet die Cybersicherheitswelt zu schnell an agentenbasierter KI? Die Zukunft der KI-Sicherheit ist da, und es ist an der Zeit, dass Experten von ihren Überlegungen zur Realität übergehen.













.png)

.avif)
.png)


