AI/LLM-Sicherheitsvideoserie: Alle Episoden, wöchentlich aktualisiert
Ihr Leitfaden für die Einführungsreihe zur AI/LLM-Sicherheit
KI-Codierungstools wie GitHub Copilot, Cursor und andere verändern die Art und Weise, wie Software erstellt wird - aber sie bringen auch neue Sicherheitsherausforderungen mit sich, die Entwickler verstehen müssen, um sichere, zuverlässige Anwendungen zu erstellen. Um Teams bei der sicheren Einführung von KI zu unterstützen, haben wir eine kostenlose, 12-wöchige KI/LLM-Sicherheitseinführungsvideoserie auf YouTube erstellt.
Dieser Beitrag dient als zentrale Anlaufstelle für die Serie. Jede Woche aktualisieren wir ihn mit einem neuen Video und einer Beschreibung, die wichtige Konzepte wie Prompt Injection, Data und Model Poisoning, Risiken in der Lieferkette, sicheres Prompting und mehr behandeln. Setzen Sie ein Lesezeichen auf diese Seite, um wöchentlich mitzuverfolgen, oder abonnieren Sie unseren YouTube-Kanal, um jede Lektion zu erhalten, sobald sie veröffentlicht wird.
Wenn Sie über diese einführenden Lektionen hinaus tiefer eintauchen möchten, erkunden Sie die gesamte AI/LLM-Sammlung auf der SCW-Plattform oder fordern Sie eine Demo an, wenn Sie noch kein Kunde sind. Abonnieren Sie unseren YouTube-Kanal, um jede neue Folge zu sehen, sobald sie veröffentlicht wird. Und wenn Sie über die neuesten Inhalte, Updates und Ressourcen auf dem Laufenden bleiben möchten, melden Sie sich hier an, um unserer Gemeinschaft von Entwicklern und Sicherheitsverantwortlichen beizutreten.
Episoden (Wöchentlich aktualisiert)
Woche 1 - KI-Coding-Risiken: Gefahren bei der Verwendung von LLMs
In diesem Video untersuchen wir die potenziellen Gefahren bei der Verwendung von KI/LLMs beim Schreiben von Code und zeigen die wichtigsten Risiken auf, denen Entwickler bei der Integration von KI-gestützten Tools in ihre Arbeitsabläufe ausgesetzt sind.
Woche 2 - Vorteile der KI-Codierung: Sichere KI-gestützte Entwicklung
KI-Codierungstoolssind nicht nur riskant - wenn sie sicher eingesetzt werden, können sie Entwicklern helfen, schneller und intelligenter zu arbeiten. In diesem Video erkunden wir die Vorteile der Verwendung von KI/LLMs beim Schreiben von Code und zeigen auf, wie Teams KI verantwortungsvoll nutzen und gleichzeitig häufige Sicherheitsfallen vermeiden können.
Woche 3 - Prompt Injection erklärt: Schutz von KI-generiertem CodePromptInjection ist eine der häufigsten KI/LLM-Schwachstellen - und eine, von der jeder Entwickler wissen sollte, wie sie verhindert werden kann. In diesem Video stellen wir dire
Woche 4 - Offenlegung sensibler Informationen: Vermeidung von KI-Datenlecks
KI-gestützte Tools können unbeabsichtigt sensible Informationen preisgeben und damit Ihre Anwendungen und Daten gefährden. In diesem Video befassen wir uns mit Schwachstellen bei der Offenlegung sensibler Informationen, erklären, wie sie bei der Verwendung von KI/LLMs entstehen, und teilen praktische Schritte mit, die Entwickler unternehmen können, um das Risiko zu verringern.
Woche 5 - KI-Risiken in der Lieferkette: Sicherung von Abhängigkeiten Die KI-gestützteEntwicklung beschleunigt die Programmierung, birgt aber auch Risiken in der Lieferkette, die sich auf jede Ebene Ihrer Anwendungen auswirken können. In diesem Video untersuchen wir Schwachstellen im Zusammenhang mit KI/LLMs, erklären, wie Modelle und APIs von Drittanbietern Ihre Angriffsfläche erweitern können, und teilen Strategien zur Minimierung der Gefährdung.
Woche 6 - Data Poisoning: Sicherung von KI-Modellen und -Outputs KI-Systemesind nur so sicher wie ihre Trainingsdaten - und kompromittierte Eingaben können Schwachstellen schaffen, die sich auf Ihre Anwendungen auswirken. In diesem Video stellen wir Angriffe durch Daten- und Modellvergiftung vor, erklären, wie bösartige Eingaben die KI-Ausgaben manipulieren können, und zeigen Strategien zum Schutz Ihrer Systeme.
Woche 7 - Unsachgemäße Ausgabebehandlung: Validierung von KI-generiertem Code
KI-gestützteTools können schnell Code generieren - aber wenn die Ausgaben nicht validiert werden, können sich unbemerkt Schwachstellen einschleichen. In diesem Video untersuchen wir den unsachgemäßen Umgang mit Ausgaben in der KI-gestützten Entwicklung, erklären, wie riskante Ausgaben Ihre Anwendungen gefährden können, und zeigen Techniken zum Schutz von generiertem Code.
Diese Videos wurden entwickelt, um die Kernkonzepte der KI/LLM-Sicherheit vorzustellen, aber es gibt noch viel mehr auf der Secure Code Warrior zu entdecken. Tauchen Sie ein in KI-Herausforderungen, die eine reale KI-gestützte Codeüberprüfung und -behebung simulieren, erkunden Sie unsere KI/LLM-Richtlinien, die sich an den Best Practices der Branche orientieren, und arbeiten Sie sich durch Walkthroughs, Missions, Quests und Kursvorlagen, die praktische Erfahrungen beim Aufbau sicherer Programmiergewohnheiten bieten. Für Teams, die ihre Fähigkeiten erweitern möchten, bietet die Plattform außerdem eine wachsende Bibliothek mit über 130 KI/LLM-bezogenen Lernaktivitäten, darunter Themen wie Coding with AI, Intro to AI Risk & Security und die OWASP Top 10 for LLM Applications. Fordern Sie eine Demo an, um mehr zu erfahren.


Ihr umfassender Leitfaden für unsere 12-wöchige KI/LLM-Sicherheitsvideoserie. Sehen Sie sich jede Folge an, lernen Sie die wichtigsten KI-Sicherheitskonzepte kennen und verfolgen Sie die Serie wöchentlich.
Shannon Holt ist eine Vermarkterin von Cybersicherheitsprodukten mit Hintergrund in Anwendungssicherheit, Cloud-Sicherheitsdiensten und Compliance-Standards wie PCI-DSS und HITRUST.

Secure Code Warrior ist für Ihr Unternehmen da, um Sie dabei zu unterstützen, Ihren Code über den gesamten Lebenszyklus der Softwareentwicklung hinweg zu sichern und eine Kultur zu schaffen, in der Cybersicherheit an erster Stelle steht. Ganz gleich, ob Sie AppSec-Manager, Entwickler, CISO oder ein anderer Sicherheitsverantwortlicher sind, wir können Ihrem Unternehmen helfen, die mit unsicherem Code verbundenen Risiken zu reduzieren.
Demo buchenShannon Holt ist eine Vermarkterin von Cybersicherheitsprodukten mit Hintergrund in Anwendungssicherheit, Cloud-Sicherheitsdiensten und Compliance-Standards wie PCI-DSS und HITRUST.
Shannon Holt ist Produktvermarkterin für Cybersicherheit mit Erfahrung in Anwendungssicherheit, Cloud-Sicherheitsdiensten und Compliance-Standards wie PCI-DSS und HITRUST. Ihr großes Ziel ist es, sichere Entwicklung und Compliance für technische Teams praktikabler und zugänglicher zu gestalten und die Lücke zwischen Sicherheitserwartungen und der Realität moderner Softwareentwicklung zu schließen.


Ihr Leitfaden für die Einführungsreihe zur AI/LLM-Sicherheit
KI-Codierungstools wie GitHub Copilot, Cursor und andere verändern die Art und Weise, wie Software erstellt wird - aber sie bringen auch neue Sicherheitsherausforderungen mit sich, die Entwickler verstehen müssen, um sichere, zuverlässige Anwendungen zu erstellen. Um Teams bei der sicheren Einführung von KI zu unterstützen, haben wir eine kostenlose, 12-wöchige KI/LLM-Sicherheitseinführungsvideoserie auf YouTube erstellt.
Dieser Beitrag dient als zentrale Anlaufstelle für die Serie. Jede Woche aktualisieren wir ihn mit einem neuen Video und einer Beschreibung, die wichtige Konzepte wie Prompt Injection, Data und Model Poisoning, Risiken in der Lieferkette, sicheres Prompting und mehr behandeln. Setzen Sie ein Lesezeichen auf diese Seite, um wöchentlich mitzuverfolgen, oder abonnieren Sie unseren YouTube-Kanal, um jede Lektion zu erhalten, sobald sie veröffentlicht wird.
Wenn Sie über diese einführenden Lektionen hinaus tiefer eintauchen möchten, erkunden Sie die gesamte AI/LLM-Sammlung auf der SCW-Plattform oder fordern Sie eine Demo an, wenn Sie noch kein Kunde sind. Abonnieren Sie unseren YouTube-Kanal, um jede neue Folge zu sehen, sobald sie veröffentlicht wird. Und wenn Sie über die neuesten Inhalte, Updates und Ressourcen auf dem Laufenden bleiben möchten, melden Sie sich hier an, um unserer Gemeinschaft von Entwicklern und Sicherheitsverantwortlichen beizutreten.
Episoden (Wöchentlich aktualisiert)
Woche 1 - KI-Coding-Risiken: Gefahren bei der Verwendung von LLMs
In diesem Video untersuchen wir die potenziellen Gefahren bei der Verwendung von KI/LLMs beim Schreiben von Code und zeigen die wichtigsten Risiken auf, denen Entwickler bei der Integration von KI-gestützten Tools in ihre Arbeitsabläufe ausgesetzt sind.
Woche 2 - Vorteile der KI-Codierung: Sichere KI-gestützte Entwicklung
KI-Codierungstoolssind nicht nur riskant - wenn sie sicher eingesetzt werden, können sie Entwicklern helfen, schneller und intelligenter zu arbeiten. In diesem Video erkunden wir die Vorteile der Verwendung von KI/LLMs beim Schreiben von Code und zeigen auf, wie Teams KI verantwortungsvoll nutzen und gleichzeitig häufige Sicherheitsfallen vermeiden können.
Woche 3 - Prompt Injection erklärt: Schutz von KI-generiertem CodePromptInjection ist eine der häufigsten KI/LLM-Schwachstellen - und eine, von der jeder Entwickler wissen sollte, wie sie verhindert werden kann. In diesem Video stellen wir dire
Woche 4 - Offenlegung sensibler Informationen: Vermeidung von KI-Datenlecks
KI-gestützte Tools können unbeabsichtigt sensible Informationen preisgeben und damit Ihre Anwendungen und Daten gefährden. In diesem Video befassen wir uns mit Schwachstellen bei der Offenlegung sensibler Informationen, erklären, wie sie bei der Verwendung von KI/LLMs entstehen, und teilen praktische Schritte mit, die Entwickler unternehmen können, um das Risiko zu verringern.
Woche 5 - KI-Risiken in der Lieferkette: Sicherung von Abhängigkeiten Die KI-gestützteEntwicklung beschleunigt die Programmierung, birgt aber auch Risiken in der Lieferkette, die sich auf jede Ebene Ihrer Anwendungen auswirken können. In diesem Video untersuchen wir Schwachstellen im Zusammenhang mit KI/LLMs, erklären, wie Modelle und APIs von Drittanbietern Ihre Angriffsfläche erweitern können, und teilen Strategien zur Minimierung der Gefährdung.
Woche 6 - Data Poisoning: Sicherung von KI-Modellen und -Outputs KI-Systemesind nur so sicher wie ihre Trainingsdaten - und kompromittierte Eingaben können Schwachstellen schaffen, die sich auf Ihre Anwendungen auswirken. In diesem Video stellen wir Angriffe durch Daten- und Modellvergiftung vor, erklären, wie bösartige Eingaben die KI-Ausgaben manipulieren können, und zeigen Strategien zum Schutz Ihrer Systeme.
Woche 7 - Unsachgemäße Ausgabebehandlung: Validierung von KI-generiertem Code
KI-gestützteTools können schnell Code generieren - aber wenn die Ausgaben nicht validiert werden, können sich unbemerkt Schwachstellen einschleichen. In diesem Video untersuchen wir den unsachgemäßen Umgang mit Ausgaben in der KI-gestützten Entwicklung, erklären, wie riskante Ausgaben Ihre Anwendungen gefährden können, und zeigen Techniken zum Schutz von generiertem Code.
Diese Videos wurden entwickelt, um die Kernkonzepte der KI/LLM-Sicherheit vorzustellen, aber es gibt noch viel mehr auf der Secure Code Warrior zu entdecken. Tauchen Sie ein in KI-Herausforderungen, die eine reale KI-gestützte Codeüberprüfung und -behebung simulieren, erkunden Sie unsere KI/LLM-Richtlinien, die sich an den Best Practices der Branche orientieren, und arbeiten Sie sich durch Walkthroughs, Missions, Quests und Kursvorlagen, die praktische Erfahrungen beim Aufbau sicherer Programmiergewohnheiten bieten. Für Teams, die ihre Fähigkeiten erweitern möchten, bietet die Plattform außerdem eine wachsende Bibliothek mit über 130 KI/LLM-bezogenen Lernaktivitäten, darunter Themen wie Coding with AI, Intro to AI Risk & Security und die OWASP Top 10 for LLM Applications. Fordern Sie eine Demo an, um mehr zu erfahren.

Ihr Leitfaden für die Einführungsreihe zur AI/LLM-Sicherheit
KI-Codierungstools wie GitHub Copilot, Cursor und andere verändern die Art und Weise, wie Software erstellt wird - aber sie bringen auch neue Sicherheitsherausforderungen mit sich, die Entwickler verstehen müssen, um sichere, zuverlässige Anwendungen zu erstellen. Um Teams bei der sicheren Einführung von KI zu unterstützen, haben wir eine kostenlose, 12-wöchige KI/LLM-Sicherheitseinführungsvideoserie auf YouTube erstellt.
Dieser Beitrag dient als zentrale Anlaufstelle für die Serie. Jede Woche aktualisieren wir ihn mit einem neuen Video und einer Beschreibung, die wichtige Konzepte wie Prompt Injection, Data und Model Poisoning, Risiken in der Lieferkette, sicheres Prompting und mehr behandeln. Setzen Sie ein Lesezeichen auf diese Seite, um wöchentlich mitzuverfolgen, oder abonnieren Sie unseren YouTube-Kanal, um jede Lektion zu erhalten, sobald sie veröffentlicht wird.
Wenn Sie über diese einführenden Lektionen hinaus tiefer eintauchen möchten, erkunden Sie die gesamte AI/LLM-Sammlung auf der SCW-Plattform oder fordern Sie eine Demo an, wenn Sie noch kein Kunde sind. Abonnieren Sie unseren YouTube-Kanal, um jede neue Folge zu sehen, sobald sie veröffentlicht wird. Und wenn Sie über die neuesten Inhalte, Updates und Ressourcen auf dem Laufenden bleiben möchten, melden Sie sich hier an, um unserer Gemeinschaft von Entwicklern und Sicherheitsverantwortlichen beizutreten.
Episoden (Wöchentlich aktualisiert)
Woche 1 - KI-Coding-Risiken: Gefahren bei der Verwendung von LLMs
In diesem Video untersuchen wir die potenziellen Gefahren bei der Verwendung von KI/LLMs beim Schreiben von Code und zeigen die wichtigsten Risiken auf, denen Entwickler bei der Integration von KI-gestützten Tools in ihre Arbeitsabläufe ausgesetzt sind.
Woche 2 - Vorteile der KI-Codierung: Sichere KI-gestützte Entwicklung
KI-Codierungstoolssind nicht nur riskant - wenn sie sicher eingesetzt werden, können sie Entwicklern helfen, schneller und intelligenter zu arbeiten. In diesem Video erkunden wir die Vorteile der Verwendung von KI/LLMs beim Schreiben von Code und zeigen auf, wie Teams KI verantwortungsvoll nutzen und gleichzeitig häufige Sicherheitsfallen vermeiden können.
Woche 3 - Prompt Injection erklärt: Schutz von KI-generiertem CodePromptInjection ist eine der häufigsten KI/LLM-Schwachstellen - und eine, von der jeder Entwickler wissen sollte, wie sie verhindert werden kann. In diesem Video stellen wir dire
Woche 4 - Offenlegung sensibler Informationen: Vermeidung von KI-Datenlecks
KI-gestützte Tools können unbeabsichtigt sensible Informationen preisgeben und damit Ihre Anwendungen und Daten gefährden. In diesem Video befassen wir uns mit Schwachstellen bei der Offenlegung sensibler Informationen, erklären, wie sie bei der Verwendung von KI/LLMs entstehen, und teilen praktische Schritte mit, die Entwickler unternehmen können, um das Risiko zu verringern.
Woche 5 - KI-Risiken in der Lieferkette: Sicherung von Abhängigkeiten Die KI-gestützteEntwicklung beschleunigt die Programmierung, birgt aber auch Risiken in der Lieferkette, die sich auf jede Ebene Ihrer Anwendungen auswirken können. In diesem Video untersuchen wir Schwachstellen im Zusammenhang mit KI/LLMs, erklären, wie Modelle und APIs von Drittanbietern Ihre Angriffsfläche erweitern können, und teilen Strategien zur Minimierung der Gefährdung.
Woche 6 - Data Poisoning: Sicherung von KI-Modellen und -Outputs KI-Systemesind nur so sicher wie ihre Trainingsdaten - und kompromittierte Eingaben können Schwachstellen schaffen, die sich auf Ihre Anwendungen auswirken. In diesem Video stellen wir Angriffe durch Daten- und Modellvergiftung vor, erklären, wie bösartige Eingaben die KI-Ausgaben manipulieren können, und zeigen Strategien zum Schutz Ihrer Systeme.
Woche 7 - Unsachgemäße Ausgabebehandlung: Validierung von KI-generiertem Code
KI-gestützteTools können schnell Code generieren - aber wenn die Ausgaben nicht validiert werden, können sich unbemerkt Schwachstellen einschleichen. In diesem Video untersuchen wir den unsachgemäßen Umgang mit Ausgaben in der KI-gestützten Entwicklung, erklären, wie riskante Ausgaben Ihre Anwendungen gefährden können, und zeigen Techniken zum Schutz von generiertem Code.
Diese Videos wurden entwickelt, um die Kernkonzepte der KI/LLM-Sicherheit vorzustellen, aber es gibt noch viel mehr auf der Secure Code Warrior zu entdecken. Tauchen Sie ein in KI-Herausforderungen, die eine reale KI-gestützte Codeüberprüfung und -behebung simulieren, erkunden Sie unsere KI/LLM-Richtlinien, die sich an den Best Practices der Branche orientieren, und arbeiten Sie sich durch Walkthroughs, Missions, Quests und Kursvorlagen, die praktische Erfahrungen beim Aufbau sicherer Programmiergewohnheiten bieten. Für Teams, die ihre Fähigkeiten erweitern möchten, bietet die Plattform außerdem eine wachsende Bibliothek mit über 130 KI/LLM-bezogenen Lernaktivitäten, darunter Themen wie Coding with AI, Intro to AI Risk & Security und die OWASP Top 10 for LLM Applications. Fordern Sie eine Demo an, um mehr zu erfahren.

Klicken Sie auf den unten stehenden Link und laden Sie die PDF-Datei dieser Ressource herunter.
Secure Code Warrior ist für Ihr Unternehmen da, um Sie dabei zu unterstützen, Ihren Code über den gesamten Lebenszyklus der Softwareentwicklung hinweg zu sichern und eine Kultur zu schaffen, in der Cybersicherheit an erster Stelle steht. Ganz gleich, ob Sie AppSec-Manager, Entwickler, CISO oder ein anderer Sicherheitsverantwortlicher sind, wir können Ihrem Unternehmen helfen, die mit unsicherem Code verbundenen Risiken zu reduzieren.
Bericht ansehenDemo buchenShannon Holt ist eine Vermarkterin von Cybersicherheitsprodukten mit Hintergrund in Anwendungssicherheit, Cloud-Sicherheitsdiensten und Compliance-Standards wie PCI-DSS und HITRUST.
Shannon Holt ist Produktvermarkterin für Cybersicherheit mit Erfahrung in Anwendungssicherheit, Cloud-Sicherheitsdiensten und Compliance-Standards wie PCI-DSS und HITRUST. Ihr großes Ziel ist es, sichere Entwicklung und Compliance für technische Teams praktikabler und zugänglicher zu gestalten und die Lücke zwischen Sicherheitserwartungen und der Realität moderner Softwareentwicklung zu schließen.
Ihr Leitfaden für die Einführungsreihe zur AI/LLM-Sicherheit
KI-Codierungstools wie GitHub Copilot, Cursor und andere verändern die Art und Weise, wie Software erstellt wird - aber sie bringen auch neue Sicherheitsherausforderungen mit sich, die Entwickler verstehen müssen, um sichere, zuverlässige Anwendungen zu erstellen. Um Teams bei der sicheren Einführung von KI zu unterstützen, haben wir eine kostenlose, 12-wöchige KI/LLM-Sicherheitseinführungsvideoserie auf YouTube erstellt.
Dieser Beitrag dient als zentrale Anlaufstelle für die Serie. Jede Woche aktualisieren wir ihn mit einem neuen Video und einer Beschreibung, die wichtige Konzepte wie Prompt Injection, Data und Model Poisoning, Risiken in der Lieferkette, sicheres Prompting und mehr behandeln. Setzen Sie ein Lesezeichen auf diese Seite, um wöchentlich mitzuverfolgen, oder abonnieren Sie unseren YouTube-Kanal, um jede Lektion zu erhalten, sobald sie veröffentlicht wird.
Wenn Sie über diese einführenden Lektionen hinaus tiefer eintauchen möchten, erkunden Sie die gesamte AI/LLM-Sammlung auf der SCW-Plattform oder fordern Sie eine Demo an, wenn Sie noch kein Kunde sind. Abonnieren Sie unseren YouTube-Kanal, um jede neue Folge zu sehen, sobald sie veröffentlicht wird. Und wenn Sie über die neuesten Inhalte, Updates und Ressourcen auf dem Laufenden bleiben möchten, melden Sie sich hier an, um unserer Gemeinschaft von Entwicklern und Sicherheitsverantwortlichen beizutreten.
Episoden (Wöchentlich aktualisiert)
Woche 1 - KI-Coding-Risiken: Gefahren bei der Verwendung von LLMs
In diesem Video untersuchen wir die potenziellen Gefahren bei der Verwendung von KI/LLMs beim Schreiben von Code und zeigen die wichtigsten Risiken auf, denen Entwickler bei der Integration von KI-gestützten Tools in ihre Arbeitsabläufe ausgesetzt sind.
Woche 2 - Vorteile der KI-Codierung: Sichere KI-gestützte Entwicklung
KI-Codierungstoolssind nicht nur riskant - wenn sie sicher eingesetzt werden, können sie Entwicklern helfen, schneller und intelligenter zu arbeiten. In diesem Video erkunden wir die Vorteile der Verwendung von KI/LLMs beim Schreiben von Code und zeigen auf, wie Teams KI verantwortungsvoll nutzen und gleichzeitig häufige Sicherheitsfallen vermeiden können.
Woche 3 - Prompt Injection erklärt: Schutz von KI-generiertem CodePromptInjection ist eine der häufigsten KI/LLM-Schwachstellen - und eine, von der jeder Entwickler wissen sollte, wie sie verhindert werden kann. In diesem Video stellen wir dire
Woche 4 - Offenlegung sensibler Informationen: Vermeidung von KI-Datenlecks
KI-gestützte Tools können unbeabsichtigt sensible Informationen preisgeben und damit Ihre Anwendungen und Daten gefährden. In diesem Video befassen wir uns mit Schwachstellen bei der Offenlegung sensibler Informationen, erklären, wie sie bei der Verwendung von KI/LLMs entstehen, und teilen praktische Schritte mit, die Entwickler unternehmen können, um das Risiko zu verringern.
Woche 5 - KI-Risiken in der Lieferkette: Sicherung von Abhängigkeiten Die KI-gestützteEntwicklung beschleunigt die Programmierung, birgt aber auch Risiken in der Lieferkette, die sich auf jede Ebene Ihrer Anwendungen auswirken können. In diesem Video untersuchen wir Schwachstellen im Zusammenhang mit KI/LLMs, erklären, wie Modelle und APIs von Drittanbietern Ihre Angriffsfläche erweitern können, und teilen Strategien zur Minimierung der Gefährdung.
Woche 6 - Data Poisoning: Sicherung von KI-Modellen und -Outputs KI-Systemesind nur so sicher wie ihre Trainingsdaten - und kompromittierte Eingaben können Schwachstellen schaffen, die sich auf Ihre Anwendungen auswirken. In diesem Video stellen wir Angriffe durch Daten- und Modellvergiftung vor, erklären, wie bösartige Eingaben die KI-Ausgaben manipulieren können, und zeigen Strategien zum Schutz Ihrer Systeme.
Woche 7 - Unsachgemäße Ausgabebehandlung: Validierung von KI-generiertem Code
KI-gestützteTools können schnell Code generieren - aber wenn die Ausgaben nicht validiert werden, können sich unbemerkt Schwachstellen einschleichen. In diesem Video untersuchen wir den unsachgemäßen Umgang mit Ausgaben in der KI-gestützten Entwicklung, erklären, wie riskante Ausgaben Ihre Anwendungen gefährden können, und zeigen Techniken zum Schutz von generiertem Code.
Diese Videos wurden entwickelt, um die Kernkonzepte der KI/LLM-Sicherheit vorzustellen, aber es gibt noch viel mehr auf der Secure Code Warrior zu entdecken. Tauchen Sie ein in KI-Herausforderungen, die eine reale KI-gestützte Codeüberprüfung und -behebung simulieren, erkunden Sie unsere KI/LLM-Richtlinien, die sich an den Best Practices der Branche orientieren, und arbeiten Sie sich durch Walkthroughs, Missions, Quests und Kursvorlagen, die praktische Erfahrungen beim Aufbau sicherer Programmiergewohnheiten bieten. Für Teams, die ihre Fähigkeiten erweitern möchten, bietet die Plattform außerdem eine wachsende Bibliothek mit über 130 KI/LLM-bezogenen Lernaktivitäten, darunter Themen wie Coding with AI, Intro to AI Risk & Security und die OWASP Top 10 for LLM Applications. Fordern Sie eine Demo an, um mehr zu erfahren.
Inhaltsübersicht
Shannon Holt ist eine Vermarkterin von Cybersicherheitsprodukten mit Hintergrund in Anwendungssicherheit, Cloud-Sicherheitsdiensten und Compliance-Standards wie PCI-DSS und HITRUST.

Secure Code Warrior ist für Ihr Unternehmen da, um Sie dabei zu unterstützen, Ihren Code über den gesamten Lebenszyklus der Softwareentwicklung hinweg zu sichern und eine Kultur zu schaffen, in der Cybersicherheit an erster Stelle steht. Ganz gleich, ob Sie AppSec-Manager, Entwickler, CISO oder ein anderer Sicherheitsverantwortlicher sind, wir können Ihrem Unternehmen helfen, die mit unsicherem Code verbundenen Risiken zu reduzieren.
Demo buchenHerunterladenRessourcen für den Einstieg
Auf dem Weg zu Gold: Steigende Standards für sicheren Code bei Paysafe
Sehen Sie, wie die Partnerschaft von Paysafe mit Secure Code Warrior die Produktivität der Entwickler um 45 % steigerte und die Zahl der Code-Schwachstellen erheblich reduzierte.
Die Macht der Marke in AppSec DevSec DevSecOps (Was ist in einem Acrynym!?)
Für eine dauerhafte Wirkung von AppSec-Programmen braucht es mehr als nur Technik - es braucht eine starke Marke. Eine starke Identität stellt sicher, dass Ihre Initiativen auf Resonanz stoßen und ein nachhaltiges Engagement innerhalb Ihrer Entwicklergemeinschaft fördern.
Vertrauensagent: AI von Secure Code Warrior
Dieser One-Pager stellt den SCW Trust Agent: AI vor, eine neue Reihe von Funktionen, die tiefgreifende Beobachtbarkeit und Kontrolle über KI-Codierwerkzeuge bieten. Erfahren Sie, wie unsere Lösung die Nutzung von KI-Tools mit den Fähigkeiten von Entwicklern korreliert, um Sie beim Risikomanagement zu unterstützen, Ihren SDLC zu optimieren und sicherzustellen, dass jede Zeile des von KI generierten Codes sicher ist.
Vibe Coding: Praktischer Leitfaden zur Aktualisierung Ihrer AppSec-Strategie für KI
In diesem On-Demand-Video erfahren Sie, wie AppSec-Manager durch einen praktischen Ansatz, bei dem die Schulung im Vordergrund steht, in die Lage versetzt werden, KI zu fördern, anstatt sie zu blockieren. Wir zeigen Ihnen, wie Sie Secure Code Warrior (SCW) nutzen können, um Ihre AppSec-Strategie strategisch für das Zeitalter der KI-Codierassistenten zu aktualisieren.
Ressourcen für den Einstieg
Sicheres Coding im Zeitalter der KI: Testen Sie unsere neuen interaktiven KI-Herausforderungen
KI-gestütztes Coding verändert die Entwicklung. Testen Sie unsere neuen KI-Herausforderungen im Copilot-Stil, um Code in realistischen Workflows sicher zu prüfen, zu analysieren und zu korrigieren.










.png)
.avif)


