AI/LLM-Sicherheitsvideoserie: Alle Episoden, wöchentlich aktualisiert
Ihr Leitfaden für die Einführungsreihe zur AI/LLM-Sicherheit
KI-Codierungstools wie GitHub Copilot, Cursor und andere verändern die Art und Weise, wie Software erstellt wird - aber sie bringen auch neue Sicherheitsherausforderungen mit sich, die Entwickler verstehen müssen, um sichere, zuverlässige Anwendungen zu erstellen. Um Teams bei der sicheren Einführung von KI zu unterstützen, haben wir eine kostenlose, 12-wöchige KI/LLM-Sicherheitseinführungsvideoserie auf YouTube erstellt.
Dieser Beitrag dient als zentrale Anlaufstelle für die Serie. Jede Woche aktualisieren wir ihn mit einem neuen Video und einer Beschreibung, die wichtige Konzepte wie Prompt Injection, Data und Model Poisoning, Risiken in der Lieferkette, sicheres Prompting und mehr behandeln. Setzen Sie ein Lesezeichen auf diese Seite, um wöchentlich mitzuverfolgen, oder abonnieren Sie unseren YouTube-Kanal, um jede Lektion zu erhalten, sobald sie veröffentlicht wird.
Wenn Sie über diese einführenden Lektionen hinaus tiefer eintauchen möchten, erkunden Sie die gesamte AI/LLM-Sammlung auf der SCW-Plattform oder fordern Sie eine Demo an, wenn Sie noch kein Kunde sind. Abonnieren Sie unseren YouTube-Kanal, um jede neue Folge zu sehen, sobald sie veröffentlicht wird. Und wenn Sie über die neuesten Inhalte, Updates und Ressourcen auf dem Laufenden bleiben möchten, melden Sie sich hier an, um unserer Gemeinschaft von Entwicklern und Sicherheitsverantwortlichen beizutreten.
Episoden (Wöchentlich aktualisiert)
Woche 1 - KI-Coding-Risiken: Gefahren bei der Verwendung von LLMs
In diesem Video untersuchen wir die potenziellen Gefahren bei der Verwendung von KI/LLMs beim Schreiben von Code und zeigen die wichtigsten Risiken auf, denen Entwickler bei der Integration von KI-gestützten Tools in ihre Arbeitsabläufe ausgesetzt sind.
Tiefer gehen mit Secure Code Warrior
Diese Videos sollen in die Kernkonzepte der KI/LLM-Sicherheit einführen, aber es gibt noch so viel mehr auf der Secure Code Warrior zu entdecken. Tauchen Sie ein in KI-Herausforderungen, die eine reale KI-gestützte Codeüberprüfung und -behebung simulieren, erforschen Sie unsere KI/LLM-Richtlinien, die sich an den Best Practices der Branche orientieren, und arbeiten Sie sich durch Walkthroughs, Missions, Quests und Kursvorlagen, die praktische Erfahrungen beim Aufbau sicherer Codierungsgewohnheiten vermitteln. Für Teams, die ihre Fähigkeiten erweitern möchten, bietet die Plattform außerdem eine wachsende Bibliothek mit über 130 KI/LLM-bezogenen Lernaktivitäten, darunter Themen wie Coding with AI, Intro to AI Risk & Security und die OWASP Top 10 for LLM Applications. Fordern Sie eine Demo an, um mehr zu erfahren.


Ihr umfassender Leitfaden für unsere 12-wöchige KI/LLM-Sicherheitsvideoserie. Sehen Sie sich jede Folge an, lernen Sie die wichtigsten KI-Sicherheitskonzepte kennen und verfolgen Sie die Serie wöchentlich.
Shannon Holt ist eine Vermarkterin von Cybersicherheitsprodukten mit Hintergrund in Anwendungssicherheit, Cloud-Sicherheitsdiensten und Compliance-Standards wie PCI-DSS und HITRUST.

Secure Code Warrior ist für Ihr Unternehmen da, um Sie dabei zu unterstützen, Ihren Code über den gesamten Lebenszyklus der Softwareentwicklung hinweg zu sichern und eine Kultur zu schaffen, in der Cybersicherheit an erster Stelle steht. Ganz gleich, ob Sie AppSec-Manager, Entwickler, CISO oder ein anderer Sicherheitsverantwortlicher sind, wir können Ihrem Unternehmen helfen, die mit unsicherem Code verbundenen Risiken zu reduzieren.
Demo buchenShannon Holt ist eine Vermarkterin von Cybersicherheitsprodukten mit Hintergrund in Anwendungssicherheit, Cloud-Sicherheitsdiensten und Compliance-Standards wie PCI-DSS und HITRUST.
Shannon Holt ist Produktvermarkterin für Cybersicherheit mit Erfahrung in Anwendungssicherheit, Cloud-Sicherheitsdiensten und Compliance-Standards wie PCI-DSS und HITRUST. Ihr großes Ziel ist es, sichere Entwicklung und Compliance für technische Teams praktikabler und zugänglicher zu gestalten und die Lücke zwischen Sicherheitserwartungen und der Realität moderner Softwareentwicklung zu schließen.


Ihr Leitfaden für die Einführungsreihe zur AI/LLM-Sicherheit
KI-Codierungstools wie GitHub Copilot, Cursor und andere verändern die Art und Weise, wie Software erstellt wird - aber sie bringen auch neue Sicherheitsherausforderungen mit sich, die Entwickler verstehen müssen, um sichere, zuverlässige Anwendungen zu erstellen. Um Teams bei der sicheren Einführung von KI zu unterstützen, haben wir eine kostenlose, 12-wöchige KI/LLM-Sicherheitseinführungsvideoserie auf YouTube erstellt.
Dieser Beitrag dient als zentrale Anlaufstelle für die Serie. Jede Woche aktualisieren wir ihn mit einem neuen Video und einer Beschreibung, die wichtige Konzepte wie Prompt Injection, Data und Model Poisoning, Risiken in der Lieferkette, sicheres Prompting und mehr behandeln. Setzen Sie ein Lesezeichen auf diese Seite, um wöchentlich mitzuverfolgen, oder abonnieren Sie unseren YouTube-Kanal, um jede Lektion zu erhalten, sobald sie veröffentlicht wird.
Wenn Sie über diese einführenden Lektionen hinaus tiefer eintauchen möchten, erkunden Sie die gesamte AI/LLM-Sammlung auf der SCW-Plattform oder fordern Sie eine Demo an, wenn Sie noch kein Kunde sind. Abonnieren Sie unseren YouTube-Kanal, um jede neue Folge zu sehen, sobald sie veröffentlicht wird. Und wenn Sie über die neuesten Inhalte, Updates und Ressourcen auf dem Laufenden bleiben möchten, melden Sie sich hier an, um unserer Gemeinschaft von Entwicklern und Sicherheitsverantwortlichen beizutreten.
Episoden (Wöchentlich aktualisiert)
Woche 1 - KI-Coding-Risiken: Gefahren bei der Verwendung von LLMs
In diesem Video untersuchen wir die potenziellen Gefahren bei der Verwendung von KI/LLMs beim Schreiben von Code und zeigen die wichtigsten Risiken auf, denen Entwickler bei der Integration von KI-gestützten Tools in ihre Arbeitsabläufe ausgesetzt sind.
Tiefer gehen mit Secure Code Warrior
Diese Videos sollen in die Kernkonzepte der KI/LLM-Sicherheit einführen, aber es gibt noch so viel mehr auf der Secure Code Warrior zu entdecken. Tauchen Sie ein in KI-Herausforderungen, die eine reale KI-gestützte Codeüberprüfung und -behebung simulieren, erforschen Sie unsere KI/LLM-Richtlinien, die sich an den Best Practices der Branche orientieren, und arbeiten Sie sich durch Walkthroughs, Missions, Quests und Kursvorlagen, die praktische Erfahrungen beim Aufbau sicherer Codierungsgewohnheiten vermitteln. Für Teams, die ihre Fähigkeiten erweitern möchten, bietet die Plattform außerdem eine wachsende Bibliothek mit über 130 KI/LLM-bezogenen Lernaktivitäten, darunter Themen wie Coding with AI, Intro to AI Risk & Security und die OWASP Top 10 for LLM Applications. Fordern Sie eine Demo an, um mehr zu erfahren.

Ihr Leitfaden für die Einführungsreihe zur AI/LLM-Sicherheit
KI-Codierungstools wie GitHub Copilot, Cursor und andere verändern die Art und Weise, wie Software erstellt wird - aber sie bringen auch neue Sicherheitsherausforderungen mit sich, die Entwickler verstehen müssen, um sichere, zuverlässige Anwendungen zu erstellen. Um Teams bei der sicheren Einführung von KI zu unterstützen, haben wir eine kostenlose, 12-wöchige KI/LLM-Sicherheitseinführungsvideoserie auf YouTube erstellt.
Dieser Beitrag dient als zentrale Anlaufstelle für die Serie. Jede Woche aktualisieren wir ihn mit einem neuen Video und einer Beschreibung, die wichtige Konzepte wie Prompt Injection, Data und Model Poisoning, Risiken in der Lieferkette, sicheres Prompting und mehr behandeln. Setzen Sie ein Lesezeichen auf diese Seite, um wöchentlich mitzuverfolgen, oder abonnieren Sie unseren YouTube-Kanal, um jede Lektion zu erhalten, sobald sie veröffentlicht wird.
Wenn Sie über diese einführenden Lektionen hinaus tiefer eintauchen möchten, erkunden Sie die gesamte AI/LLM-Sammlung auf der SCW-Plattform oder fordern Sie eine Demo an, wenn Sie noch kein Kunde sind. Abonnieren Sie unseren YouTube-Kanal, um jede neue Folge zu sehen, sobald sie veröffentlicht wird. Und wenn Sie über die neuesten Inhalte, Updates und Ressourcen auf dem Laufenden bleiben möchten, melden Sie sich hier an, um unserer Gemeinschaft von Entwicklern und Sicherheitsverantwortlichen beizutreten.
Episoden (Wöchentlich aktualisiert)
Woche 1 - KI-Coding-Risiken: Gefahren bei der Verwendung von LLMs
In diesem Video untersuchen wir die potenziellen Gefahren bei der Verwendung von KI/LLMs beim Schreiben von Code und zeigen die wichtigsten Risiken auf, denen Entwickler bei der Integration von KI-gestützten Tools in ihre Arbeitsabläufe ausgesetzt sind.
Tiefer gehen mit Secure Code Warrior
Diese Videos sollen in die Kernkonzepte der KI/LLM-Sicherheit einführen, aber es gibt noch so viel mehr auf der Secure Code Warrior zu entdecken. Tauchen Sie ein in KI-Herausforderungen, die eine reale KI-gestützte Codeüberprüfung und -behebung simulieren, erforschen Sie unsere KI/LLM-Richtlinien, die sich an den Best Practices der Branche orientieren, und arbeiten Sie sich durch Walkthroughs, Missions, Quests und Kursvorlagen, die praktische Erfahrungen beim Aufbau sicherer Codierungsgewohnheiten vermitteln. Für Teams, die ihre Fähigkeiten erweitern möchten, bietet die Plattform außerdem eine wachsende Bibliothek mit über 130 KI/LLM-bezogenen Lernaktivitäten, darunter Themen wie Coding with AI, Intro to AI Risk & Security und die OWASP Top 10 for LLM Applications. Fordern Sie eine Demo an, um mehr zu erfahren.

Klicken Sie auf den unten stehenden Link und laden Sie die PDF-Datei dieser Ressource herunter.
Secure Code Warrior ist für Ihr Unternehmen da, um Sie dabei zu unterstützen, Ihren Code über den gesamten Lebenszyklus der Softwareentwicklung hinweg zu sichern und eine Kultur zu schaffen, in der Cybersicherheit an erster Stelle steht. Ganz gleich, ob Sie AppSec-Manager, Entwickler, CISO oder ein anderer Sicherheitsverantwortlicher sind, wir können Ihrem Unternehmen helfen, die mit unsicherem Code verbundenen Risiken zu reduzieren.
Bericht ansehenDemo buchenShannon Holt ist eine Vermarkterin von Cybersicherheitsprodukten mit Hintergrund in Anwendungssicherheit, Cloud-Sicherheitsdiensten und Compliance-Standards wie PCI-DSS und HITRUST.
Shannon Holt ist Produktvermarkterin für Cybersicherheit mit Erfahrung in Anwendungssicherheit, Cloud-Sicherheitsdiensten und Compliance-Standards wie PCI-DSS und HITRUST. Ihr großes Ziel ist es, sichere Entwicklung und Compliance für technische Teams praktikabler und zugänglicher zu gestalten und die Lücke zwischen Sicherheitserwartungen und der Realität moderner Softwareentwicklung zu schließen.
Ihr Leitfaden für die Einführungsreihe zur AI/LLM-Sicherheit
KI-Codierungstools wie GitHub Copilot, Cursor und andere verändern die Art und Weise, wie Software erstellt wird - aber sie bringen auch neue Sicherheitsherausforderungen mit sich, die Entwickler verstehen müssen, um sichere, zuverlässige Anwendungen zu erstellen. Um Teams bei der sicheren Einführung von KI zu unterstützen, haben wir eine kostenlose, 12-wöchige KI/LLM-Sicherheitseinführungsvideoserie auf YouTube erstellt.
Dieser Beitrag dient als zentrale Anlaufstelle für die Serie. Jede Woche aktualisieren wir ihn mit einem neuen Video und einer Beschreibung, die wichtige Konzepte wie Prompt Injection, Data und Model Poisoning, Risiken in der Lieferkette, sicheres Prompting und mehr behandeln. Setzen Sie ein Lesezeichen auf diese Seite, um wöchentlich mitzuverfolgen, oder abonnieren Sie unseren YouTube-Kanal, um jede Lektion zu erhalten, sobald sie veröffentlicht wird.
Wenn Sie über diese einführenden Lektionen hinaus tiefer eintauchen möchten, erkunden Sie die gesamte AI/LLM-Sammlung auf der SCW-Plattform oder fordern Sie eine Demo an, wenn Sie noch kein Kunde sind. Abonnieren Sie unseren YouTube-Kanal, um jede neue Folge zu sehen, sobald sie veröffentlicht wird. Und wenn Sie über die neuesten Inhalte, Updates und Ressourcen auf dem Laufenden bleiben möchten, melden Sie sich hier an, um unserer Gemeinschaft von Entwicklern und Sicherheitsverantwortlichen beizutreten.
Episoden (Wöchentlich aktualisiert)
Woche 1 - KI-Coding-Risiken: Gefahren bei der Verwendung von LLMs
In diesem Video untersuchen wir die potenziellen Gefahren bei der Verwendung von KI/LLMs beim Schreiben von Code und zeigen die wichtigsten Risiken auf, denen Entwickler bei der Integration von KI-gestützten Tools in ihre Arbeitsabläufe ausgesetzt sind.
Tiefer gehen mit Secure Code Warrior
Diese Videos sollen in die Kernkonzepte der KI/LLM-Sicherheit einführen, aber es gibt noch so viel mehr auf der Secure Code Warrior zu entdecken. Tauchen Sie ein in KI-Herausforderungen, die eine reale KI-gestützte Codeüberprüfung und -behebung simulieren, erforschen Sie unsere KI/LLM-Richtlinien, die sich an den Best Practices der Branche orientieren, und arbeiten Sie sich durch Walkthroughs, Missions, Quests und Kursvorlagen, die praktische Erfahrungen beim Aufbau sicherer Codierungsgewohnheiten vermitteln. Für Teams, die ihre Fähigkeiten erweitern möchten, bietet die Plattform außerdem eine wachsende Bibliothek mit über 130 KI/LLM-bezogenen Lernaktivitäten, darunter Themen wie Coding with AI, Intro to AI Risk & Security und die OWASP Top 10 for LLM Applications. Fordern Sie eine Demo an, um mehr zu erfahren.
Inhaltsübersicht
Shannon Holt ist eine Vermarkterin von Cybersicherheitsprodukten mit Hintergrund in Anwendungssicherheit, Cloud-Sicherheitsdiensten und Compliance-Standards wie PCI-DSS und HITRUST.

Secure Code Warrior ist für Ihr Unternehmen da, um Sie dabei zu unterstützen, Ihren Code über den gesamten Lebenszyklus der Softwareentwicklung hinweg zu sichern und eine Kultur zu schaffen, in der Cybersicherheit an erster Stelle steht. Ganz gleich, ob Sie AppSec-Manager, Entwickler, CISO oder ein anderer Sicherheitsverantwortlicher sind, wir können Ihrem Unternehmen helfen, die mit unsicherem Code verbundenen Risiken zu reduzieren.
Demo buchenHerunterladenRessourcen für den Einstieg
Vibe Coding: Praktischer Leitfaden zur Aktualisierung Ihrer AppSec-Strategie für KI
In diesem On-Demand-Video erfahren Sie, wie AppSec-Manager durch einen praktischen Ansatz, bei dem die Schulung im Vordergrund steht, in die Lage versetzt werden, KI zu fördern, anstatt sie zu blockieren. Wir zeigen Ihnen, wie Sie Secure Code Warrior (SCW) nutzen können, um Ihre AppSec-Strategie strategisch für das Zeitalter der KI-Codierassistenten zu aktualisieren.
KI-Codier-Assistenten: Ein Leitfaden zur sicherheitsgerechten Navigation für die nächste Generation von Entwicklern
Große Sprachmodelle bieten unwiderstehliche Geschwindigkeits- und Produktivitätsvorteile, aber sie bringen auch unbestreitbare Risiken für das Unternehmen mit sich. Herkömmliche Sicherheitsleitplanken reichen nicht aus, um die Flut zu kontrollieren. Entwickler benötigen präzise, geprüfte Sicherheitskenntnisse, um Sicherheitslücken bereits zu Beginn des Softwareentwicklungszyklus zu erkennen und zu verhindern.
Ressourcen für den Einstieg
SCW startet kostenlose KI/LLM-Sicherheitsvideoserie für Entwickler
Wir stellen unsere kostenlose 12-wöchige KI/LLM-Sicherheitsvideoserie vor! Lernen Sie die grundlegenden Risiken von KI-gestützter Programmierung kennen und erfahren Sie, wie Sie sicherere Anwendungen erstellen können.
10.000+ Lernaktivitäten für sicheren Code: Ein Jahrzehnt des Risikomanagements für Entwickler
Wir feiern mehr als 10.000 Aktivitäten zum Erlernen von sicherem Code und ein Jahrzehnt, in dem wir Entwicklern geholfen haben, Risiken zu reduzieren, die Codequalität zu verbessern und die KI-gestützte Entwicklung selbstbewusst anzugehen.