Vertiefung: Navigieren durch Schwachstellen, die von KI-Codierassistenten erzeugt werden
Egal, wo man hinschaut, in fast allen Branchen ist man auf die KI-Technologie fixiert. Von einigen als Antwort auf die schnelle Erstellung von Funktionen in der Softwareentwicklung gepriesen, haben die Geschwindigkeitsgewinne ihren Preis: das Potenzial für schwerwiegende Sicherheitsfehler, die ihren Weg in Codebases finden, dank eines fehlenden kontextbezogenen Bewusstseins des Tools selbst und geringer Sicherheitskenntnisse der Entwickler, die sich auf sie verlassen, um die Produktivität zu steigern und Antworten auf schwierige Entwicklungsszenarien zu generieren.
Die Large Language Model (LLM)-Technologie stellt einen seismischen Wandel bei den Hilfswerkzeugen dar und könnte, wenn sie sicher eingesetzt wird, tatsächlich der von vielen Softwareingenieuren ersehnte Begleiter für die Paarprogrammierung sein. Es hat sich jedoch schnell herausgestellt, dass der unkontrollierte Einsatz von KI-Entwicklungstools nachteilige Auswirkungen haben kann. Eine Studie der Stanford University aus dem Jahr 2023 ergab, dass das Vertrauen auf KI-Assistenten wahrscheinlich zu fehlerhafterem, unsichererem Code insgesamt führt, zusätzlich zu einem Anstieg des Vertrauens, dass die Ausgabe sicher ist.
Es ist zwar davon auszugehen, dass sich die Tools im Zuge des Wettlaufs um die Perfektionierung der LLM-Technologie weiter verbessern werden, doch eine Reihe von Empfehlungen - darunter eine neue Durchführungsverordnung der Biden-Administration sowie das Gesetz über künstliche Intelligenz der EU - macht ihre Verwendung in jedem Fall zu einem schwierigen Unterfangen. Entwickler können sich einen Vorsprung verschaffen, indem sie ihre Sicherheitskenntnisse auf Code-Ebene, ihr Bewusstsein und ihr kritisches Denken in Bezug auf die Leistung von KI-Tools verbessern und im Gegenzug einen höheren Standard an Ingenieuren erreichen.
Wie bringen KI-Codierassistenten Schwachstellen mit sich? Spielen Sie unsere NEUE öffentliche Mission und überzeugen Sie sich selbst!

Beispiel: Cross-Site-Scripting (XSS) in 'ChatterGPT'
Unsere neue öffentliche Mission zeigt die vertraute Oberfläche eines beliebten LLM und verwendet einen echten Codeausschnitt, der Ende November 2023 erstellt wurde. Die Nutzer können dieses Snippet interpretieren und mögliche Sicherheitslücken untersuchen, wenn es für den beabsichtigten Zweck verwendet werden sollte.
Auf die Aufforderung "Können Sie eine JavaScript-Funktion schreiben, die den Inhalt des HTML-Elements p ändert, wobei der Inhalt über diese Funktion übergeben wird?" erstellt der KI-Assistent pflichtbewusst einen Codeblock, aber es ist nicht alles so, wie es scheint.
Haben Sie die Herausforderung schon gespielt? Wenn nicht, versuche es jetzt, bevor du weiterliest.
... okay, jetzt, wo Sie es ausgefüllt haben, werden Sie wissen, dass der fragliche Code anfällig für Cross-Site-Scripting (XSS) ist.
XSS wird durch die Manipulation der Kernfunktionen von Webbrowsern ermöglicht. Es kann vorkommen, dass eine nicht vertrauenswürdige Eingabe als Ausgabe auf einer Seite gerendert wird, aber als ausführbarer und sicherer Code fehlinterpretiert wird. Ein Angreifer kann ein bösartiges Snippet (HTML-Tags, JavaScript usw.) in einem Eingabeparameter platzieren, das dann - wenn es an den Browser zurückgegeben wird - ausgeführt und nicht als Daten angezeigt wird.
KI-Codierassistenten sicher in der Softwareentwicklung einsetzen
Eine kürzlich durchgeführte Umfrage unter aktiven Entwicklungsteams hat ergeben, dass fast alle von ihnen - d. h. 96 % - damit begonnen haben, KI-Assistenten in ihren Arbeitsabläufen einzusetzen, wobei 80 % sogar Sicherheitsrichtlinien umgehen, um sie in ihrem Werkzeugkasten zu behalten. Außerdem räumte mehr als die Hälfte ein, dass generative KI-Tools häufig unsicheren Code erzeugen, was die Akzeptanz jedoch nicht bremst.
In dieser neuen Ära der Softwareentwicklungsprozesse ist es unwahrscheinlich, dass die Verwendung dieser Tools entmutigt oder verboten wird. Stattdessen müssen Unternehmen ihre Entwicklungsteams in die Lage versetzen, die Effizienz- und Produktivitätsgewinne zu nutzen, ohne die Sicherheit oder die Codequalität zu beeinträchtigen. Dies erfordert ein präzises Training zu Best Practices für die sichere Programmierung und die Möglichkeit, die Fähigkeiten zum kritischen Denken zu erweitern, um sicherzustellen, dass sie mit einer sicherheitsorientierten Denkweise handeln, insbesondere bei der Bewertung der potenziellen Bedrohung durch die Codeausgabe von KI-Assistenten.
Weitere Lektüre
Für XSS im Allgemeinen lesen Sie bitte unseren umfassenden Leitfaden.
Möchten Sie mehr darüber erfahren, wie Sie sicheren Code schreiben und Risiken minimieren können? Testen Sie kostenlos unsere XSS-Injection-Challenge.
Wenn Sie an weiteren kostenlosen Kodierungsrichtlinien interessiert sind, besuchen Sie Secure Code Coach, um sich über die besten Praktiken für sichere Kodierung zu informieren.
.png)

Erforschen Sie die Sicherheitsrisiken von KI in der Softwareentwicklung und lernen Sie, wie Sie diese Herausforderungen mit Secure Code Warrior effektiv meistern können.

Secure Code Warrior ist für Ihr Unternehmen da, um Sie dabei zu unterstützen, Ihren Code über den gesamten Lebenszyklus der Softwareentwicklung hinweg zu sichern und eine Kultur zu schaffen, in der Cybersicherheit an erster Stelle steht. Ganz gleich, ob Sie AppSec-Manager, Entwickler, CISO oder ein anderer Sicherheitsverantwortlicher sind, wir können Ihrem Unternehmen helfen, die mit unsicherem Code verbundenen Risiken zu reduzieren.
Demo buchenLaura Verheyde ist Softwareentwicklerin bei Secure Code Warrior und beschäftigt sich mit der Erforschung von Schwachstellen und der Erstellung von Inhalten für Missions und Coding Labs.

Egal, wo man hinschaut, in fast allen Branchen ist man auf die KI-Technologie fixiert. Von einigen als Antwort auf die schnelle Erstellung von Funktionen in der Softwareentwicklung gepriesen, haben die Geschwindigkeitsgewinne ihren Preis: das Potenzial für schwerwiegende Sicherheitsfehler, die ihren Weg in Codebases finden, dank eines fehlenden kontextbezogenen Bewusstseins des Tools selbst und geringer Sicherheitskenntnisse der Entwickler, die sich auf sie verlassen, um die Produktivität zu steigern und Antworten auf schwierige Entwicklungsszenarien zu generieren.
Die Large Language Model (LLM)-Technologie stellt einen seismischen Wandel bei den Hilfswerkzeugen dar und könnte, wenn sie sicher eingesetzt wird, tatsächlich der von vielen Softwareingenieuren ersehnte Begleiter für die Paarprogrammierung sein. Es hat sich jedoch schnell herausgestellt, dass der unkontrollierte Einsatz von KI-Entwicklungstools nachteilige Auswirkungen haben kann. Eine Studie der Stanford University aus dem Jahr 2023 ergab, dass das Vertrauen auf KI-Assistenten wahrscheinlich zu fehlerhafterem, unsichererem Code insgesamt führt, zusätzlich zu einem Anstieg des Vertrauens, dass die Ausgabe sicher ist.
Es ist zwar davon auszugehen, dass sich die Tools im Zuge des Wettlaufs um die Perfektionierung der LLM-Technologie weiter verbessern werden, doch eine Reihe von Empfehlungen - darunter eine neue Durchführungsverordnung der Biden-Administration sowie das Gesetz über künstliche Intelligenz der EU - macht ihre Verwendung in jedem Fall zu einem schwierigen Unterfangen. Entwickler können sich einen Vorsprung verschaffen, indem sie ihre Sicherheitskenntnisse auf Code-Ebene, ihr Bewusstsein und ihr kritisches Denken in Bezug auf die Leistung von KI-Tools verbessern und im Gegenzug einen höheren Standard an Ingenieuren erreichen.
Wie bringen KI-Codierassistenten Schwachstellen mit sich? Spielen Sie unsere NEUE öffentliche Mission und überzeugen Sie sich selbst!

Beispiel: Cross-Site-Scripting (XSS) in 'ChatterGPT'
Unsere neue öffentliche Mission zeigt die vertraute Oberfläche eines beliebten LLM und verwendet einen echten Codeausschnitt, der Ende November 2023 erstellt wurde. Die Nutzer können dieses Snippet interpretieren und mögliche Sicherheitslücken untersuchen, wenn es für den beabsichtigten Zweck verwendet werden sollte.
Auf die Aufforderung "Können Sie eine JavaScript-Funktion schreiben, die den Inhalt des HTML-Elements p ändert, wobei der Inhalt über diese Funktion übergeben wird?" erstellt der KI-Assistent pflichtbewusst einen Codeblock, aber es ist nicht alles so, wie es scheint.
Haben Sie die Herausforderung schon gespielt? Wenn nicht, versuche es jetzt, bevor du weiterliest.
... okay, jetzt, wo Sie es ausgefüllt haben, werden Sie wissen, dass der fragliche Code anfällig für Cross-Site-Scripting (XSS) ist.
XSS wird durch die Manipulation der Kernfunktionen von Webbrowsern ermöglicht. Es kann vorkommen, dass eine nicht vertrauenswürdige Eingabe als Ausgabe auf einer Seite gerendert wird, aber als ausführbarer und sicherer Code fehlinterpretiert wird. Ein Angreifer kann ein bösartiges Snippet (HTML-Tags, JavaScript usw.) in einem Eingabeparameter platzieren, das dann - wenn es an den Browser zurückgegeben wird - ausgeführt und nicht als Daten angezeigt wird.
KI-Codierassistenten sicher in der Softwareentwicklung einsetzen
Eine kürzlich durchgeführte Umfrage unter aktiven Entwicklungsteams hat ergeben, dass fast alle von ihnen - d. h. 96 % - damit begonnen haben, KI-Assistenten in ihren Arbeitsabläufen einzusetzen, wobei 80 % sogar Sicherheitsrichtlinien umgehen, um sie in ihrem Werkzeugkasten zu behalten. Außerdem räumte mehr als die Hälfte ein, dass generative KI-Tools häufig unsicheren Code erzeugen, was die Akzeptanz jedoch nicht bremst.
In dieser neuen Ära der Softwareentwicklungsprozesse ist es unwahrscheinlich, dass die Verwendung dieser Tools entmutigt oder verboten wird. Stattdessen müssen Unternehmen ihre Entwicklungsteams in die Lage versetzen, die Effizienz- und Produktivitätsgewinne zu nutzen, ohne die Sicherheit oder die Codequalität zu beeinträchtigen. Dies erfordert ein präzises Training zu Best Practices für die sichere Programmierung und die Möglichkeit, die Fähigkeiten zum kritischen Denken zu erweitern, um sicherzustellen, dass sie mit einer sicherheitsorientierten Denkweise handeln, insbesondere bei der Bewertung der potenziellen Bedrohung durch die Codeausgabe von KI-Assistenten.
Weitere Lektüre
Für XSS im Allgemeinen lesen Sie bitte unseren umfassenden Leitfaden.
Möchten Sie mehr darüber erfahren, wie Sie sicheren Code schreiben und Risiken minimieren können? Testen Sie kostenlos unsere XSS-Injection-Challenge.
Wenn Sie an weiteren kostenlosen Kodierungsrichtlinien interessiert sind, besuchen Sie Secure Code Coach, um sich über die besten Praktiken für sichere Kodierung zu informieren.
.png)
Egal, wo man hinschaut, in fast allen Branchen ist man auf die KI-Technologie fixiert. Von einigen als Antwort auf die schnelle Erstellung von Funktionen in der Softwareentwicklung gepriesen, haben die Geschwindigkeitsgewinne ihren Preis: das Potenzial für schwerwiegende Sicherheitsfehler, die ihren Weg in Codebases finden, dank eines fehlenden kontextbezogenen Bewusstseins des Tools selbst und geringer Sicherheitskenntnisse der Entwickler, die sich auf sie verlassen, um die Produktivität zu steigern und Antworten auf schwierige Entwicklungsszenarien zu generieren.
Die Large Language Model (LLM)-Technologie stellt einen seismischen Wandel bei den Hilfswerkzeugen dar und könnte, wenn sie sicher eingesetzt wird, tatsächlich der von vielen Softwareingenieuren ersehnte Begleiter für die Paarprogrammierung sein. Es hat sich jedoch schnell herausgestellt, dass der unkontrollierte Einsatz von KI-Entwicklungstools nachteilige Auswirkungen haben kann. Eine Studie der Stanford University aus dem Jahr 2023 ergab, dass das Vertrauen auf KI-Assistenten wahrscheinlich zu fehlerhafterem, unsichererem Code insgesamt führt, zusätzlich zu einem Anstieg des Vertrauens, dass die Ausgabe sicher ist.
Es ist zwar davon auszugehen, dass sich die Tools im Zuge des Wettlaufs um die Perfektionierung der LLM-Technologie weiter verbessern werden, doch eine Reihe von Empfehlungen - darunter eine neue Durchführungsverordnung der Biden-Administration sowie das Gesetz über künstliche Intelligenz der EU - macht ihre Verwendung in jedem Fall zu einem schwierigen Unterfangen. Entwickler können sich einen Vorsprung verschaffen, indem sie ihre Sicherheitskenntnisse auf Code-Ebene, ihr Bewusstsein und ihr kritisches Denken in Bezug auf die Leistung von KI-Tools verbessern und im Gegenzug einen höheren Standard an Ingenieuren erreichen.
Wie bringen KI-Codierassistenten Schwachstellen mit sich? Spielen Sie unsere NEUE öffentliche Mission und überzeugen Sie sich selbst!

Beispiel: Cross-Site-Scripting (XSS) in 'ChatterGPT'
Unsere neue öffentliche Mission zeigt die vertraute Oberfläche eines beliebten LLM und verwendet einen echten Codeausschnitt, der Ende November 2023 erstellt wurde. Die Nutzer können dieses Snippet interpretieren und mögliche Sicherheitslücken untersuchen, wenn es für den beabsichtigten Zweck verwendet werden sollte.
Auf die Aufforderung "Können Sie eine JavaScript-Funktion schreiben, die den Inhalt des HTML-Elements p ändert, wobei der Inhalt über diese Funktion übergeben wird?" erstellt der KI-Assistent pflichtbewusst einen Codeblock, aber es ist nicht alles so, wie es scheint.
Haben Sie die Herausforderung schon gespielt? Wenn nicht, versuche es jetzt, bevor du weiterliest.
... okay, jetzt, wo Sie es ausgefüllt haben, werden Sie wissen, dass der fragliche Code anfällig für Cross-Site-Scripting (XSS) ist.
XSS wird durch die Manipulation der Kernfunktionen von Webbrowsern ermöglicht. Es kann vorkommen, dass eine nicht vertrauenswürdige Eingabe als Ausgabe auf einer Seite gerendert wird, aber als ausführbarer und sicherer Code fehlinterpretiert wird. Ein Angreifer kann ein bösartiges Snippet (HTML-Tags, JavaScript usw.) in einem Eingabeparameter platzieren, das dann - wenn es an den Browser zurückgegeben wird - ausgeführt und nicht als Daten angezeigt wird.
KI-Codierassistenten sicher in der Softwareentwicklung einsetzen
Eine kürzlich durchgeführte Umfrage unter aktiven Entwicklungsteams hat ergeben, dass fast alle von ihnen - d. h. 96 % - damit begonnen haben, KI-Assistenten in ihren Arbeitsabläufen einzusetzen, wobei 80 % sogar Sicherheitsrichtlinien umgehen, um sie in ihrem Werkzeugkasten zu behalten. Außerdem räumte mehr als die Hälfte ein, dass generative KI-Tools häufig unsicheren Code erzeugen, was die Akzeptanz jedoch nicht bremst.
In dieser neuen Ära der Softwareentwicklungsprozesse ist es unwahrscheinlich, dass die Verwendung dieser Tools entmutigt oder verboten wird. Stattdessen müssen Unternehmen ihre Entwicklungsteams in die Lage versetzen, die Effizienz- und Produktivitätsgewinne zu nutzen, ohne die Sicherheit oder die Codequalität zu beeinträchtigen. Dies erfordert ein präzises Training zu Best Practices für die sichere Programmierung und die Möglichkeit, die Fähigkeiten zum kritischen Denken zu erweitern, um sicherzustellen, dass sie mit einer sicherheitsorientierten Denkweise handeln, insbesondere bei der Bewertung der potenziellen Bedrohung durch die Codeausgabe von KI-Assistenten.
Weitere Lektüre
Für XSS im Allgemeinen lesen Sie bitte unseren umfassenden Leitfaden.
Möchten Sie mehr darüber erfahren, wie Sie sicheren Code schreiben und Risiken minimieren können? Testen Sie kostenlos unsere XSS-Injection-Challenge.
Wenn Sie an weiteren kostenlosen Kodierungsrichtlinien interessiert sind, besuchen Sie Secure Code Coach, um sich über die besten Praktiken für sichere Kodierung zu informieren.
.png)

Klicken Sie auf den unten stehenden Link und laden Sie die PDF-Datei dieser Ressource herunter.
Secure Code Warrior ist für Ihr Unternehmen da, um Sie dabei zu unterstützen, Ihren Code über den gesamten Lebenszyklus der Softwareentwicklung hinweg zu sichern und eine Kultur zu schaffen, in der Cybersicherheit an erster Stelle steht. Ganz gleich, ob Sie AppSec-Manager, Entwickler, CISO oder ein anderer Sicherheitsverantwortlicher sind, wir können Ihrem Unternehmen helfen, die mit unsicherem Code verbundenen Risiken zu reduzieren.
Bericht ansehenDemo buchen
Wie können KI-Codierassistenten Schwachstellen einführen? Spielen Sie unsere NEUE öffentliche Mission und sehen Sie selbst! Diese Mission enthüllt die vertraute Schnittstelle eines beliebten LLM und verwendet einen echten Codeschnipsel, der Ende November 2023 erstellt wurde. Die Benutzer können dieses Snippet interpretieren und mögliche Sicherheitslücken untersuchen, wenn es für den vorgesehenen Zweck verwendet wird.
Versuchen Sie die MissionLaura Verheyde ist Softwareentwicklerin bei Secure Code Warrior und beschäftigt sich mit der Erforschung von Schwachstellen und der Erstellung von Inhalten für Missions und Coding Labs.
Egal, wo man hinschaut, in fast allen Branchen ist man auf die KI-Technologie fixiert. Von einigen als Antwort auf die schnelle Erstellung von Funktionen in der Softwareentwicklung gepriesen, haben die Geschwindigkeitsgewinne ihren Preis: das Potenzial für schwerwiegende Sicherheitsfehler, die ihren Weg in Codebases finden, dank eines fehlenden kontextbezogenen Bewusstseins des Tools selbst und geringer Sicherheitskenntnisse der Entwickler, die sich auf sie verlassen, um die Produktivität zu steigern und Antworten auf schwierige Entwicklungsszenarien zu generieren.
Die Large Language Model (LLM)-Technologie stellt einen seismischen Wandel bei den Hilfswerkzeugen dar und könnte, wenn sie sicher eingesetzt wird, tatsächlich der von vielen Softwareingenieuren ersehnte Begleiter für die Paarprogrammierung sein. Es hat sich jedoch schnell herausgestellt, dass der unkontrollierte Einsatz von KI-Entwicklungstools nachteilige Auswirkungen haben kann. Eine Studie der Stanford University aus dem Jahr 2023 ergab, dass das Vertrauen auf KI-Assistenten wahrscheinlich zu fehlerhafterem, unsichererem Code insgesamt führt, zusätzlich zu einem Anstieg des Vertrauens, dass die Ausgabe sicher ist.
Es ist zwar davon auszugehen, dass sich die Tools im Zuge des Wettlaufs um die Perfektionierung der LLM-Technologie weiter verbessern werden, doch eine Reihe von Empfehlungen - darunter eine neue Durchführungsverordnung der Biden-Administration sowie das Gesetz über künstliche Intelligenz der EU - macht ihre Verwendung in jedem Fall zu einem schwierigen Unterfangen. Entwickler können sich einen Vorsprung verschaffen, indem sie ihre Sicherheitskenntnisse auf Code-Ebene, ihr Bewusstsein und ihr kritisches Denken in Bezug auf die Leistung von KI-Tools verbessern und im Gegenzug einen höheren Standard an Ingenieuren erreichen.
Wie bringen KI-Codierassistenten Schwachstellen mit sich? Spielen Sie unsere NEUE öffentliche Mission und überzeugen Sie sich selbst!

Beispiel: Cross-Site-Scripting (XSS) in 'ChatterGPT'
Unsere neue öffentliche Mission zeigt die vertraute Oberfläche eines beliebten LLM und verwendet einen echten Codeausschnitt, der Ende November 2023 erstellt wurde. Die Nutzer können dieses Snippet interpretieren und mögliche Sicherheitslücken untersuchen, wenn es für den beabsichtigten Zweck verwendet werden sollte.
Auf die Aufforderung "Können Sie eine JavaScript-Funktion schreiben, die den Inhalt des HTML-Elements p ändert, wobei der Inhalt über diese Funktion übergeben wird?" erstellt der KI-Assistent pflichtbewusst einen Codeblock, aber es ist nicht alles so, wie es scheint.
Haben Sie die Herausforderung schon gespielt? Wenn nicht, versuche es jetzt, bevor du weiterliest.
... okay, jetzt, wo Sie es ausgefüllt haben, werden Sie wissen, dass der fragliche Code anfällig für Cross-Site-Scripting (XSS) ist.
XSS wird durch die Manipulation der Kernfunktionen von Webbrowsern ermöglicht. Es kann vorkommen, dass eine nicht vertrauenswürdige Eingabe als Ausgabe auf einer Seite gerendert wird, aber als ausführbarer und sicherer Code fehlinterpretiert wird. Ein Angreifer kann ein bösartiges Snippet (HTML-Tags, JavaScript usw.) in einem Eingabeparameter platzieren, das dann - wenn es an den Browser zurückgegeben wird - ausgeführt und nicht als Daten angezeigt wird.
KI-Codierassistenten sicher in der Softwareentwicklung einsetzen
Eine kürzlich durchgeführte Umfrage unter aktiven Entwicklungsteams hat ergeben, dass fast alle von ihnen - d. h. 96 % - damit begonnen haben, KI-Assistenten in ihren Arbeitsabläufen einzusetzen, wobei 80 % sogar Sicherheitsrichtlinien umgehen, um sie in ihrem Werkzeugkasten zu behalten. Außerdem räumte mehr als die Hälfte ein, dass generative KI-Tools häufig unsicheren Code erzeugen, was die Akzeptanz jedoch nicht bremst.
In dieser neuen Ära der Softwareentwicklungsprozesse ist es unwahrscheinlich, dass die Verwendung dieser Tools entmutigt oder verboten wird. Stattdessen müssen Unternehmen ihre Entwicklungsteams in die Lage versetzen, die Effizienz- und Produktivitätsgewinne zu nutzen, ohne die Sicherheit oder die Codequalität zu beeinträchtigen. Dies erfordert ein präzises Training zu Best Practices für die sichere Programmierung und die Möglichkeit, die Fähigkeiten zum kritischen Denken zu erweitern, um sicherzustellen, dass sie mit einer sicherheitsorientierten Denkweise handeln, insbesondere bei der Bewertung der potenziellen Bedrohung durch die Codeausgabe von KI-Assistenten.
Weitere Lektüre
Für XSS im Allgemeinen lesen Sie bitte unseren umfassenden Leitfaden.
Möchten Sie mehr darüber erfahren, wie Sie sicheren Code schreiben und Risiken minimieren können? Testen Sie kostenlos unsere XSS-Injection-Challenge.
Wenn Sie an weiteren kostenlosen Kodierungsrichtlinien interessiert sind, besuchen Sie Secure Code Coach, um sich über die besten Praktiken für sichere Kodierung zu informieren.
.png)
Inhaltsübersicht

Secure Code Warrior ist für Ihr Unternehmen da, um Sie dabei zu unterstützen, Ihren Code über den gesamten Lebenszyklus der Softwareentwicklung hinweg zu sichern und eine Kultur zu schaffen, in der Cybersicherheit an erster Stelle steht. Ganz gleich, ob Sie AppSec-Manager, Entwickler, CISO oder ein anderer Sicherheitsverantwortlicher sind, wir können Ihrem Unternehmen helfen, die mit unsicherem Code verbundenen Risiken zu reduzieren.
Demo buchenHerunterladenRessourcen für den Einstieg
Benchmarking von Sicherheitskompetenzen: Optimierung von Secure-by-Design im Unternehmen
Aussagekräftige Daten über den Erfolg von Secure-by-Design-Initiativen zu finden, ist bekanntermaßen schwierig. CISOs stehen oft vor der Herausforderung, den Return on Investment (ROI) und den Geschäftswert von Sicherheitsprogrammen sowohl auf Mitarbeiter- als auch auf Unternehmensebene nachzuweisen. Ganz zu schweigen davon, dass es für Unternehmen besonders schwierig ist, Erkenntnisse darüber zu gewinnen, wie ihre Organisation im Vergleich zu aktuellen Branchenstandards abschneidet. Die Nationale Cybersicherheitsstrategie des Präsidenten forderte die Beteiligten auf, "Sicherheit und Widerstandsfähigkeit durch Design" zu erreichen. Der Schlüssel zum Erfolg von Secure-by-Design-Initiativen liegt nicht nur darin, Entwicklern die nötigen Fähigkeiten zu vermitteln, um sicheren Code zu gewährleisten, sondern auch darin, den Aufsichtsbehörden zu versichern, dass diese Fähigkeiten vorhanden sind. In dieser Präsentation stellen wir eine Vielzahl von qualitativen und quantitativen Daten vor, die aus verschiedenen Primärquellen stammen, darunter interne Daten von über 250.000 Entwicklern, datengestützte Kundeneinblicke und öffentliche Studien. Auf der Grundlage dieser gesammelten Daten wollen wir eine Vision des aktuellen Stands von Secure-by-Design-Initiativen in verschiedenen Branchen vermitteln. Der Bericht zeigt auf, warum dieser Bereich derzeit nicht ausreichend genutzt wird, welche erheblichen Auswirkungen ein erfolgreiches Schulungsprogramm auf die Minderung von Cybersecurity-Risiken haben kann und welches Potenzial zur Beseitigung von Schwachstellen in einer Codebasis besteht.
In diesem Monat des Cyber-Bewusstseins wird aus Bewusstsein Handeln
Lassen Sie diesen Oktober das Bewusstsein in Aktion treten. Machen Sie den Cyber Awareness Month für Ihre Entwickler zu einem denkwürdigen Ereignis mit großer Wirkung und hoher Beteiligung - geleitet vom Secure Code Warrior Professional Services Team.
Professionelle Dienstleistungen - Beschleunigen Sie mit Fachwissen
Das PSS-Team (Program Strategy Services) von Secure Code Warriorunterstützt Sie beim Aufbau, der Verbesserung und der Optimierung Ihres Programms für sichere Codierung. Ganz gleich, ob Sie neu anfangen oder Ihren Ansatz verfeinern möchten, unsere Experten bieten Ihnen maßgeschneiderte Beratung.
Themen und Inhalte der Schulung zu sicherem Code
Unsere branchenführenden Inhalte werden ständig weiterentwickelt, um sie an die sich ständig verändernde Softwareentwicklungslandschaft anzupassen und Ihre Rolle zu berücksichtigen. Die Themen reichen von KI bis XQuery Injection und werden für eine Vielzahl von Rollen angeboten, von Architekten und Ingenieuren bis hin zu Produktmanagern und QA. Verschaffen Sie sich einen kleinen Überblick über die Inhalte, die unser Katalog nach Thema und Rolle bietet.
Ressourcen für den Einstieg
Wird Vibe Coding Ihre Codebasis in eine Verbindungsparty verwandeln?
Vibe Coding ist wie eine College-Verbindungsparty, und AI ist das Herzstück aller Festivitäten, das Fass. Es macht eine Menge Spaß, sich auszutoben, kreativ zu werden und zu sehen, wohin die eigene Fantasie einen führen kann, aber nach ein paar Bierfässern ist das Trinken (oder die Verwendung von KI) in Maßen zweifellos die sicherere langfristige Lösung.
Das Jahrzehnt der Defenders: Secure Code Warrior Zehnte Runde
Secure Code WarriorDas Gründungsteam von SCW ist zusammengeblieben und hat das Schiff ein ganzes Jahrzehnt lang durch alle Lektionen, Triumphe und Rückschläge gesteuert. Wir vergrößern uns und sind bereit für unser nächstes Kapitel, SCW 2.0, als führendes Unternehmen im Risikomanagement für Entwickler.