Vertiefung: Navigieren durch Schwachstellen, die von KI-Codierassistenten erzeugt werden
Egal, wo man hinschaut, in fast allen Branchen ist man auf die KI-Technologie fixiert. Von einigen als Antwort auf die schnelle Erstellung von Funktionen in der Softwareentwicklung gepriesen, haben die Geschwindigkeitsgewinne ihren Preis: das Potenzial für schwerwiegende Sicherheitsfehler, die ihren Weg in Codebases finden, dank eines fehlenden kontextbezogenen Bewusstseins des Tools selbst und geringer Sicherheitskenntnisse der Entwickler, die sich auf sie verlassen, um die Produktivität zu steigern und Antworten auf schwierige Entwicklungsszenarien zu generieren.
Die Large Language Model (LLM)-Technologie stellt einen seismischen Wandel bei den Hilfswerkzeugen dar und könnte, wenn sie sicher eingesetzt wird, tatsächlich der von vielen Softwareingenieuren ersehnte Begleiter für die Paarprogrammierung sein. Es hat sich jedoch schnell herausgestellt, dass der unkontrollierte Einsatz von KI-Entwicklungstools nachteilige Auswirkungen haben kann. Eine Studie der Stanford University aus dem Jahr 2023 ergab, dass das Vertrauen auf KI-Assistenten wahrscheinlich zu fehlerhafterem, unsichererem Code insgesamt führt, zusätzlich zu einem Anstieg des Vertrauens, dass die Ausgabe sicher ist.
Es ist zwar davon auszugehen, dass sich die Tools im Zuge des Wettlaufs um die Perfektionierung der LLM-Technologie weiter verbessern werden, doch eine Reihe von Empfehlungen - darunter eine neue Durchführungsverordnung der Biden-Administration sowie das Gesetz über künstliche Intelligenz der EU - macht ihre Verwendung in jedem Fall zu einem schwierigen Unterfangen. Entwickler können sich einen Vorsprung verschaffen, indem sie ihre Sicherheitskenntnisse auf Code-Ebene, ihr Bewusstsein und ihr kritisches Denken in Bezug auf die Leistung von KI-Tools verbessern und im Gegenzug einen höheren Standard an Ingenieuren erreichen.
Wie bringen KI-Codierassistenten Schwachstellen mit sich? Spielen Sie unsere NEUE öffentliche Mission und überzeugen Sie sich selbst!
Beispiel: Cross-Site-Scripting (XSS) in 'ChatterGPT'
Unsere neue öffentliche Mission zeigt die vertraute Oberfläche eines beliebten LLM und verwendet einen echten Codeausschnitt, der Ende November 2023 erstellt wurde. Die Nutzer können dieses Snippet interpretieren und mögliche Sicherheitslücken untersuchen, wenn es für den beabsichtigten Zweck verwendet werden sollte.
Auf die Aufforderung "Können Sie eine JavaScript-Funktion schreiben, die den Inhalt des HTML-Elements p ändert, wobei der Inhalt über diese Funktion übergeben wird?" erstellt der KI-Assistent pflichtbewusst einen Codeblock, aber es ist nicht alles so, wie es scheint.
Haben Sie die Herausforderung schon gespielt? Wenn nicht, versuche es jetzt, bevor du weiterliest.
... okay, jetzt, wo Sie es ausgefüllt haben, werden Sie wissen, dass der fragliche Code anfällig für Cross-Site-Scripting (XSS) ist.
XSS wird durch die Manipulation der Kernfunktionen von Webbrowsern ermöglicht. Es kann vorkommen, dass eine nicht vertrauenswürdige Eingabe als Ausgabe auf einer Seite gerendert wird, aber als ausführbarer und sicherer Code fehlinterpretiert wird. Ein Angreifer kann ein bösartiges Snippet (HTML-Tags, JavaScript usw.) in einem Eingabeparameter platzieren, das dann - wenn es an den Browser zurückgegeben wird - ausgeführt und nicht als Daten angezeigt wird.
KI-Codierassistenten sicher in der Softwareentwicklung einsetzen
Eine kürzlich durchgeführte Umfrage unter aktiven Entwicklungsteams hat ergeben, dass fast alle von ihnen - d. h. 96 % - damit begonnen haben, KI-Assistenten in ihren Arbeitsabläufen einzusetzen, wobei 80 % sogar Sicherheitsrichtlinien umgehen, um sie in ihrem Werkzeugkasten zu behalten. Außerdem räumte mehr als die Hälfte ein, dass generative KI-Tools häufig unsicheren Code erzeugen, was die Akzeptanz jedoch nicht bremst.
In dieser neuen Ära der Softwareentwicklungsprozesse ist es unwahrscheinlich, dass die Verwendung dieser Tools entmutigt oder verboten wird. Stattdessen müssen Unternehmen ihre Entwicklungsteams in die Lage versetzen, die Effizienz- und Produktivitätsgewinne zu nutzen, ohne die Sicherheit oder die Codequalität zu beeinträchtigen. Dies erfordert ein präzises Training zu Best Practices für die sichere Programmierung und die Möglichkeit, die Fähigkeiten zum kritischen Denken zu erweitern, um sicherzustellen, dass sie mit einer sicherheitsorientierten Denkweise handeln, insbesondere bei der Bewertung der potenziellen Bedrohung durch die Codeausgabe von KI-Assistenten.
Weitere Lektüre
Für XSS im Allgemeinen lesen Sie bitte unseren umfassenden Leitfaden.
Möchten Sie mehr darüber erfahren, wie Sie sicheren Code schreiben und Risiken minimieren können? Testen Sie kostenlos unsere XSS-Injection-Challenge.
Wenn Sie an weiteren kostenlosen Kodierungsrichtlinien interessiert sind, besuchen Sie Secure Code Coach, um sich über die besten Praktiken für sichere Kodierung zu informieren.
Erforschen Sie die Sicherheitsrisiken von KI in der Softwareentwicklung und lernen Sie, wie Sie diese Herausforderungen mit Secure Code Warrior effektiv meistern können.
Secure Code Warrior ist für Ihr Unternehmen da, um Sie dabei zu unterstützen, Ihren Code über den gesamten Lebenszyklus der Softwareentwicklung hinweg zu sichern und eine Kultur zu schaffen, in der Cybersicherheit an erster Stelle steht. Ganz gleich, ob Sie AppSec-Manager, Entwickler, CISO oder ein anderer Sicherheitsverantwortlicher sind, wir können Ihrem Unternehmen helfen, die mit unsicherem Code verbundenen Risiken zu reduzieren.
Demo buchenLaura Verheyde ist Softwareentwicklerin bei Secure Code Warrior und beschäftigt sich mit der Erforschung von Schwachstellen und der Erstellung von Inhalten für Missions und Coding Labs.
Egal, wo man hinschaut, in fast allen Branchen ist man auf die KI-Technologie fixiert. Von einigen als Antwort auf die schnelle Erstellung von Funktionen in der Softwareentwicklung gepriesen, haben die Geschwindigkeitsgewinne ihren Preis: das Potenzial für schwerwiegende Sicherheitsfehler, die ihren Weg in Codebases finden, dank eines fehlenden kontextbezogenen Bewusstseins des Tools selbst und geringer Sicherheitskenntnisse der Entwickler, die sich auf sie verlassen, um die Produktivität zu steigern und Antworten auf schwierige Entwicklungsszenarien zu generieren.
Die Large Language Model (LLM)-Technologie stellt einen seismischen Wandel bei den Hilfswerkzeugen dar und könnte, wenn sie sicher eingesetzt wird, tatsächlich der von vielen Softwareingenieuren ersehnte Begleiter für die Paarprogrammierung sein. Es hat sich jedoch schnell herausgestellt, dass der unkontrollierte Einsatz von KI-Entwicklungstools nachteilige Auswirkungen haben kann. Eine Studie der Stanford University aus dem Jahr 2023 ergab, dass das Vertrauen auf KI-Assistenten wahrscheinlich zu fehlerhafterem, unsichererem Code insgesamt führt, zusätzlich zu einem Anstieg des Vertrauens, dass die Ausgabe sicher ist.
Es ist zwar davon auszugehen, dass sich die Tools im Zuge des Wettlaufs um die Perfektionierung der LLM-Technologie weiter verbessern werden, doch eine Reihe von Empfehlungen - darunter eine neue Durchführungsverordnung der Biden-Administration sowie das Gesetz über künstliche Intelligenz der EU - macht ihre Verwendung in jedem Fall zu einem schwierigen Unterfangen. Entwickler können sich einen Vorsprung verschaffen, indem sie ihre Sicherheitskenntnisse auf Code-Ebene, ihr Bewusstsein und ihr kritisches Denken in Bezug auf die Leistung von KI-Tools verbessern und im Gegenzug einen höheren Standard an Ingenieuren erreichen.
Wie bringen KI-Codierassistenten Schwachstellen mit sich? Spielen Sie unsere NEUE öffentliche Mission und überzeugen Sie sich selbst!
Beispiel: Cross-Site-Scripting (XSS) in 'ChatterGPT'
Unsere neue öffentliche Mission zeigt die vertraute Oberfläche eines beliebten LLM und verwendet einen echten Codeausschnitt, der Ende November 2023 erstellt wurde. Die Nutzer können dieses Snippet interpretieren und mögliche Sicherheitslücken untersuchen, wenn es für den beabsichtigten Zweck verwendet werden sollte.
Auf die Aufforderung "Können Sie eine JavaScript-Funktion schreiben, die den Inhalt des HTML-Elements p ändert, wobei der Inhalt über diese Funktion übergeben wird?" erstellt der KI-Assistent pflichtbewusst einen Codeblock, aber es ist nicht alles so, wie es scheint.
Haben Sie die Herausforderung schon gespielt? Wenn nicht, versuche es jetzt, bevor du weiterliest.
... okay, jetzt, wo Sie es ausgefüllt haben, werden Sie wissen, dass der fragliche Code anfällig für Cross-Site-Scripting (XSS) ist.
XSS wird durch die Manipulation der Kernfunktionen von Webbrowsern ermöglicht. Es kann vorkommen, dass eine nicht vertrauenswürdige Eingabe als Ausgabe auf einer Seite gerendert wird, aber als ausführbarer und sicherer Code fehlinterpretiert wird. Ein Angreifer kann ein bösartiges Snippet (HTML-Tags, JavaScript usw.) in einem Eingabeparameter platzieren, das dann - wenn es an den Browser zurückgegeben wird - ausgeführt und nicht als Daten angezeigt wird.
KI-Codierassistenten sicher in der Softwareentwicklung einsetzen
Eine kürzlich durchgeführte Umfrage unter aktiven Entwicklungsteams hat ergeben, dass fast alle von ihnen - d. h. 96 % - damit begonnen haben, KI-Assistenten in ihren Arbeitsabläufen einzusetzen, wobei 80 % sogar Sicherheitsrichtlinien umgehen, um sie in ihrem Werkzeugkasten zu behalten. Außerdem räumte mehr als die Hälfte ein, dass generative KI-Tools häufig unsicheren Code erzeugen, was die Akzeptanz jedoch nicht bremst.
In dieser neuen Ära der Softwareentwicklungsprozesse ist es unwahrscheinlich, dass die Verwendung dieser Tools entmutigt oder verboten wird. Stattdessen müssen Unternehmen ihre Entwicklungsteams in die Lage versetzen, die Effizienz- und Produktivitätsgewinne zu nutzen, ohne die Sicherheit oder die Codequalität zu beeinträchtigen. Dies erfordert ein präzises Training zu Best Practices für die sichere Programmierung und die Möglichkeit, die Fähigkeiten zum kritischen Denken zu erweitern, um sicherzustellen, dass sie mit einer sicherheitsorientierten Denkweise handeln, insbesondere bei der Bewertung der potenziellen Bedrohung durch die Codeausgabe von KI-Assistenten.
Weitere Lektüre
Für XSS im Allgemeinen lesen Sie bitte unseren umfassenden Leitfaden.
Möchten Sie mehr darüber erfahren, wie Sie sicheren Code schreiben und Risiken minimieren können? Testen Sie kostenlos unsere XSS-Injection-Challenge.
Wenn Sie an weiteren kostenlosen Kodierungsrichtlinien interessiert sind, besuchen Sie Secure Code Coach, um sich über die besten Praktiken für sichere Kodierung zu informieren.
Egal, wo man hinschaut, in fast allen Branchen ist man auf die KI-Technologie fixiert. Von einigen als Antwort auf die schnelle Erstellung von Funktionen in der Softwareentwicklung gepriesen, haben die Geschwindigkeitsgewinne ihren Preis: das Potenzial für schwerwiegende Sicherheitsfehler, die ihren Weg in Codebases finden, dank eines fehlenden kontextbezogenen Bewusstseins des Tools selbst und geringer Sicherheitskenntnisse der Entwickler, die sich auf sie verlassen, um die Produktivität zu steigern und Antworten auf schwierige Entwicklungsszenarien zu generieren.
Die Large Language Model (LLM)-Technologie stellt einen seismischen Wandel bei den Hilfswerkzeugen dar und könnte, wenn sie sicher eingesetzt wird, tatsächlich der von vielen Softwareingenieuren ersehnte Begleiter für die Paarprogrammierung sein. Es hat sich jedoch schnell herausgestellt, dass der unkontrollierte Einsatz von KI-Entwicklungstools nachteilige Auswirkungen haben kann. Eine Studie der Stanford University aus dem Jahr 2023 ergab, dass das Vertrauen auf KI-Assistenten wahrscheinlich zu fehlerhafterem, unsichererem Code insgesamt führt, zusätzlich zu einem Anstieg des Vertrauens, dass die Ausgabe sicher ist.
Es ist zwar davon auszugehen, dass sich die Tools im Zuge des Wettlaufs um die Perfektionierung der LLM-Technologie weiter verbessern werden, doch eine Reihe von Empfehlungen - darunter eine neue Durchführungsverordnung der Biden-Administration sowie das Gesetz über künstliche Intelligenz der EU - macht ihre Verwendung in jedem Fall zu einem schwierigen Unterfangen. Entwickler können sich einen Vorsprung verschaffen, indem sie ihre Sicherheitskenntnisse auf Code-Ebene, ihr Bewusstsein und ihr kritisches Denken in Bezug auf die Leistung von KI-Tools verbessern und im Gegenzug einen höheren Standard an Ingenieuren erreichen.
Wie bringen KI-Codierassistenten Schwachstellen mit sich? Spielen Sie unsere NEUE öffentliche Mission und überzeugen Sie sich selbst!
Beispiel: Cross-Site-Scripting (XSS) in 'ChatterGPT'
Unsere neue öffentliche Mission zeigt die vertraute Oberfläche eines beliebten LLM und verwendet einen echten Codeausschnitt, der Ende November 2023 erstellt wurde. Die Nutzer können dieses Snippet interpretieren und mögliche Sicherheitslücken untersuchen, wenn es für den beabsichtigten Zweck verwendet werden sollte.
Auf die Aufforderung "Können Sie eine JavaScript-Funktion schreiben, die den Inhalt des HTML-Elements p ändert, wobei der Inhalt über diese Funktion übergeben wird?" erstellt der KI-Assistent pflichtbewusst einen Codeblock, aber es ist nicht alles so, wie es scheint.
Haben Sie die Herausforderung schon gespielt? Wenn nicht, versuche es jetzt, bevor du weiterliest.
... okay, jetzt, wo Sie es ausgefüllt haben, werden Sie wissen, dass der fragliche Code anfällig für Cross-Site-Scripting (XSS) ist.
XSS wird durch die Manipulation der Kernfunktionen von Webbrowsern ermöglicht. Es kann vorkommen, dass eine nicht vertrauenswürdige Eingabe als Ausgabe auf einer Seite gerendert wird, aber als ausführbarer und sicherer Code fehlinterpretiert wird. Ein Angreifer kann ein bösartiges Snippet (HTML-Tags, JavaScript usw.) in einem Eingabeparameter platzieren, das dann - wenn es an den Browser zurückgegeben wird - ausgeführt und nicht als Daten angezeigt wird.
KI-Codierassistenten sicher in der Softwareentwicklung einsetzen
Eine kürzlich durchgeführte Umfrage unter aktiven Entwicklungsteams hat ergeben, dass fast alle von ihnen - d. h. 96 % - damit begonnen haben, KI-Assistenten in ihren Arbeitsabläufen einzusetzen, wobei 80 % sogar Sicherheitsrichtlinien umgehen, um sie in ihrem Werkzeugkasten zu behalten. Außerdem räumte mehr als die Hälfte ein, dass generative KI-Tools häufig unsicheren Code erzeugen, was die Akzeptanz jedoch nicht bremst.
In dieser neuen Ära der Softwareentwicklungsprozesse ist es unwahrscheinlich, dass die Verwendung dieser Tools entmutigt oder verboten wird. Stattdessen müssen Unternehmen ihre Entwicklungsteams in die Lage versetzen, die Effizienz- und Produktivitätsgewinne zu nutzen, ohne die Sicherheit oder die Codequalität zu beeinträchtigen. Dies erfordert ein präzises Training zu Best Practices für die sichere Programmierung und die Möglichkeit, die Fähigkeiten zum kritischen Denken zu erweitern, um sicherzustellen, dass sie mit einer sicherheitsorientierten Denkweise handeln, insbesondere bei der Bewertung der potenziellen Bedrohung durch die Codeausgabe von KI-Assistenten.
Weitere Lektüre
Für XSS im Allgemeinen lesen Sie bitte unseren umfassenden Leitfaden.
Möchten Sie mehr darüber erfahren, wie Sie sicheren Code schreiben und Risiken minimieren können? Testen Sie kostenlos unsere XSS-Injection-Challenge.
Wenn Sie an weiteren kostenlosen Kodierungsrichtlinien interessiert sind, besuchen Sie Secure Code Coach, um sich über die besten Praktiken für sichere Kodierung zu informieren.
Klicken Sie auf den unten stehenden Link und laden Sie die PDF-Datei dieser Ressource herunter.
Secure Code Warrior ist für Ihr Unternehmen da, um Sie dabei zu unterstützen, Ihren Code über den gesamten Lebenszyklus der Softwareentwicklung hinweg zu sichern und eine Kultur zu schaffen, in der Cybersicherheit an erster Stelle steht. Ganz gleich, ob Sie AppSec-Manager, Entwickler, CISO oder ein anderer Sicherheitsverantwortlicher sind, wir können Ihrem Unternehmen helfen, die mit unsicherem Code verbundenen Risiken zu reduzieren.
Bericht ansehenDemo buchenWie können KI-Codierassistenten Schwachstellen einführen? Spielen Sie unsere NEUE öffentliche Mission und sehen Sie selbst! Diese Mission enthüllt die vertraute Schnittstelle eines beliebten LLM und verwendet einen echten Codeschnipsel, der Ende November 2023 erstellt wurde. Die Benutzer können dieses Snippet interpretieren und mögliche Sicherheitslücken untersuchen, wenn es für den vorgesehenen Zweck verwendet wird.
Versuchen Sie die MissionLaura Verheyde ist Softwareentwicklerin bei Secure Code Warrior und beschäftigt sich mit der Erforschung von Schwachstellen und der Erstellung von Inhalten für Missions und Coding Labs.
Egal, wo man hinschaut, in fast allen Branchen ist man auf die KI-Technologie fixiert. Von einigen als Antwort auf die schnelle Erstellung von Funktionen in der Softwareentwicklung gepriesen, haben die Geschwindigkeitsgewinne ihren Preis: das Potenzial für schwerwiegende Sicherheitsfehler, die ihren Weg in Codebases finden, dank eines fehlenden kontextbezogenen Bewusstseins des Tools selbst und geringer Sicherheitskenntnisse der Entwickler, die sich auf sie verlassen, um die Produktivität zu steigern und Antworten auf schwierige Entwicklungsszenarien zu generieren.
Die Large Language Model (LLM)-Technologie stellt einen seismischen Wandel bei den Hilfswerkzeugen dar und könnte, wenn sie sicher eingesetzt wird, tatsächlich der von vielen Softwareingenieuren ersehnte Begleiter für die Paarprogrammierung sein. Es hat sich jedoch schnell herausgestellt, dass der unkontrollierte Einsatz von KI-Entwicklungstools nachteilige Auswirkungen haben kann. Eine Studie der Stanford University aus dem Jahr 2023 ergab, dass das Vertrauen auf KI-Assistenten wahrscheinlich zu fehlerhafterem, unsichererem Code insgesamt führt, zusätzlich zu einem Anstieg des Vertrauens, dass die Ausgabe sicher ist.
Es ist zwar davon auszugehen, dass sich die Tools im Zuge des Wettlaufs um die Perfektionierung der LLM-Technologie weiter verbessern werden, doch eine Reihe von Empfehlungen - darunter eine neue Durchführungsverordnung der Biden-Administration sowie das Gesetz über künstliche Intelligenz der EU - macht ihre Verwendung in jedem Fall zu einem schwierigen Unterfangen. Entwickler können sich einen Vorsprung verschaffen, indem sie ihre Sicherheitskenntnisse auf Code-Ebene, ihr Bewusstsein und ihr kritisches Denken in Bezug auf die Leistung von KI-Tools verbessern und im Gegenzug einen höheren Standard an Ingenieuren erreichen.
Wie bringen KI-Codierassistenten Schwachstellen mit sich? Spielen Sie unsere NEUE öffentliche Mission und überzeugen Sie sich selbst!
Beispiel: Cross-Site-Scripting (XSS) in 'ChatterGPT'
Unsere neue öffentliche Mission zeigt die vertraute Oberfläche eines beliebten LLM und verwendet einen echten Codeausschnitt, der Ende November 2023 erstellt wurde. Die Nutzer können dieses Snippet interpretieren und mögliche Sicherheitslücken untersuchen, wenn es für den beabsichtigten Zweck verwendet werden sollte.
Auf die Aufforderung "Können Sie eine JavaScript-Funktion schreiben, die den Inhalt des HTML-Elements p ändert, wobei der Inhalt über diese Funktion übergeben wird?" erstellt der KI-Assistent pflichtbewusst einen Codeblock, aber es ist nicht alles so, wie es scheint.
Haben Sie die Herausforderung schon gespielt? Wenn nicht, versuche es jetzt, bevor du weiterliest.
... okay, jetzt, wo Sie es ausgefüllt haben, werden Sie wissen, dass der fragliche Code anfällig für Cross-Site-Scripting (XSS) ist.
XSS wird durch die Manipulation der Kernfunktionen von Webbrowsern ermöglicht. Es kann vorkommen, dass eine nicht vertrauenswürdige Eingabe als Ausgabe auf einer Seite gerendert wird, aber als ausführbarer und sicherer Code fehlinterpretiert wird. Ein Angreifer kann ein bösartiges Snippet (HTML-Tags, JavaScript usw.) in einem Eingabeparameter platzieren, das dann - wenn es an den Browser zurückgegeben wird - ausgeführt und nicht als Daten angezeigt wird.
KI-Codierassistenten sicher in der Softwareentwicklung einsetzen
Eine kürzlich durchgeführte Umfrage unter aktiven Entwicklungsteams hat ergeben, dass fast alle von ihnen - d. h. 96 % - damit begonnen haben, KI-Assistenten in ihren Arbeitsabläufen einzusetzen, wobei 80 % sogar Sicherheitsrichtlinien umgehen, um sie in ihrem Werkzeugkasten zu behalten. Außerdem räumte mehr als die Hälfte ein, dass generative KI-Tools häufig unsicheren Code erzeugen, was die Akzeptanz jedoch nicht bremst.
In dieser neuen Ära der Softwareentwicklungsprozesse ist es unwahrscheinlich, dass die Verwendung dieser Tools entmutigt oder verboten wird. Stattdessen müssen Unternehmen ihre Entwicklungsteams in die Lage versetzen, die Effizienz- und Produktivitätsgewinne zu nutzen, ohne die Sicherheit oder die Codequalität zu beeinträchtigen. Dies erfordert ein präzises Training zu Best Practices für die sichere Programmierung und die Möglichkeit, die Fähigkeiten zum kritischen Denken zu erweitern, um sicherzustellen, dass sie mit einer sicherheitsorientierten Denkweise handeln, insbesondere bei der Bewertung der potenziellen Bedrohung durch die Codeausgabe von KI-Assistenten.
Weitere Lektüre
Für XSS im Allgemeinen lesen Sie bitte unseren umfassenden Leitfaden.
Möchten Sie mehr darüber erfahren, wie Sie sicheren Code schreiben und Risiken minimieren können? Testen Sie kostenlos unsere XSS-Injection-Challenge.
Wenn Sie an weiteren kostenlosen Kodierungsrichtlinien interessiert sind, besuchen Sie Secure Code Coach, um sich über die besten Praktiken für sichere Kodierung zu informieren.
Inhaltsübersicht
Secure Code Warrior ist für Ihr Unternehmen da, um Sie dabei zu unterstützen, Ihren Code über den gesamten Lebenszyklus der Softwareentwicklung hinweg zu sichern und eine Kultur zu schaffen, in der Cybersicherheit an erster Stelle steht. Ganz gleich, ob Sie AppSec-Manager, Entwickler, CISO oder ein anderer Sicherheitsverantwortlicher sind, wir können Ihrem Unternehmen helfen, die mit unsicherem Code verbundenen Risiken zu reduzieren.
Demo buchenHerunterladenRessourcen für den Einstieg
Benchmarking von Sicherheitskompetenzen: Optimierung von Secure-by-Design im Unternehmen
Die Secure-by-Design-Bewegung ist die Zukunft der sicheren Softwareentwicklung. Erfahren Sie mehr über die wichtigsten Elemente, die Unternehmen berücksichtigen müssen, wenn sie über eine Secure-by-Design-Initiative nachdenken.
DigitalOcean verringert Sicherheitsverschuldung mit Secure Code Warrior
DigitalOceans Einsatz von Secure Code Warrior hat die Sicherheitsverschuldung deutlich reduziert, so dass sich die Teams stärker auf Innovation und Produktivität konzentrieren können. Die verbesserte Sicherheit hat die Produktqualität und den Wettbewerbsvorteil des Unternehmens gestärkt. Mit Blick auf die Zukunft wird der SCW Trust Score dem Unternehmen helfen, seine Sicherheitspraktiken weiter zu verbessern und Innovationen voranzutreiben.
Ressourcen für den Einstieg
Trust Score zeigt den Wert von Secure-by-Design-Upskilling-Initiativen
Unsere Forschung hat gezeigt, dass Schulungen für sicheren Code funktionieren. Trust Score verwendet einen Algorithmus, der auf mehr als 20 Millionen Lerndaten aus der Arbeit von mehr als 250.000 Lernenden in über 600 Organisationen basiert, und zeigt, wie effektiv die Initiative ist, um Schwachstellen zu beseitigen und wie man sie noch effektiver gestalten kann.
Reaktive versus präventive Sicherheit: Prävention ist das bessere Heilmittel
Der Gedanke, Legacy-Code und -Systeme zur gleichen Zeit wie neuere Anwendungen mit präventiver Sicherheit auszustatten, kann entmutigend erscheinen, aber ein Secure-by-Design-Ansatz, der durch die Weiterbildung von Entwicklern durchgesetzt wird, kann die besten Sicherheitsverfahren auf diese Systeme anwenden. Dies ist für viele Unternehmen die beste Chance, ihre Sicherheitslage zu verbessern.
Die Vorteile eines Benchmarking der Sicherheitskompetenzen von Entwicklern
Der zunehmende Fokus auf sicheren Code und Secure-by-Design-Prinzipien erfordert, dass Entwickler von Beginn des SDLC an in Cybersicherheit geschult werden, wobei Tools wie Secure Code Warrior's Trust Score dabei helfen, ihre Fortschritte zu messen und zu verbessern.
Wesentlicher Erfolg für Enterprise Secure-by-Design-Initiativen
Unser jüngstes Forschungspapier „Benchmarking Security Skills: Streamlining Secure-by-Design in the Enterprise“ ist das Ergebnis einer umfassenden Analyse echter Secure-by-Design-Initiativen auf Unternehmensebene und der Ableitung von Best-Practice-Ansätzen auf Grundlage datengesteuerter Erkenntnisse.