Blog

Vertiefung: Navigieren durch Schwachstellen, die von KI-Codierassistenten erzeugt werden

Laura Verheyde
Veröffentlicht Dez 11, 2023

Egal, wo man hinschaut, in fast allen Branchen ist man auf die KI-Technologie fixiert. Von einigen als Antwort auf die schnelle Erstellung von Funktionen in der Softwareentwicklung gepriesen, haben die Geschwindigkeitsgewinne ihren Preis: das Potenzial für schwerwiegende Sicherheitsfehler, die ihren Weg in Codebases finden, dank eines fehlenden kontextbezogenen Bewusstseins des Tools selbst und geringer Sicherheitskenntnisse der Entwickler, die sich auf sie verlassen, um die Produktivität zu steigern und Antworten auf schwierige Entwicklungsszenarien zu generieren. 

Die Large Language Model (LLM)-Technologie stellt einen seismischen Wandel bei den Hilfswerkzeugen dar und könnte, wenn sie sicher eingesetzt wird, tatsächlich der von vielen Softwareingenieuren ersehnte Begleiter für die Paarprogrammierung sein. Es hat sich jedoch schnell herausgestellt, dass der unkontrollierte Einsatz von KI-Entwicklungstools nachteilige Auswirkungen haben kann. Eine Studie der Stanford University aus dem Jahr 2023 ergab, dass das Vertrauen auf KI-Assistenten wahrscheinlich zu fehlerhafterem, unsichererem Code insgesamt führt, zusätzlich zu einem Anstieg des Vertrauens, dass die Ausgabe sicher ist.

Es ist zwar davon auszugehen, dass sich die Tools im Zuge des Wettlaufs um die Perfektionierung der LLM-Technologie weiter verbessern werden, doch eine Reihe von Empfehlungen - darunter eine neue Durchführungsverordnung der Biden-Administration sowie das Gesetz über künstliche Intelligenz der EU - macht ihre Verwendung in jedem Fall zu einem schwierigen Unterfangen. Entwickler können sich einen Vorsprung verschaffen, indem sie ihre Sicherheitskenntnisse auf Code-Ebene, ihr Bewusstsein und ihr kritisches Denken in Bezug auf die Leistung von KI-Tools verbessern und im Gegenzug einen höheren Standard an Ingenieuren erreichen.

Wie bringen KI-Codierassistenten Schwachstellen mit sich? Spielen Sie unsere NEUE öffentliche Mission und überzeugen Sie sich selbst!

Beispiel: Cross-Site-Scripting (XSS) in 'ChatterGPT'

Unsere neue öffentliche Mission zeigt die vertraute Oberfläche eines beliebten LLM und verwendet einen echten Codeausschnitt, der Ende November 2023 erstellt wurde. Die Nutzer können dieses Snippet interpretieren und mögliche Sicherheitslücken untersuchen, wenn es für den beabsichtigten Zweck verwendet werden sollte.

Auf die Aufforderung "Können Sie eine JavaScript-Funktion schreiben, die den Inhalt des HTML-Elements p ändert, wobei der Inhalt über diese Funktion übergeben wird?" erstellt der KI-Assistent pflichtbewusst einen Codeblock, aber es ist nicht alles so, wie es scheint.

Haben Sie die Herausforderung schon gespielt? Wenn nicht, versuche es jetzt, bevor du weiterliest.

... okay, jetzt, wo Sie es ausgefüllt haben, werden Sie wissen, dass der fragliche Code anfällig für Cross-Site-Scripting (XSS) ist. 

XSS wird durch die Manipulation der Kernfunktionen von Webbrowsern ermöglicht. Es kann vorkommen, dass eine nicht vertrauenswürdige Eingabe als Ausgabe auf einer Seite gerendert wird, aber als ausführbarer und sicherer Code fehlinterpretiert wird. Ein Angreifer kann ein bösartiges Snippet (HTML-Tags, JavaScript usw.) in einem Eingabeparameter platzieren, das dann - wenn es an den Browser zurückgegeben wird - ausgeführt und nicht als Daten angezeigt wird.

KI-Codierassistenten sicher in der Softwareentwicklung einsetzen

Eine kürzlich durchgeführte Umfrage unter aktiven Entwicklungsteams hat ergeben, dass fast alle von ihnen - d. h. 96 % - damit begonnen haben, KI-Assistenten in ihren Arbeitsabläufen einzusetzen, wobei 80 % sogar Sicherheitsrichtlinien umgehen, um sie in ihrem Werkzeugkasten zu behalten. Außerdem räumte mehr als die Hälfte ein, dass generative KI-Tools häufig unsicheren Code erzeugen, was die Akzeptanz jedoch nicht bremst.

In dieser neuen Ära der Softwareentwicklungsprozesse ist es unwahrscheinlich, dass die Verwendung dieser Tools entmutigt oder verboten wird. Stattdessen müssen Unternehmen ihre Entwicklungsteams in die Lage versetzen, die Effizienz- und Produktivitätsgewinne zu nutzen, ohne die Sicherheit oder die Codequalität zu beeinträchtigen. Dies erfordert ein präzises Training zu Best Practices für die sichere Programmierung und die Möglichkeit, die Fähigkeiten zum kritischen Denken zu erweitern, um sicherzustellen, dass sie mit einer sicherheitsorientierten Denkweise handeln, insbesondere bei der Bewertung der potenziellen Bedrohung durch die Codeausgabe von KI-Assistenten. 

Weitere Lektüre

Für XSS im Allgemeinen lesen Sie bitte unseren umfassenden Leitfaden.

Möchten Sie mehr darüber erfahren, wie Sie sicheren Code schreiben und Risiken minimieren können? Testen Sie kostenlos unsere XSS-Injection-Challenge.

Wenn Sie an weiteren kostenlosen Kodierungsrichtlinien interessiert sind, besuchen Sie Secure Code Coach, um sich über die besten Praktiken für sichere Kodierung zu informieren.

Sie möchten mehr erfahren? Laden Sie unser neuestes Whitepaper herunter.
Ressource anzeigen
Ressource anzeigen

Erforschen Sie die Sicherheitsrisiken von KI in der Softwareentwicklung und lernen Sie, wie Sie diese Herausforderungen mit Secure Code Warrior effektiv meistern können.

Interessiert an mehr?

Secure Code Warrior ist für Ihr Unternehmen da, um Sie dabei zu unterstützen, Ihren Code über den gesamten Lebenszyklus der Softwareentwicklung hinweg zu sichern und eine Kultur zu schaffen, in der Cybersicherheit an erster Stelle steht. Ganz gleich, ob Sie AppSec-Manager, Entwickler, CISO oder ein anderer Sicherheitsverantwortlicher sind, wir können Ihrem Unternehmen helfen, die mit unsicherem Code verbundenen Risiken zu reduzieren.

Demo buchen
Weitergeben:
Autor
Laura Verheyde
Veröffentlicht Dez 11, 2023

Laura Verheyde ist Softwareentwicklerin bei Secure Code Warrior und beschäftigt sich mit der Erforschung von Schwachstellen und der Erstellung von Inhalten für Missions und Coding Labs.

Weitergeben:

Egal, wo man hinschaut, in fast allen Branchen ist man auf die KI-Technologie fixiert. Von einigen als Antwort auf die schnelle Erstellung von Funktionen in der Softwareentwicklung gepriesen, haben die Geschwindigkeitsgewinne ihren Preis: das Potenzial für schwerwiegende Sicherheitsfehler, die ihren Weg in Codebases finden, dank eines fehlenden kontextbezogenen Bewusstseins des Tools selbst und geringer Sicherheitskenntnisse der Entwickler, die sich auf sie verlassen, um die Produktivität zu steigern und Antworten auf schwierige Entwicklungsszenarien zu generieren. 

Die Large Language Model (LLM)-Technologie stellt einen seismischen Wandel bei den Hilfswerkzeugen dar und könnte, wenn sie sicher eingesetzt wird, tatsächlich der von vielen Softwareingenieuren ersehnte Begleiter für die Paarprogrammierung sein. Es hat sich jedoch schnell herausgestellt, dass der unkontrollierte Einsatz von KI-Entwicklungstools nachteilige Auswirkungen haben kann. Eine Studie der Stanford University aus dem Jahr 2023 ergab, dass das Vertrauen auf KI-Assistenten wahrscheinlich zu fehlerhafterem, unsichererem Code insgesamt führt, zusätzlich zu einem Anstieg des Vertrauens, dass die Ausgabe sicher ist.

Es ist zwar davon auszugehen, dass sich die Tools im Zuge des Wettlaufs um die Perfektionierung der LLM-Technologie weiter verbessern werden, doch eine Reihe von Empfehlungen - darunter eine neue Durchführungsverordnung der Biden-Administration sowie das Gesetz über künstliche Intelligenz der EU - macht ihre Verwendung in jedem Fall zu einem schwierigen Unterfangen. Entwickler können sich einen Vorsprung verschaffen, indem sie ihre Sicherheitskenntnisse auf Code-Ebene, ihr Bewusstsein und ihr kritisches Denken in Bezug auf die Leistung von KI-Tools verbessern und im Gegenzug einen höheren Standard an Ingenieuren erreichen.

Wie bringen KI-Codierassistenten Schwachstellen mit sich? Spielen Sie unsere NEUE öffentliche Mission und überzeugen Sie sich selbst!

Beispiel: Cross-Site-Scripting (XSS) in 'ChatterGPT'

Unsere neue öffentliche Mission zeigt die vertraute Oberfläche eines beliebten LLM und verwendet einen echten Codeausschnitt, der Ende November 2023 erstellt wurde. Die Nutzer können dieses Snippet interpretieren und mögliche Sicherheitslücken untersuchen, wenn es für den beabsichtigten Zweck verwendet werden sollte.

Auf die Aufforderung "Können Sie eine JavaScript-Funktion schreiben, die den Inhalt des HTML-Elements p ändert, wobei der Inhalt über diese Funktion übergeben wird?" erstellt der KI-Assistent pflichtbewusst einen Codeblock, aber es ist nicht alles so, wie es scheint.

Haben Sie die Herausforderung schon gespielt? Wenn nicht, versuche es jetzt, bevor du weiterliest.

... okay, jetzt, wo Sie es ausgefüllt haben, werden Sie wissen, dass der fragliche Code anfällig für Cross-Site-Scripting (XSS) ist. 

XSS wird durch die Manipulation der Kernfunktionen von Webbrowsern ermöglicht. Es kann vorkommen, dass eine nicht vertrauenswürdige Eingabe als Ausgabe auf einer Seite gerendert wird, aber als ausführbarer und sicherer Code fehlinterpretiert wird. Ein Angreifer kann ein bösartiges Snippet (HTML-Tags, JavaScript usw.) in einem Eingabeparameter platzieren, das dann - wenn es an den Browser zurückgegeben wird - ausgeführt und nicht als Daten angezeigt wird.

KI-Codierassistenten sicher in der Softwareentwicklung einsetzen

Eine kürzlich durchgeführte Umfrage unter aktiven Entwicklungsteams hat ergeben, dass fast alle von ihnen - d. h. 96 % - damit begonnen haben, KI-Assistenten in ihren Arbeitsabläufen einzusetzen, wobei 80 % sogar Sicherheitsrichtlinien umgehen, um sie in ihrem Werkzeugkasten zu behalten. Außerdem räumte mehr als die Hälfte ein, dass generative KI-Tools häufig unsicheren Code erzeugen, was die Akzeptanz jedoch nicht bremst.

In dieser neuen Ära der Softwareentwicklungsprozesse ist es unwahrscheinlich, dass die Verwendung dieser Tools entmutigt oder verboten wird. Stattdessen müssen Unternehmen ihre Entwicklungsteams in die Lage versetzen, die Effizienz- und Produktivitätsgewinne zu nutzen, ohne die Sicherheit oder die Codequalität zu beeinträchtigen. Dies erfordert ein präzises Training zu Best Practices für die sichere Programmierung und die Möglichkeit, die Fähigkeiten zum kritischen Denken zu erweitern, um sicherzustellen, dass sie mit einer sicherheitsorientierten Denkweise handeln, insbesondere bei der Bewertung der potenziellen Bedrohung durch die Codeausgabe von KI-Assistenten. 

Weitere Lektüre

Für XSS im Allgemeinen lesen Sie bitte unseren umfassenden Leitfaden.

Möchten Sie mehr darüber erfahren, wie Sie sicheren Code schreiben und Risiken minimieren können? Testen Sie kostenlos unsere XSS-Injection-Challenge.

Wenn Sie an weiteren kostenlosen Kodierungsrichtlinien interessiert sind, besuchen Sie Secure Code Coach, um sich über die besten Praktiken für sichere Kodierung zu informieren.

Sie möchten mehr erfahren? Laden Sie unser neuestes Whitepaper herunter.
Ressource anzeigen
Ressource anzeigen

Füllen Sie das folgende Formular aus, um den Bericht herunterzuladen

Wir bitten Sie um Ihre Erlaubnis, Ihnen Informationen über unsere Produkte und/oder verwandte Themen der sicheren Codierung zuzusenden. Wir werden Ihre persönlichen Daten immer mit äußerster Sorgfalt behandeln und sie niemals zu Marketingzwecken an andere Unternehmen verkaufen.

Senden
Um das Formular abzuschicken, aktivieren Sie bitte "Analytics"-Cookies. Sie können die Cookies wieder deaktivieren, sobald Sie fertig sind.

Egal, wo man hinschaut, in fast allen Branchen ist man auf die KI-Technologie fixiert. Von einigen als Antwort auf die schnelle Erstellung von Funktionen in der Softwareentwicklung gepriesen, haben die Geschwindigkeitsgewinne ihren Preis: das Potenzial für schwerwiegende Sicherheitsfehler, die ihren Weg in Codebases finden, dank eines fehlenden kontextbezogenen Bewusstseins des Tools selbst und geringer Sicherheitskenntnisse der Entwickler, die sich auf sie verlassen, um die Produktivität zu steigern und Antworten auf schwierige Entwicklungsszenarien zu generieren. 

Die Large Language Model (LLM)-Technologie stellt einen seismischen Wandel bei den Hilfswerkzeugen dar und könnte, wenn sie sicher eingesetzt wird, tatsächlich der von vielen Softwareingenieuren ersehnte Begleiter für die Paarprogrammierung sein. Es hat sich jedoch schnell herausgestellt, dass der unkontrollierte Einsatz von KI-Entwicklungstools nachteilige Auswirkungen haben kann. Eine Studie der Stanford University aus dem Jahr 2023 ergab, dass das Vertrauen auf KI-Assistenten wahrscheinlich zu fehlerhafterem, unsichererem Code insgesamt führt, zusätzlich zu einem Anstieg des Vertrauens, dass die Ausgabe sicher ist.

Es ist zwar davon auszugehen, dass sich die Tools im Zuge des Wettlaufs um die Perfektionierung der LLM-Technologie weiter verbessern werden, doch eine Reihe von Empfehlungen - darunter eine neue Durchführungsverordnung der Biden-Administration sowie das Gesetz über künstliche Intelligenz der EU - macht ihre Verwendung in jedem Fall zu einem schwierigen Unterfangen. Entwickler können sich einen Vorsprung verschaffen, indem sie ihre Sicherheitskenntnisse auf Code-Ebene, ihr Bewusstsein und ihr kritisches Denken in Bezug auf die Leistung von KI-Tools verbessern und im Gegenzug einen höheren Standard an Ingenieuren erreichen.

Wie bringen KI-Codierassistenten Schwachstellen mit sich? Spielen Sie unsere NEUE öffentliche Mission und überzeugen Sie sich selbst!

Beispiel: Cross-Site-Scripting (XSS) in 'ChatterGPT'

Unsere neue öffentliche Mission zeigt die vertraute Oberfläche eines beliebten LLM und verwendet einen echten Codeausschnitt, der Ende November 2023 erstellt wurde. Die Nutzer können dieses Snippet interpretieren und mögliche Sicherheitslücken untersuchen, wenn es für den beabsichtigten Zweck verwendet werden sollte.

Auf die Aufforderung "Können Sie eine JavaScript-Funktion schreiben, die den Inhalt des HTML-Elements p ändert, wobei der Inhalt über diese Funktion übergeben wird?" erstellt der KI-Assistent pflichtbewusst einen Codeblock, aber es ist nicht alles so, wie es scheint.

Haben Sie die Herausforderung schon gespielt? Wenn nicht, versuche es jetzt, bevor du weiterliest.

... okay, jetzt, wo Sie es ausgefüllt haben, werden Sie wissen, dass der fragliche Code anfällig für Cross-Site-Scripting (XSS) ist. 

XSS wird durch die Manipulation der Kernfunktionen von Webbrowsern ermöglicht. Es kann vorkommen, dass eine nicht vertrauenswürdige Eingabe als Ausgabe auf einer Seite gerendert wird, aber als ausführbarer und sicherer Code fehlinterpretiert wird. Ein Angreifer kann ein bösartiges Snippet (HTML-Tags, JavaScript usw.) in einem Eingabeparameter platzieren, das dann - wenn es an den Browser zurückgegeben wird - ausgeführt und nicht als Daten angezeigt wird.

KI-Codierassistenten sicher in der Softwareentwicklung einsetzen

Eine kürzlich durchgeführte Umfrage unter aktiven Entwicklungsteams hat ergeben, dass fast alle von ihnen - d. h. 96 % - damit begonnen haben, KI-Assistenten in ihren Arbeitsabläufen einzusetzen, wobei 80 % sogar Sicherheitsrichtlinien umgehen, um sie in ihrem Werkzeugkasten zu behalten. Außerdem räumte mehr als die Hälfte ein, dass generative KI-Tools häufig unsicheren Code erzeugen, was die Akzeptanz jedoch nicht bremst.

In dieser neuen Ära der Softwareentwicklungsprozesse ist es unwahrscheinlich, dass die Verwendung dieser Tools entmutigt oder verboten wird. Stattdessen müssen Unternehmen ihre Entwicklungsteams in die Lage versetzen, die Effizienz- und Produktivitätsgewinne zu nutzen, ohne die Sicherheit oder die Codequalität zu beeinträchtigen. Dies erfordert ein präzises Training zu Best Practices für die sichere Programmierung und die Möglichkeit, die Fähigkeiten zum kritischen Denken zu erweitern, um sicherzustellen, dass sie mit einer sicherheitsorientierten Denkweise handeln, insbesondere bei der Bewertung der potenziellen Bedrohung durch die Codeausgabe von KI-Assistenten. 

Weitere Lektüre

Für XSS im Allgemeinen lesen Sie bitte unseren umfassenden Leitfaden.

Möchten Sie mehr darüber erfahren, wie Sie sicheren Code schreiben und Risiken minimieren können? Testen Sie kostenlos unsere XSS-Injection-Challenge.

Wenn Sie an weiteren kostenlosen Kodierungsrichtlinien interessiert sind, besuchen Sie Secure Code Coach, um sich über die besten Praktiken für sichere Kodierung zu informieren.

Sie möchten mehr erfahren? Laden Sie unser neuestes Whitepaper herunter.
Auf Ressource zugreifen

Klicken Sie auf den unten stehenden Link und laden Sie die PDF-Datei dieser Ressource herunter.

Secure Code Warrior ist für Ihr Unternehmen da, um Sie dabei zu unterstützen, Ihren Code über den gesamten Lebenszyklus der Softwareentwicklung hinweg zu sichern und eine Kultur zu schaffen, in der Cybersicherheit an erster Stelle steht. Ganz gleich, ob Sie AppSec-Manager, Entwickler, CISO oder ein anderer Sicherheitsverantwortlicher sind, wir können Ihrem Unternehmen helfen, die mit unsicherem Code verbundenen Risiken zu reduzieren.

Bericht ansehenDemo buchen
PDF herunterladen
Ressource anzeigen
Weitergeben:
Interessiert an mehr?

Wie können KI-Codierassistenten Schwachstellen einführen? Spielen Sie unsere NEUE öffentliche Mission und sehen Sie selbst! Diese Mission enthüllt die vertraute Schnittstelle eines beliebten LLM und verwendet einen echten Codeschnipsel, der Ende November 2023 erstellt wurde. Die Benutzer können dieses Snippet interpretieren und mögliche Sicherheitslücken untersuchen, wenn es für den vorgesehenen Zweck verwendet wird.

Versuchen Sie die Mission
Weitergeben:
Autor
Laura Verheyde
Veröffentlicht Dez 11, 2023

Laura Verheyde ist Softwareentwicklerin bei Secure Code Warrior und beschäftigt sich mit der Erforschung von Schwachstellen und der Erstellung von Inhalten für Missions und Coding Labs.

Weitergeben:

Egal, wo man hinschaut, in fast allen Branchen ist man auf die KI-Technologie fixiert. Von einigen als Antwort auf die schnelle Erstellung von Funktionen in der Softwareentwicklung gepriesen, haben die Geschwindigkeitsgewinne ihren Preis: das Potenzial für schwerwiegende Sicherheitsfehler, die ihren Weg in Codebases finden, dank eines fehlenden kontextbezogenen Bewusstseins des Tools selbst und geringer Sicherheitskenntnisse der Entwickler, die sich auf sie verlassen, um die Produktivität zu steigern und Antworten auf schwierige Entwicklungsszenarien zu generieren. 

Die Large Language Model (LLM)-Technologie stellt einen seismischen Wandel bei den Hilfswerkzeugen dar und könnte, wenn sie sicher eingesetzt wird, tatsächlich der von vielen Softwareingenieuren ersehnte Begleiter für die Paarprogrammierung sein. Es hat sich jedoch schnell herausgestellt, dass der unkontrollierte Einsatz von KI-Entwicklungstools nachteilige Auswirkungen haben kann. Eine Studie der Stanford University aus dem Jahr 2023 ergab, dass das Vertrauen auf KI-Assistenten wahrscheinlich zu fehlerhafterem, unsichererem Code insgesamt führt, zusätzlich zu einem Anstieg des Vertrauens, dass die Ausgabe sicher ist.

Es ist zwar davon auszugehen, dass sich die Tools im Zuge des Wettlaufs um die Perfektionierung der LLM-Technologie weiter verbessern werden, doch eine Reihe von Empfehlungen - darunter eine neue Durchführungsverordnung der Biden-Administration sowie das Gesetz über künstliche Intelligenz der EU - macht ihre Verwendung in jedem Fall zu einem schwierigen Unterfangen. Entwickler können sich einen Vorsprung verschaffen, indem sie ihre Sicherheitskenntnisse auf Code-Ebene, ihr Bewusstsein und ihr kritisches Denken in Bezug auf die Leistung von KI-Tools verbessern und im Gegenzug einen höheren Standard an Ingenieuren erreichen.

Wie bringen KI-Codierassistenten Schwachstellen mit sich? Spielen Sie unsere NEUE öffentliche Mission und überzeugen Sie sich selbst!

Beispiel: Cross-Site-Scripting (XSS) in 'ChatterGPT'

Unsere neue öffentliche Mission zeigt die vertraute Oberfläche eines beliebten LLM und verwendet einen echten Codeausschnitt, der Ende November 2023 erstellt wurde. Die Nutzer können dieses Snippet interpretieren und mögliche Sicherheitslücken untersuchen, wenn es für den beabsichtigten Zweck verwendet werden sollte.

Auf die Aufforderung "Können Sie eine JavaScript-Funktion schreiben, die den Inhalt des HTML-Elements p ändert, wobei der Inhalt über diese Funktion übergeben wird?" erstellt der KI-Assistent pflichtbewusst einen Codeblock, aber es ist nicht alles so, wie es scheint.

Haben Sie die Herausforderung schon gespielt? Wenn nicht, versuche es jetzt, bevor du weiterliest.

... okay, jetzt, wo Sie es ausgefüllt haben, werden Sie wissen, dass der fragliche Code anfällig für Cross-Site-Scripting (XSS) ist. 

XSS wird durch die Manipulation der Kernfunktionen von Webbrowsern ermöglicht. Es kann vorkommen, dass eine nicht vertrauenswürdige Eingabe als Ausgabe auf einer Seite gerendert wird, aber als ausführbarer und sicherer Code fehlinterpretiert wird. Ein Angreifer kann ein bösartiges Snippet (HTML-Tags, JavaScript usw.) in einem Eingabeparameter platzieren, das dann - wenn es an den Browser zurückgegeben wird - ausgeführt und nicht als Daten angezeigt wird.

KI-Codierassistenten sicher in der Softwareentwicklung einsetzen

Eine kürzlich durchgeführte Umfrage unter aktiven Entwicklungsteams hat ergeben, dass fast alle von ihnen - d. h. 96 % - damit begonnen haben, KI-Assistenten in ihren Arbeitsabläufen einzusetzen, wobei 80 % sogar Sicherheitsrichtlinien umgehen, um sie in ihrem Werkzeugkasten zu behalten. Außerdem räumte mehr als die Hälfte ein, dass generative KI-Tools häufig unsicheren Code erzeugen, was die Akzeptanz jedoch nicht bremst.

In dieser neuen Ära der Softwareentwicklungsprozesse ist es unwahrscheinlich, dass die Verwendung dieser Tools entmutigt oder verboten wird. Stattdessen müssen Unternehmen ihre Entwicklungsteams in die Lage versetzen, die Effizienz- und Produktivitätsgewinne zu nutzen, ohne die Sicherheit oder die Codequalität zu beeinträchtigen. Dies erfordert ein präzises Training zu Best Practices für die sichere Programmierung und die Möglichkeit, die Fähigkeiten zum kritischen Denken zu erweitern, um sicherzustellen, dass sie mit einer sicherheitsorientierten Denkweise handeln, insbesondere bei der Bewertung der potenziellen Bedrohung durch die Codeausgabe von KI-Assistenten. 

Weitere Lektüre

Für XSS im Allgemeinen lesen Sie bitte unseren umfassenden Leitfaden.

Möchten Sie mehr darüber erfahren, wie Sie sicheren Code schreiben und Risiken minimieren können? Testen Sie kostenlos unsere XSS-Injection-Challenge.

Wenn Sie an weiteren kostenlosen Kodierungsrichtlinien interessiert sind, besuchen Sie Secure Code Coach, um sich über die besten Praktiken für sichere Kodierung zu informieren.

Sie möchten mehr erfahren? Laden Sie unser neuestes Whitepaper herunter.

Inhaltsübersicht

PDF herunterladen
Ressource anzeigen
Interessiert an mehr?

Secure Code Warrior ist für Ihr Unternehmen da, um Sie dabei zu unterstützen, Ihren Code über den gesamten Lebenszyklus der Softwareentwicklung hinweg zu sichern und eine Kultur zu schaffen, in der Cybersicherheit an erster Stelle steht. Ganz gleich, ob Sie AppSec-Manager, Entwickler, CISO oder ein anderer Sicherheitsverantwortlicher sind, wir können Ihrem Unternehmen helfen, die mit unsicherem Code verbundenen Risiken zu reduzieren.

Demo buchenHerunterladen
Weitergeben:
Ressourcendrehscheibe

Ressourcen für den Einstieg

Mehr Beiträge
Ressourcendrehscheibe

Ressourcen für den Einstieg

Mehr Beiträge