Vertiefung: Navigieren durch Schwachstellen, die von KI-Codierassistenten erzeugt werden

Veröffentlicht Dez 11, 2023
von Laura Verheyde
FALLSTUDIE

Vertiefung: Navigieren durch Schwachstellen, die von KI-Codierassistenten erzeugt werden

Veröffentlicht Dez 11, 2023
von Laura Verheyde
Ressource anzeigen
Ressource anzeigen

Egal, wo man hinschaut, in fast allen Branchen ist man auf die KI-Technologie fixiert. Von einigen als Antwort auf die schnelle Erstellung von Funktionen in der Softwareentwicklung gepriesen, haben die Geschwindigkeitsgewinne ihren Preis: das Potenzial für schwerwiegende Sicherheitsfehler, die ihren Weg in Codebases finden, dank eines fehlenden kontextbezogenen Bewusstseins des Tools selbst und geringer Sicherheitskenntnisse der Entwickler, die sich auf sie verlassen, um die Produktivität zu steigern und Antworten auf schwierige Entwicklungsszenarien zu generieren. 

Die Large Language Model (LLM)-Technologie stellt einen seismischen Wandel bei den Hilfswerkzeugen dar und könnte, wenn sie sicher eingesetzt wird, tatsächlich der von vielen Softwareingenieuren ersehnte Begleiter für die Paarprogrammierung sein. Es hat sich jedoch schnell herausgestellt, dass der unkontrollierte Einsatz von KI-Entwicklungstools nachteilige Auswirkungen haben kann. Eine Studie der Stanford University aus dem Jahr 2023 ergab, dass das Vertrauen auf KI-Assistenten wahrscheinlich zu fehlerhafterem, unsichererem Code insgesamt führt, zusätzlich zu einem Anstieg des Vertrauens, dass die Ausgabe sicher ist.

Es ist zwar davon auszugehen, dass sich die Tools im Zuge des Wettlaufs um die Perfektionierung der LLM-Technologie weiter verbessern werden, doch eine Reihe von Empfehlungen - darunter eine neue Durchführungsverordnung der Biden-Administration sowie das Gesetz über künstliche Intelligenz der EU - macht ihre Verwendung in jedem Fall zu einem schwierigen Unterfangen. Entwickler können sich einen Vorsprung verschaffen, indem sie ihre Sicherheitskenntnisse auf Code-Ebene, ihr Bewusstsein und ihr kritisches Denken in Bezug auf die Leistung von KI-Tools verbessern und im Gegenzug einen höheren Standard an Ingenieuren erreichen.

Wie bringen KI-Codierassistenten Schwachstellen mit sich? Spielen Sie unsere NEUE öffentliche Mission und überzeugen Sie sich selbst!

Beispiel: Cross-Site-Scripting (XSS) in 'ChatterGPT'

Unsere neue öffentliche Mission zeigt die vertraute Oberfläche eines beliebten LLM und verwendet einen echten Codeausschnitt, der Ende November 2023 erstellt wurde. Die Nutzer können dieses Snippet interpretieren und mögliche Sicherheitslücken untersuchen, wenn es für den beabsichtigten Zweck verwendet werden sollte.

Auf die Aufforderung "Können Sie eine JavaScript-Funktion schreiben, die den Inhalt des HTML-Elements p ändert, wobei der Inhalt über diese Funktion übergeben wird?" erstellt der KI-Assistent pflichtbewusst einen Codeblock, aber es ist nicht alles so, wie es scheint.

Haben Sie die Herausforderung schon gespielt? Wenn nicht, versuche es jetzt, bevor du weiterliest.

... okay, jetzt, wo Sie es ausgefüllt haben, werden Sie wissen, dass der fragliche Code anfällig für Cross-Site-Scripting (XSS) ist. 

XSS wird durch die Manipulation der Kernfunktionen von Webbrowsern ermöglicht. Es kann vorkommen, dass eine nicht vertrauenswürdige Eingabe als Ausgabe auf einer Seite gerendert wird, aber als ausführbarer und sicherer Code fehlinterpretiert wird. Ein Angreifer kann ein bösartiges Snippet (HTML-Tags, JavaScript usw.) in einem Eingabeparameter platzieren, das dann - wenn es an den Browser zurückgegeben wird - ausgeführt und nicht als Daten angezeigt wird.

KI-Codierassistenten sicher in der Softwareentwicklung einsetzen

Eine kürzlich durchgeführte Umfrage unter aktiven Entwicklungsteams hat ergeben, dass fast alle von ihnen - d. h. 96 % - damit begonnen haben, KI-Assistenten in ihren Arbeitsabläufen einzusetzen, wobei 80 % sogar Sicherheitsrichtlinien umgehen, um sie in ihrem Werkzeugkasten zu behalten. Außerdem räumte mehr als die Hälfte ein, dass generative KI-Tools häufig unsicheren Code erzeugen, was die Akzeptanz jedoch nicht bremst.

In dieser neuen Ära der Softwareentwicklungsprozesse ist es unwahrscheinlich, dass die Verwendung dieser Tools entmutigt oder verboten wird. Stattdessen müssen Unternehmen ihre Entwicklungsteams in die Lage versetzen, die Effizienz- und Produktivitätsgewinne zu nutzen, ohne die Sicherheit oder die Codequalität zu beeinträchtigen. Dies erfordert ein präzises Training zu Best Practices für die sichere Programmierung und die Möglichkeit, die Fähigkeiten zum kritischen Denken zu erweitern, um sicherzustellen, dass sie mit einer sicherheitsorientierten Denkweise handeln, insbesondere bei der Bewertung der potenziellen Bedrohung durch die Codeausgabe von KI-Assistenten. 

Weitere Lektüre

Für XSS im Allgemeinen lesen Sie bitte unseren umfassenden Leitfaden.

Möchten Sie mehr darüber erfahren, wie Sie sicheren Code schreiben und Risiken minimieren können? Testen Sie kostenlos unsere XSS-Injection-Challenge.

Wenn Sie an weiteren kostenlosen Kodierungsrichtlinien interessiert sind, besuchen Sie Secure Code Coach, um sich über die besten Praktiken für sichere Kodierung zu informieren.

Sie möchten mehr erfahren? Laden Sie unser neuestes Whitepaper herunter.
Ressource anzeigen
Ressource anzeigen

Einsatz: Cross-Site-Scripting (XSS) in 'ChatterGPT'

Wie können KI-Codierassistenten Schwachstellen einführen? Spielen Sie unsere NEUE öffentliche Mission und sehen Sie selbst! Diese Mission enthüllt die vertraute Schnittstelle eines beliebten LLM und verwendet einen echten Codeschnipsel, der Ende November 2023 erstellt wurde. Die Benutzer können dieses Snippet interpretieren und mögliche Sicherheitslücken untersuchen, wenn es für den vorgesehenen Zweck verwendet wird.

Versuchen Sie die Mission
Autor

Laura Verheyde

Laura Verheyde ist Softwareentwicklerin bei Secure Code Warrior und beschäftigt sich mit der Erforschung von Schwachstellen und der Erstellung von Inhalten für Missions und Coding Labs.

Sie wollen mehr?

Tauchen Sie ein in unsere neuesten Erkenntnisse über sichere Kodierung im Blog.

Unsere umfangreiche Ressourcenbibliothek zielt darauf ab, die menschliche Herangehensweise an eine sichere Weiterbildung im Bereich der Programmierung zu stärken.

Blog ansehen
Sie wollen mehr?

Holen Sie sich die neuesten Forschungsergebnisse zur entwicklergesteuerten Sicherheit

Unsere umfangreiche Ressourcenbibliothek ist voll von hilfreichen Ressourcen, von Whitepapers bis hin zu Webinaren, die Ihnen den Einstieg in die entwicklungsorientierte sichere Programmierung erleichtern. Erforschen Sie sie jetzt.

Ressourcendrehscheibe

Vertiefung: Navigieren durch Schwachstellen, die von KI-Codierassistenten erzeugt werden

Veröffentlicht Dez 11, 2023
Von Laura Verheyde

Egal, wo man hinschaut, in fast allen Branchen ist man auf die KI-Technologie fixiert. Von einigen als Antwort auf die schnelle Erstellung von Funktionen in der Softwareentwicklung gepriesen, haben die Geschwindigkeitsgewinne ihren Preis: das Potenzial für schwerwiegende Sicherheitsfehler, die ihren Weg in Codebases finden, dank eines fehlenden kontextbezogenen Bewusstseins des Tools selbst und geringer Sicherheitskenntnisse der Entwickler, die sich auf sie verlassen, um die Produktivität zu steigern und Antworten auf schwierige Entwicklungsszenarien zu generieren. 

Die Large Language Model (LLM)-Technologie stellt einen seismischen Wandel bei den Hilfswerkzeugen dar und könnte, wenn sie sicher eingesetzt wird, tatsächlich der von vielen Softwareingenieuren ersehnte Begleiter für die Paarprogrammierung sein. Es hat sich jedoch schnell herausgestellt, dass der unkontrollierte Einsatz von KI-Entwicklungstools nachteilige Auswirkungen haben kann. Eine Studie der Stanford University aus dem Jahr 2023 ergab, dass das Vertrauen auf KI-Assistenten wahrscheinlich zu fehlerhafterem, unsichererem Code insgesamt führt, zusätzlich zu einem Anstieg des Vertrauens, dass die Ausgabe sicher ist.

Es ist zwar davon auszugehen, dass sich die Tools im Zuge des Wettlaufs um die Perfektionierung der LLM-Technologie weiter verbessern werden, doch eine Reihe von Empfehlungen - darunter eine neue Durchführungsverordnung der Biden-Administration sowie das Gesetz über künstliche Intelligenz der EU - macht ihre Verwendung in jedem Fall zu einem schwierigen Unterfangen. Entwickler können sich einen Vorsprung verschaffen, indem sie ihre Sicherheitskenntnisse auf Code-Ebene, ihr Bewusstsein und ihr kritisches Denken in Bezug auf die Leistung von KI-Tools verbessern und im Gegenzug einen höheren Standard an Ingenieuren erreichen.

Wie bringen KI-Codierassistenten Schwachstellen mit sich? Spielen Sie unsere NEUE öffentliche Mission und überzeugen Sie sich selbst!

Beispiel: Cross-Site-Scripting (XSS) in 'ChatterGPT'

Unsere neue öffentliche Mission zeigt die vertraute Oberfläche eines beliebten LLM und verwendet einen echten Codeausschnitt, der Ende November 2023 erstellt wurde. Die Nutzer können dieses Snippet interpretieren und mögliche Sicherheitslücken untersuchen, wenn es für den beabsichtigten Zweck verwendet werden sollte.

Auf die Aufforderung "Können Sie eine JavaScript-Funktion schreiben, die den Inhalt des HTML-Elements p ändert, wobei der Inhalt über diese Funktion übergeben wird?" erstellt der KI-Assistent pflichtbewusst einen Codeblock, aber es ist nicht alles so, wie es scheint.

Haben Sie die Herausforderung schon gespielt? Wenn nicht, versuche es jetzt, bevor du weiterliest.

... okay, jetzt, wo Sie es ausgefüllt haben, werden Sie wissen, dass der fragliche Code anfällig für Cross-Site-Scripting (XSS) ist. 

XSS wird durch die Manipulation der Kernfunktionen von Webbrowsern ermöglicht. Es kann vorkommen, dass eine nicht vertrauenswürdige Eingabe als Ausgabe auf einer Seite gerendert wird, aber als ausführbarer und sicherer Code fehlinterpretiert wird. Ein Angreifer kann ein bösartiges Snippet (HTML-Tags, JavaScript usw.) in einem Eingabeparameter platzieren, das dann - wenn es an den Browser zurückgegeben wird - ausgeführt und nicht als Daten angezeigt wird.

KI-Codierassistenten sicher in der Softwareentwicklung einsetzen

Eine kürzlich durchgeführte Umfrage unter aktiven Entwicklungsteams hat ergeben, dass fast alle von ihnen - d. h. 96 % - damit begonnen haben, KI-Assistenten in ihren Arbeitsabläufen einzusetzen, wobei 80 % sogar Sicherheitsrichtlinien umgehen, um sie in ihrem Werkzeugkasten zu behalten. Außerdem räumte mehr als die Hälfte ein, dass generative KI-Tools häufig unsicheren Code erzeugen, was die Akzeptanz jedoch nicht bremst.

In dieser neuen Ära der Softwareentwicklungsprozesse ist es unwahrscheinlich, dass die Verwendung dieser Tools entmutigt oder verboten wird. Stattdessen müssen Unternehmen ihre Entwicklungsteams in die Lage versetzen, die Effizienz- und Produktivitätsgewinne zu nutzen, ohne die Sicherheit oder die Codequalität zu beeinträchtigen. Dies erfordert ein präzises Training zu Best Practices für die sichere Programmierung und die Möglichkeit, die Fähigkeiten zum kritischen Denken zu erweitern, um sicherzustellen, dass sie mit einer sicherheitsorientierten Denkweise handeln, insbesondere bei der Bewertung der potenziellen Bedrohung durch die Codeausgabe von KI-Assistenten. 

Weitere Lektüre

Für XSS im Allgemeinen lesen Sie bitte unseren umfassenden Leitfaden.

Möchten Sie mehr darüber erfahren, wie Sie sicheren Code schreiben und Risiken minimieren können? Testen Sie kostenlos unsere XSS-Injection-Challenge.

Wenn Sie an weiteren kostenlosen Kodierungsrichtlinien interessiert sind, besuchen Sie Secure Code Coach, um sich über die besten Praktiken für sichere Kodierung zu informieren.

Sie möchten mehr erfahren? Laden Sie unser neuestes Whitepaper herunter.

Wir bitten Sie um Ihre Erlaubnis, Ihnen Informationen über unsere Produkte und/oder verwandte Themen der sicheren Codierung zuzusenden. Wir werden Ihre persönlichen Daten immer mit äußerster Sorgfalt behandeln und sie niemals zu Marketingzwecken an andere Unternehmen verkaufen.

Senden
Um das Formular abzuschicken, aktivieren Sie bitte "Analytics"-Cookies. Sie können die Cookies wieder deaktivieren, sobald Sie fertig sind.