
Analyse approfondie : analyse des vulnérabilités générées par les assistants de codage basés sur l'IA
Où que vous regardiez, la technologie de l'IA suscite un engouement permanent dans presque tous les secteurs d'activité. Considérés par certains comme la solution à la création rapide de fonctionnalités dans le développement de logiciels, les gains de rapidité ont un prix : la possibilité que de graves bogues de sécurité pénètrent dans les bases de code, en raison d'un manque de connaissance contextuelle de la part de l'outil lui-même, et des compétences de sécurité de faible niveau de la part des développeurs qui comptent sur eux pour augmenter la productivité et trouver des réponses à des scénarios de développement difficiles.
La technologie LLM (Large Language Model) représente un changement radical dans le domaine des outils d'assistance et, lorsqu'elle est utilisée en toute sécurité, pourrait bien être le compagnon de programmation idéal pour de nombreux ingénieurs logiciels. Cependant, il a été rapidement établi que l'utilisation incontrôlée des outils de développement de l'IA peut avoir un impact négatif, avec un Étude 2023 de l'université de Stanford révélant que le recours à des assistants d'IA était susceptible d'entraîner un code globalement plus bogué et moins sécurisé, en plus d'une augmentation de la confiance dans la sécurité du résultat.
Bien qu'il soit légitime de supposer que les outils continueront de s'améliorer au fur et à mesure que la course à la perfection de la technologie LLM se poursuit, de nombreuses recommandations, notamment un nouveau décret de l'administration Biden, ainsi que Loi sur l'intelligence artificielle de l'UE - rend leur utilisation délicate dans tous les cas. Les développeurs peuvent prendre une longueur d'avance en perfectionnant leurs compétences en matière de sécurité au niveau du code, leur sensibilisation et leur esprit critique en ce qui concerne les résultats des outils d'IA, et, en retour, devenir un ingénieur de haut niveau.
Comment les assistants de codage basés sur l'IA introduisent-ils des vulnérabilités ? Jouez à notre NOUVELLE mission publique et voyez par vous-même !

Exemple : script intersite (XSS) dans « ChatterGPT »
Notre nouvelle mission publique dévoile l'interface familière d'un LLM populaire et utilise un réel extrait de code généré fin novembre 2023. Les utilisateurs peuvent interpréter cet extrait et étudier les éventuelles failles de sécurité s'il devait être utilisé aux fins prévues.
Sur la base de l'invite « Pouvez-vous écrire une fonction JavaScript qui modifie le contenu de l'élément HTML p, où le contenu est transmis via cette fonction ? » l'assistant IA produit consciencieusement un bloc de code, mais tout n'est pas ce qu'il semble.
Avez-vous déjà relevé le défi ? Dans le cas contraire, essayez dès maintenant avant de poursuivre la lecture.
... d'accord, maintenant que vous l'avez terminé, vous savez que le code en question est vulnérable au cross-site scripting (XSS).
XSS est rendu possible en manipulant les fonctionnalités de base des navigateurs Web. Cela peut se produire lorsqu'une entrée non fiable est rendue en tant que sortie sur une page, mais interprétée à tort comme un code exécutable et sécurisé. Un attaquant peut placer un extrait malveillant (balises HTML, JavaScript, etc.) dans un paramètre d'entrée qui, une fois renvoyé au navigateur, est ensuite exécuté au lieu d'être affiché sous forme de données.
Utiliser les assistants de codage IA en toute sécurité dans le développement de logiciels
UNE enquête récente des équipes de développement actives ont révélé que la quasi-totalité d'entre elles, soit 96 %, avaient commencé à utiliser des assistants IA dans leur flux de travail, et 80 % d'entre elles contournaient même les politiques de sécurité pour les conserver dans leur boîte à outils. En outre, plus de la moitié ont reconnu que les outils d'IA génératifs créent généralement du code non sécurisé, mais cela n'a clairement pas ralenti leur adoption.
En cette nouvelle ère de processus de développement logiciel, il est peu probable que le fait de décourager ou d'interdire l'utilisation de ces outils soit efficace. Les entreprises doivent plutôt permettre à leurs équipes de développement d'exploiter les gains d'efficacité et de productivité sans sacrifier la sécurité ou la qualité du code. Cela nécessite une formation précise sur les meilleures pratiques de codage sécurisé et leur donner la possibilité de développer leurs capacités de réflexion critique, en veillant à ce qu'ils agissent dans un état d'esprit axé sur la sécurité, en particulier lorsqu'ils évaluent la menace potentielle que représente la sortie de code d'un assistant d'IA.
Lectures complémentaires
Pour le XSS en général, consultez notre guide complet.
Vous souhaitez en savoir plus sur la façon d'écrire du code sécurisé et atténuer les risques? Essayez notre Défi d'injection XSS gratuit.
Si vous souhaitez obtenir plus de directives de codage gratuites, consultez Coach de code sécurisé pour vous aider à rester au fait des meilleures pratiques en matière de codage sécurisé.
.avif)
Explorez les risques de sécurité liés à l'IA dans le développement de logiciels et apprenez à relever ces défis efficacement avec Secure Code Warrior.

Secure Code Warrior Ihr Unternehmen dabei, den Code während des gesamten Softwareentwicklungszyklus zu sichern und eine Kultur zu schaffen, in der Cybersicherheit oberste Priorität hat. Ganz gleich, ob Sie für die Anwendungssicherheit verantwortlich sind, Entwickler, IT-Sicherheitsbeauftragter oder in einer anderen Funktion im Bereich Sicherheit tätig sind – wir können Ihrem Unternehmen dabei helfen, die mit unsicherem Code verbundenen Risiken zu reduzieren.
Demo buchenLaura Verheyde est une développeuse de logiciels chez Secure Code Warrior qui se concentre sur la recherche de vulnérabilités et la création de contenu pour les missions et les laboratoires de codage.
Où que vous regardiez, la technologie de l'IA suscite un engouement permanent dans presque tous les secteurs d'activité. Considérés par certains comme la solution à la création rapide de fonctionnalités dans le développement de logiciels, les gains de rapidité ont un prix : la possibilité que de graves bogues de sécurité pénètrent dans les bases de code, en raison d'un manque de connaissance contextuelle de la part de l'outil lui-même, et des compétences de sécurité de faible niveau de la part des développeurs qui comptent sur eux pour augmenter la productivité et trouver des réponses à des scénarios de développement difficiles.
La technologie LLM (Large Language Model) représente un changement radical dans le domaine des outils d'assistance et, lorsqu'elle est utilisée en toute sécurité, pourrait bien être le compagnon de programmation idéal pour de nombreux ingénieurs logiciels. Cependant, il a été rapidement établi que l'utilisation incontrôlée des outils de développement de l'IA peut avoir un impact négatif, avec un Étude 2023 de l'université de Stanford révélant que le recours à des assistants d'IA était susceptible d'entraîner un code globalement plus bogué et moins sécurisé, en plus d'une augmentation de la confiance dans la sécurité du résultat.
Bien qu'il soit légitime de supposer que les outils continueront de s'améliorer au fur et à mesure que la course à la perfection de la technologie LLM se poursuit, de nombreuses recommandations, notamment un nouveau décret de l'administration Biden, ainsi que Loi sur l'intelligence artificielle de l'UE - rend leur utilisation délicate dans tous les cas. Les développeurs peuvent prendre une longueur d'avance en perfectionnant leurs compétences en matière de sécurité au niveau du code, leur sensibilisation et leur esprit critique en ce qui concerne les résultats des outils d'IA, et, en retour, devenir un ingénieur de haut niveau.
Comment les assistants de codage basés sur l'IA introduisent-ils des vulnérabilités ? Jouez à notre NOUVELLE mission publique et voyez par vous-même !

Exemple : script intersite (XSS) dans « ChatterGPT »
Notre nouvelle mission publique dévoile l'interface familière d'un LLM populaire et utilise un réel extrait de code généré fin novembre 2023. Les utilisateurs peuvent interpréter cet extrait et étudier les éventuelles failles de sécurité s'il devait être utilisé aux fins prévues.
Sur la base de l'invite « Pouvez-vous écrire une fonction JavaScript qui modifie le contenu de l'élément HTML p, où le contenu est transmis via cette fonction ? » l'assistant IA produit consciencieusement un bloc de code, mais tout n'est pas ce qu'il semble.
Avez-vous déjà relevé le défi ? Dans le cas contraire, essayez dès maintenant avant de poursuivre la lecture.
... d'accord, maintenant que vous l'avez terminé, vous savez que le code en question est vulnérable au cross-site scripting (XSS).
XSS est rendu possible en manipulant les fonctionnalités de base des navigateurs Web. Cela peut se produire lorsqu'une entrée non fiable est rendue en tant que sortie sur une page, mais interprétée à tort comme un code exécutable et sécurisé. Un attaquant peut placer un extrait malveillant (balises HTML, JavaScript, etc.) dans un paramètre d'entrée qui, une fois renvoyé au navigateur, est ensuite exécuté au lieu d'être affiché sous forme de données.
Utiliser les assistants de codage IA en toute sécurité dans le développement de logiciels
UNE enquête récente des équipes de développement actives ont révélé que la quasi-totalité d'entre elles, soit 96 %, avaient commencé à utiliser des assistants IA dans leur flux de travail, et 80 % d'entre elles contournaient même les politiques de sécurité pour les conserver dans leur boîte à outils. En outre, plus de la moitié ont reconnu que les outils d'IA génératifs créent généralement du code non sécurisé, mais cela n'a clairement pas ralenti leur adoption.
En cette nouvelle ère de processus de développement logiciel, il est peu probable que le fait de décourager ou d'interdire l'utilisation de ces outils soit efficace. Les entreprises doivent plutôt permettre à leurs équipes de développement d'exploiter les gains d'efficacité et de productivité sans sacrifier la sécurité ou la qualité du code. Cela nécessite une formation précise sur les meilleures pratiques de codage sécurisé et leur donner la possibilité de développer leurs capacités de réflexion critique, en veillant à ce qu'ils agissent dans un état d'esprit axé sur la sécurité, en particulier lorsqu'ils évaluent la menace potentielle que représente la sortie de code d'un assistant d'IA.
Lectures complémentaires
Pour le XSS en général, consultez notre guide complet.
Vous souhaitez en savoir plus sur la façon d'écrire du code sécurisé et atténuer les risques? Essayez notre Défi d'injection XSS gratuit.
Si vous souhaitez obtenir plus de directives de codage gratuites, consultez Coach de code sécurisé pour vous aider à rester au fait des meilleures pratiques en matière de codage sécurisé.
.avif)
Où que vous regardiez, la technologie de l'IA suscite un engouement permanent dans presque tous les secteurs d'activité. Considérés par certains comme la solution à la création rapide de fonctionnalités dans le développement de logiciels, les gains de rapidité ont un prix : la possibilité que de graves bogues de sécurité pénètrent dans les bases de code, en raison d'un manque de connaissance contextuelle de la part de l'outil lui-même, et des compétences de sécurité de faible niveau de la part des développeurs qui comptent sur eux pour augmenter la productivité et trouver des réponses à des scénarios de développement difficiles.
La technologie LLM (Large Language Model) représente un changement radical dans le domaine des outils d'assistance et, lorsqu'elle est utilisée en toute sécurité, pourrait bien être le compagnon de programmation idéal pour de nombreux ingénieurs logiciels. Cependant, il a été rapidement établi que l'utilisation incontrôlée des outils de développement de l'IA peut avoir un impact négatif, avec un Étude 2023 de l'université de Stanford révélant que le recours à des assistants d'IA était susceptible d'entraîner un code globalement plus bogué et moins sécurisé, en plus d'une augmentation de la confiance dans la sécurité du résultat.
Bien qu'il soit légitime de supposer que les outils continueront de s'améliorer au fur et à mesure que la course à la perfection de la technologie LLM se poursuit, de nombreuses recommandations, notamment un nouveau décret de l'administration Biden, ainsi que Loi sur l'intelligence artificielle de l'UE - rend leur utilisation délicate dans tous les cas. Les développeurs peuvent prendre une longueur d'avance en perfectionnant leurs compétences en matière de sécurité au niveau du code, leur sensibilisation et leur esprit critique en ce qui concerne les résultats des outils d'IA, et, en retour, devenir un ingénieur de haut niveau.
Comment les assistants de codage basés sur l'IA introduisent-ils des vulnérabilités ? Jouez à notre NOUVELLE mission publique et voyez par vous-même !

Exemple : script intersite (XSS) dans « ChatterGPT »
Notre nouvelle mission publique dévoile l'interface familière d'un LLM populaire et utilise un réel extrait de code généré fin novembre 2023. Les utilisateurs peuvent interpréter cet extrait et étudier les éventuelles failles de sécurité s'il devait être utilisé aux fins prévues.
Sur la base de l'invite « Pouvez-vous écrire une fonction JavaScript qui modifie le contenu de l'élément HTML p, où le contenu est transmis via cette fonction ? » l'assistant IA produit consciencieusement un bloc de code, mais tout n'est pas ce qu'il semble.
Avez-vous déjà relevé le défi ? Dans le cas contraire, essayez dès maintenant avant de poursuivre la lecture.
... d'accord, maintenant que vous l'avez terminé, vous savez que le code en question est vulnérable au cross-site scripting (XSS).
XSS est rendu possible en manipulant les fonctionnalités de base des navigateurs Web. Cela peut se produire lorsqu'une entrée non fiable est rendue en tant que sortie sur une page, mais interprétée à tort comme un code exécutable et sécurisé. Un attaquant peut placer un extrait malveillant (balises HTML, JavaScript, etc.) dans un paramètre d'entrée qui, une fois renvoyé au navigateur, est ensuite exécuté au lieu d'être affiché sous forme de données.
Utiliser les assistants de codage IA en toute sécurité dans le développement de logiciels
UNE enquête récente des équipes de développement actives ont révélé que la quasi-totalité d'entre elles, soit 96 %, avaient commencé à utiliser des assistants IA dans leur flux de travail, et 80 % d'entre elles contournaient même les politiques de sécurité pour les conserver dans leur boîte à outils. En outre, plus de la moitié ont reconnu que les outils d'IA génératifs créent généralement du code non sécurisé, mais cela n'a clairement pas ralenti leur adoption.
En cette nouvelle ère de processus de développement logiciel, il est peu probable que le fait de décourager ou d'interdire l'utilisation de ces outils soit efficace. Les entreprises doivent plutôt permettre à leurs équipes de développement d'exploiter les gains d'efficacité et de productivité sans sacrifier la sécurité ou la qualité du code. Cela nécessite une formation précise sur les meilleures pratiques de codage sécurisé et leur donner la possibilité de développer leurs capacités de réflexion critique, en veillant à ce qu'ils agissent dans un état d'esprit axé sur la sécurité, en particulier lorsqu'ils évaluent la menace potentielle que représente la sortie de code d'un assistant d'IA.
Lectures complémentaires
Pour le XSS en général, consultez notre guide complet.
Vous souhaitez en savoir plus sur la façon d'écrire du code sécurisé et atténuer les risques? Essayez notre Défi d'injection XSS gratuit.
Si vous souhaitez obtenir plus de directives de codage gratuites, consultez Coach de code sécurisé pour vous aider à rester au fait des meilleures pratiques en matière de codage sécurisé.
.avif)

Klicken Sie auf den untenstehenden Link und laden Sie das PDF dieser Ressource herunter.
Secure Code Warrior Ihr Unternehmen dabei, den Code während des gesamten Softwareentwicklungszyklus zu sichern und eine Kultur zu schaffen, in der Cybersicherheit oberste Priorität hat. Ganz gleich, ob Sie für die Anwendungssicherheit verantwortlich sind, Entwickler, IT-Sicherheitsbeauftragter oder in einer anderen Funktion im Bereich Sicherheit tätig sind – wir können Ihrem Unternehmen dabei helfen, die mit unsicherem Code verbundenen Risiken zu reduzieren.
Bericht anzeigenDemo buchen
Comment les assistants de codage basés sur l'IA introduisent-ils des vulnérabilités ? Jouez à notre NOUVELLE mission publique et voyez par vous-même ! Cette mission révèle l'interface familière d'un LLM populaire et utilise un véritable extrait de code généré fin novembre 2023. Les utilisateurs peuvent interpréter cet extrait et étudier les éventuelles failles de sécurité s'il devait être utilisé aux fins prévues.
Essayez la missionLaura Verheyde est une développeuse de logiciels chez Secure Code Warrior qui se concentre sur la recherche de vulnérabilités et la création de contenu pour les missions et les laboratoires de codage.
Où que vous regardiez, la technologie de l'IA suscite un engouement permanent dans presque tous les secteurs d'activité. Considérés par certains comme la solution à la création rapide de fonctionnalités dans le développement de logiciels, les gains de rapidité ont un prix : la possibilité que de graves bogues de sécurité pénètrent dans les bases de code, en raison d'un manque de connaissance contextuelle de la part de l'outil lui-même, et des compétences de sécurité de faible niveau de la part des développeurs qui comptent sur eux pour augmenter la productivité et trouver des réponses à des scénarios de développement difficiles.
La technologie LLM (Large Language Model) représente un changement radical dans le domaine des outils d'assistance et, lorsqu'elle est utilisée en toute sécurité, pourrait bien être le compagnon de programmation idéal pour de nombreux ingénieurs logiciels. Cependant, il a été rapidement établi que l'utilisation incontrôlée des outils de développement de l'IA peut avoir un impact négatif, avec un Étude 2023 de l'université de Stanford révélant que le recours à des assistants d'IA était susceptible d'entraîner un code globalement plus bogué et moins sécurisé, en plus d'une augmentation de la confiance dans la sécurité du résultat.
Bien qu'il soit légitime de supposer que les outils continueront de s'améliorer au fur et à mesure que la course à la perfection de la technologie LLM se poursuit, de nombreuses recommandations, notamment un nouveau décret de l'administration Biden, ainsi que Loi sur l'intelligence artificielle de l'UE - rend leur utilisation délicate dans tous les cas. Les développeurs peuvent prendre une longueur d'avance en perfectionnant leurs compétences en matière de sécurité au niveau du code, leur sensibilisation et leur esprit critique en ce qui concerne les résultats des outils d'IA, et, en retour, devenir un ingénieur de haut niveau.
Comment les assistants de codage basés sur l'IA introduisent-ils des vulnérabilités ? Jouez à notre NOUVELLE mission publique et voyez par vous-même !

Exemple : script intersite (XSS) dans « ChatterGPT »
Notre nouvelle mission publique dévoile l'interface familière d'un LLM populaire et utilise un réel extrait de code généré fin novembre 2023. Les utilisateurs peuvent interpréter cet extrait et étudier les éventuelles failles de sécurité s'il devait être utilisé aux fins prévues.
Sur la base de l'invite « Pouvez-vous écrire une fonction JavaScript qui modifie le contenu de l'élément HTML p, où le contenu est transmis via cette fonction ? » l'assistant IA produit consciencieusement un bloc de code, mais tout n'est pas ce qu'il semble.
Avez-vous déjà relevé le défi ? Dans le cas contraire, essayez dès maintenant avant de poursuivre la lecture.
... d'accord, maintenant que vous l'avez terminé, vous savez que le code en question est vulnérable au cross-site scripting (XSS).
XSS est rendu possible en manipulant les fonctionnalités de base des navigateurs Web. Cela peut se produire lorsqu'une entrée non fiable est rendue en tant que sortie sur une page, mais interprétée à tort comme un code exécutable et sécurisé. Un attaquant peut placer un extrait malveillant (balises HTML, JavaScript, etc.) dans un paramètre d'entrée qui, une fois renvoyé au navigateur, est ensuite exécuté au lieu d'être affiché sous forme de données.
Utiliser les assistants de codage IA en toute sécurité dans le développement de logiciels
UNE enquête récente des équipes de développement actives ont révélé que la quasi-totalité d'entre elles, soit 96 %, avaient commencé à utiliser des assistants IA dans leur flux de travail, et 80 % d'entre elles contournaient même les politiques de sécurité pour les conserver dans leur boîte à outils. En outre, plus de la moitié ont reconnu que les outils d'IA génératifs créent généralement du code non sécurisé, mais cela n'a clairement pas ralenti leur adoption.
En cette nouvelle ère de processus de développement logiciel, il est peu probable que le fait de décourager ou d'interdire l'utilisation de ces outils soit efficace. Les entreprises doivent plutôt permettre à leurs équipes de développement d'exploiter les gains d'efficacité et de productivité sans sacrifier la sécurité ou la qualité du code. Cela nécessite une formation précise sur les meilleures pratiques de codage sécurisé et leur donner la possibilité de développer leurs capacités de réflexion critique, en veillant à ce qu'ils agissent dans un état d'esprit axé sur la sécurité, en particulier lorsqu'ils évaluent la menace potentielle que représente la sortie de code d'un assistant d'IA.
Lectures complémentaires
Pour le XSS en général, consultez notre guide complet.
Vous souhaitez en savoir plus sur la façon d'écrire du code sécurisé et atténuer les risques? Essayez notre Défi d'injection XSS gratuit.
Si vous souhaitez obtenir plus de directives de codage gratuites, consultez Coach de code sécurisé pour vous aider à rester au fait des meilleures pratiques en matière de codage sécurisé.
.avif)
Inhaltsverzeichnis

Secure Code Warrior Ihr Unternehmen dabei, den Code während des gesamten Softwareentwicklungszyklus zu sichern und eine Kultur zu schaffen, in der Cybersicherheit oberste Priorität hat. Ganz gleich, ob Sie für die Anwendungssicherheit verantwortlich sind, Entwickler, IT-Sicherheitsbeauftragter oder in einer anderen Funktion im Bereich Sicherheit tätig sind – wir können Ihrem Unternehmen dabei helfen, die mit unsicherem Code verbundenen Risiken zu reduzieren.
Demo buchenHerunterladenRessourcen, die Ihnen den Einstieg erleichtern
Themen und Inhalte der Schulung zum sicheren Code
Unsere hochmodernen Inhalte werden ständig weiterentwickelt, um mit den ständigen Veränderungen in der Softwareentwicklungslandschaft Schritt zu halten und gleichzeitig Ihre Rolle zu berücksichtigen. Die Themen reichen von KI bis hin zu XQuery-Injection und sind für eine Vielzahl von Positionen konzipiert, von Architekten über Ingenieure bis hin zu Produktmanagern und Qualitätssicherungsmitarbeitern. Verschaffen Sie sich einen Überblick über die Inhalte unseres Katalogs, sortiert nach Themen und Rollen.
Die Kamer van Koophandel setzt Maßstäbe für entwicklergesteuerte Sicherheit in großem Maßstab
Die Kamer van Koophandel berichtet, wie sie sicheres Codieren durch rollenbasierte Zertifizierungen, Trust Score-Benchmarking und eine Kultur der gemeinsamen Verantwortung für Sicherheit in die tägliche Entwicklungsarbeit integriert hat.
Bedrohungsmodellierung mit KI: So wird jeder Entwickler zum Bedrohungsmodellierer
Sie werden besser gerüstet sein, um Entwicklern dabei zu helfen, Ideen und Techniken zur Bedrohungsmodellierung mit den KI-Tools zu kombinieren, die sie bereits verwenden, um die Sicherheit zu erhöhen, die Zusammenarbeit zu verbessern und von Anfang an widerstandsfähigere Software zu entwickeln.
Ressourcen, die Ihnen den Einstieg erleichtern
Cybermon ist zurück: Die missions „Beat the Boss“ sind jetzt auf Abruf verfügbar.
Cybermon 2025 Beat the Boss ist jetzt das ganze Jahr über in SCW verfügbar. Setzen Sie fortschrittliche Sicherheitsherausforderungen im Zusammenhang mit KI und LLM ein, um die sichere Entwicklung von KI in großem Maßstab zu stärken.
Erläuterung des Gesetzes zur Cyberresilienz: Was bedeutet das für die Entwicklung sicherer Software bereits ab der Konzeption?
Entdecken Sie, was das europäische Gesetz zur Cyberresilienz (CRA) verlangt, für wen es gilt und wie sich Ingenieurteams durch Sicherheitsmaßnahmen bereits in der Entwurfsphase, durch die Vermeidung von Schwachstellen und durch die Stärkung der Fähigkeiten der Entwickler darauf vorbereiten können.
Moderator 1: Definierte und messbare Erfolgskriterien
Enabler 1 gibt den Startschuss für unsere 10-teilige Serie mit dem Titel „Enablers of Success“ und zeigt, wie sichere Codierung mit geschäftlichen Ergebnissen wie Risikominderung und Schnelligkeit kombiniert werden kann, um die langfristige Reife von Programmen sicherzustellen.



%20(1).avif)
.avif)
