
Kritisches Denken in der KI-gestützten sicheren Softwareentwicklung
Eine Version dieses Artikels erschien in Cybersecurity Insiders. Er wurde aktualisiert und hier syndiziert.
Der Einsatz von Assistenten der künstlichen Intelligenz, die von Large Language Model (LLM) Code-Erstellern bis hin zu hochentwickelten agentenbasierten KI-Agenten reichen, bietet Softwareentwicklern eine Fülle von Vorteilen. Jüngste Erkenntnisse, die durch eine neue MIT-Studie unterstrichen werden, geben jedoch eine Warnung aus: Die starke Abhängigkeit von KI könnte dazu führen, dass Nutzer ihre Fähigkeiten zum kritischen Denken verlieren.
In einer Software-Landschaft, in der die KI-bezogenen Sicherheitsrisiken im Gleichschritt mit der KI-Einführung gewachsen sind, könnte dieser Verlust an kognitiver Fitness tatsächlich zu katastrophalen Ergebnissen führen. Es ist ein ethischer Imperativ für Entwickler und Unternehmen, Sicherheitsschwachstellen proaktiv und frühzeitig im Softwareentwicklungszyklus (SDLC) zu erkennen, zu verstehen und zu entschärfen. Diejenigen, die diese Pflicht vernachlässigen, und das sind heute erschreckenderweise viele Unternehmen, sehen sich mit einem ebenso starken Anstieg potenzieller Sicherheitsbedrohungen konfrontiert, von denen einige direkt auf die KI zurückzuführen sind.
Die Debatte dreht sich nicht um die Frage, ob KI eingesetzt werden soll, denn die Produktivitäts- und Effizienzvorteile sind zu groß, um sie auszuschließen. Die eigentliche Frage ist vielmehr, wie sie am effektivsten eingesetzt werden kann: Gewährleistung der Sicherheit bei gleichzeitiger Maximierung der Leistungssteigerung. Und das geht am besten mit sicherheitsbewussten Entwicklern, die ihren Code genau verstehen, unabhängig davon, wo er entstanden ist.
Übermäßiges Vertrauen in KI birgt das Risiko eines kognitiven Rückgangs
In der Anfang Juni veröffentlichten Studie des Media Lab des MIT wurden die kognitiven Funktionen von 54 Studenten aus fünf Universitäten im Großraum Boston getestet, während sie einen Aufsatz schrieben. Die Studenten wurden in drei Gruppen eingeteilt: diejenigen, die ein Large Language Model (LLM) verwendeten, diejenigen, die Suchmaschinen nutzten, und diejenigen, die ohne fremde Hilfe nach alter Schule vorgingen. Das Forschungsteam nutzte die Elektroenzephalographie (EEG), um die Gehirnaktivität der Teilnehmer aufzuzeichnen und das kognitive Engagement und die kognitive Belastung zu bewerten. Das Team fand heraus, dass die Gruppe, die nur mit dem Gehirn arbeitete, die stärkste und weitreichendste neuronale Aktivität aufwies, während die Teilnehmer, die Suchmaschinen benutzten, eine mäßige Aktivität zeigten, und die Teilnehmer, die ein LLM benutzten (in diesem Fall ChatGPT-4 von OpenAI), die geringste Gehirnaktivität aufwiesen.
Dies mag nicht sonderlich überraschen - schließlich wird man weniger nachdenken, wenn man ein Werkzeug einsetzt, das das Denken für einen übernimmt. Die Studie ergab jedoch auch, dass LLM-Nutzer eine schwächere Verbindung zu ihren Arbeiten hatten: 83 % der Studenten hatten Schwierigkeiten, sich an den Inhalt ihrer Aufsätze zu erinnern, selbst nur wenige Minuten nach deren Fertigstellung, und keiner der Teilnehmer konnte genaue Zitate angeben. Im Vergleich zu den anderen Gruppen fehlte das Gefühl der Autorenschaft. Die Teilnehmer, die nur mit dem Gehirn arbeiteten, hatten nicht nur das größte Verantwortungsgefühl und zeigten die größte Bandbreite an Gehirnaktivität, sondern verfassten auch die originellsten Aufsätze. Die Ergebnisse der LLM-Gruppe waren homogener und wurden von den Juroren leicht als das Werk von KI identifiziert.
Aus der Sicht der Entwickler ist das wichtigste Ergebnis die Beeinträchtigung des kritischen Denkens durch den Einsatz von KI. Der einmalige Einsatz von KI führt zwar nicht unbedingt zu einem Verlust grundlegender Denkfähigkeiten, aber die ständige Nutzung über einen längeren Zeitraum kann dazu führen, dass diese Fähigkeiten verkümmern. Die Studie schlägt eine Möglichkeit vor, das kritische Denken beim Einsatz von KI aufrechtzuerhalten, indem die KI dem Benutzer hilft, anstatt dass der Benutzer der KI hilft. Der eigentliche Schwerpunkt muss jedoch darauf liegen, sicherzustellen, dass die Entwickler über die Sicherheitsfähigkeiten verfügen, die sie benötigen, um sichere Software zu entwickeln, und dass sie diese Fähigkeiten als routinemäßigen, wesentlichen Teil ihrer Arbeit einsetzen.
Ausbildung von Entwicklern: Wesentlich für das KI-gesteuerte Ökosystem
Eine Studie wie die des MIT wird die Einführung von KI nicht aufhalten, die in allen Sektoren voranschreitet. Der "2025 AI Index Report" der Stanford University ergab, dass 78 % der Unternehmen im Jahr 2024 KI einsetzen werden, verglichen mit 55 % im Jahr 2023. Dieses Wachstum wird sich voraussichtlich fortsetzen. Die zunehmende Nutzung geht jedoch mit einem erhöhten Risiko einher: Der Bericht ergab, dass KI-bezogene Cybersicherheitsvorfälle im gleichen Zeitraum um 56 % zunahmen.
Der Stanford-Bericht unterstreicht die dringende Notwendigkeit einer verbesserten KI-Governance, da er auch feststellt, dass Unternehmen bei der Umsetzung von Sicherheitsvorkehrungen nachlässig sind. Obwohl praktisch alle Unternehmen die Risiken von KI erkennen, unternehmen weniger als zwei Drittel etwas dagegen. Dadurch sind sie einer Vielzahl von Cybersicherheitsbedrohungen ausgesetzt und verstoßen möglicherweise gegen immer strengere gesetzliche Vorschriften.
Wenn die Antwort nicht darin besteht, die Nutzung von KI einzustellen (was niemand tun wird), muss sie darin bestehen, KI sicherer zu nutzen. Die MIT-Studie bietet einen hilfreichen Hinweis darauf, wie man das anstellen kann. In einem vierten Durchgang der Studie teilten die Forscher die LLM-Nutzer in zwei Gruppen ein: diejenigen, die den Aufsatz alleine begannen, bevor sie ChatGPT um Hilfe baten, in der Studie als Brain-to-LLM-Gruppe bezeichnet, und diejenigen, die ChatGPT einen ersten Entwurf ausarbeiten ließen, bevor sie sich persönlich darum kümmerten, als LLM-to-Brain-Gruppe bezeichnet. Die Brain-to-LLM-Gruppe, die KI-Tools nutzte, um einen bereits verfassten Aufsatz umzuschreiben, zeigte eine höhere Erinnerungsleistung und Gehirnaktivität, wobei einige Bereiche denen der Suchmaschinenbenutzer ähnelten. Die LLM-to-Brain-Gruppe, bei der die KI den Aufsatz initiierte, zeigte weniger koordinierte neuronale Aktivität und eine Tendenz zur Verwendung von LLM-Vokabular.
Ein Brain-to-LLM-Ansatz kann dazu beitragen, dass die Gehirne der Benutzer etwas schärfer werden, aber die Entwickler brauchen auch das spezifische Wissen, um Software sicher zu schreiben und den von der KI erzeugten Code kritisch auf Fehler und Sicherheitsrisiken zu prüfen. Sie müssen die Grenzen der KI verstehen, einschließlich ihrer Neigung, Sicherheitslücken wie Schwachstellen für Prompt-Injection-Angriffe einzuführen.
Dies erfordert eine Überarbeitung der Sicherheitsprogramme von Unternehmen, um einen menschenzentrierten SDLC zu gewährleisten, in dem Entwickler im Rahmen einer unternehmensweiten Sicherheitskultur effektiv, flexibel, praxisnah und kontinuierlich weitergebildet werden. Entwickler müssen ihre Fähigkeiten kontinuierlich verbessern, um mit den sich schnell entwickelnden, ausgefeilten Bedrohungen Schritt zu halten, insbesondere mit denen, die durch die herausragende Rolle der KI in der Softwareentwicklung entstehen. Dies schützt beispielsweise vor den immer häufiger auftretenden Prompt-Injection-Angriffen. Doch damit dieser Schutz funktioniert, brauchen Unternehmen eine von den Entwicklern getragene Initiative, die sich auf sichere Entwurfsmuster und Bedrohungsmodellierung konzentriert.
Fazit
Wenn LLMs oder Agenten die schwere Arbeit übernehmen, werden die Nutzer zu passiven Beobachtern. Dies kann, so die Autoren der Studie, zu "geschwächten Fähigkeiten des kritischen Denkens, einem geringeren Verständnis des Materials und einer geringeren Bildung des Langzeitgedächtnisses" führen. Ein geringeres Maß an kognitivem Engagement kann auch zu einer geringeren Entscheidungsfähigkeit führen.
Unternehmen können sich einen Mangel an kritischem Denken nicht leisten, wenn es um Cybersicherheit geht. Und da Softwarefehler in hochgradig verteilten, cloudbasierten Umgebungen zum Hauptziel von Cyberangreifern geworden sind, beginnt Cybersicherheit mit der Gewährleistung von sicherem Code, unabhängig davon, ob er von Entwicklern, KI-Assistenten oder agentenbasierten Agenten erstellt wird. Bei aller Leistungsfähigkeit der KI brauchen Unternehmen mehr denn je ausgefeilte Fähigkeiten zur Problemlösung und zum kritischen Denken. Und das kann nicht an KI ausgelagert werden.
Die neuen KI-Fähigkeiten von SCW Trust Agent bieten Ihnen die umfassende Beobachtungsmöglichkeit und Kontrolle, die Sie benötigen, um die Einführung von KI in Ihrem SDLC ohne Sicherheitseinbußen zu bewältigen. Erfahren Sie mehr.


Bei der KI-Debatte geht es nicht um den Nutzen, sondern um die Anwendung. Entdecken Sie, wie Sie die Notwendigkeit von KI-Produktivitätssteigerungen mit robuster Sicherheit in Einklang bringen können, indem Sie sich auf Entwickler verlassen, die ihren Code genau verstehen.
Matias Madou, Ph.D. est expert en sécurité, chercheur, directeur technique et cofondateur de Secure Code Warrior. Matias a obtenu son doctorat en sécurité des applications à l'université de Gand, en se concentrant sur les solutions d'analyse statique. Il a ensuite rejoint Fortify aux États-Unis, où il s'est rendu compte qu'il ne suffisait pas de détecter uniquement les problèmes de code sans aider les développeurs à écrire du code sécurisé. Cela l'a incité à développer des produits qui aident les développeurs, allègent le fardeau de la sécurité et dépassent les attentes des clients. Lorsqu'il n'est pas à son bureau au sein de Team Awesome, il aime être sur scène pour faire des présentations lors de conférences telles que RSA Conference, BlackHat et DefCon.

Secure Code Warrior Ihr Unternehmen dabei, den Code während des gesamten Softwareentwicklungszyklus zu sichern und eine Kultur zu schaffen, in der Cybersicherheit oberste Priorität hat. Ganz gleich, ob Sie für die Anwendungssicherheit verantwortlich sind, Entwickler, IT-Sicherheitsbeauftragter oder in einer anderen Funktion im Bereich Sicherheit tätig sind – wir können Ihrem Unternehmen dabei helfen, die mit unsicherem Code verbundenen Risiken zu reduzieren.
Demo buchenMatias Madou, Ph.D. est expert en sécurité, chercheur, directeur technique et cofondateur de Secure Code Warrior. Matias a obtenu son doctorat en sécurité des applications à l'université de Gand, en se concentrant sur les solutions d'analyse statique. Il a ensuite rejoint Fortify aux États-Unis, où il s'est rendu compte qu'il ne suffisait pas de détecter uniquement les problèmes de code sans aider les développeurs à écrire du code sécurisé. Cela l'a incité à développer des produits qui aident les développeurs, allègent le fardeau de la sécurité et dépassent les attentes des clients. Lorsqu'il n'est pas à son bureau au sein de Team Awesome, il aime être sur scène pour faire des présentations lors de conférences telles que RSA Conference, BlackHat et DefCon.
Matias est un chercheur et développeur qui possède plus de 15 ans d'expérience pratique en matière de sécurité logicielle. Il a développé des solutions pour des entreprises telles que Fortify Software et sa propre société Sensei Security. Au cours de sa carrière, Matias a dirigé de nombreux projets de recherche sur la sécurité des applications qui ont abouti à des produits commerciaux et possède plus de 10 brevets à son actif. Lorsqu'il n'est pas à son bureau, Matias a enseigné des cours de formation avancée sur la sécurité des applications et prend régulièrement la parole lors de conférences mondiales telles que RSA Conference, Black Hat, DefCon, BSIMM, OWASP AppSec et BruCon.
Matias est titulaire d'un doctorat en génie informatique de l'université de Gand, où il a étudié la sécurité des applications par le biais de l'obfuscation de programmes pour masquer le fonctionnement interne d'une application.


Eine Version dieses Artikels erschien in Cybersecurity Insiders. Er wurde aktualisiert und hier syndiziert.
Der Einsatz von Assistenten der künstlichen Intelligenz, die von Large Language Model (LLM) Code-Erstellern bis hin zu hochentwickelten agentenbasierten KI-Agenten reichen, bietet Softwareentwicklern eine Fülle von Vorteilen. Jüngste Erkenntnisse, die durch eine neue MIT-Studie unterstrichen werden, geben jedoch eine Warnung aus: Die starke Abhängigkeit von KI könnte dazu führen, dass Nutzer ihre Fähigkeiten zum kritischen Denken verlieren.
In einer Software-Landschaft, in der die KI-bezogenen Sicherheitsrisiken im Gleichschritt mit der KI-Einführung gewachsen sind, könnte dieser Verlust an kognitiver Fitness tatsächlich zu katastrophalen Ergebnissen führen. Es ist ein ethischer Imperativ für Entwickler und Unternehmen, Sicherheitsschwachstellen proaktiv und frühzeitig im Softwareentwicklungszyklus (SDLC) zu erkennen, zu verstehen und zu entschärfen. Diejenigen, die diese Pflicht vernachlässigen, und das sind heute erschreckenderweise viele Unternehmen, sehen sich mit einem ebenso starken Anstieg potenzieller Sicherheitsbedrohungen konfrontiert, von denen einige direkt auf die KI zurückzuführen sind.
Die Debatte dreht sich nicht um die Frage, ob KI eingesetzt werden soll, denn die Produktivitäts- und Effizienzvorteile sind zu groß, um sie auszuschließen. Die eigentliche Frage ist vielmehr, wie sie am effektivsten eingesetzt werden kann: Gewährleistung der Sicherheit bei gleichzeitiger Maximierung der Leistungssteigerung. Und das geht am besten mit sicherheitsbewussten Entwicklern, die ihren Code genau verstehen, unabhängig davon, wo er entstanden ist.
Übermäßiges Vertrauen in KI birgt das Risiko eines kognitiven Rückgangs
In der Anfang Juni veröffentlichten Studie des Media Lab des MIT wurden die kognitiven Funktionen von 54 Studenten aus fünf Universitäten im Großraum Boston getestet, während sie einen Aufsatz schrieben. Die Studenten wurden in drei Gruppen eingeteilt: diejenigen, die ein Large Language Model (LLM) verwendeten, diejenigen, die Suchmaschinen nutzten, und diejenigen, die ohne fremde Hilfe nach alter Schule vorgingen. Das Forschungsteam nutzte die Elektroenzephalographie (EEG), um die Gehirnaktivität der Teilnehmer aufzuzeichnen und das kognitive Engagement und die kognitive Belastung zu bewerten. Das Team fand heraus, dass die Gruppe, die nur mit dem Gehirn arbeitete, die stärkste und weitreichendste neuronale Aktivität aufwies, während die Teilnehmer, die Suchmaschinen benutzten, eine mäßige Aktivität zeigten, und die Teilnehmer, die ein LLM benutzten (in diesem Fall ChatGPT-4 von OpenAI), die geringste Gehirnaktivität aufwiesen.
Dies mag nicht sonderlich überraschen - schließlich wird man weniger nachdenken, wenn man ein Werkzeug einsetzt, das das Denken für einen übernimmt. Die Studie ergab jedoch auch, dass LLM-Nutzer eine schwächere Verbindung zu ihren Arbeiten hatten: 83 % der Studenten hatten Schwierigkeiten, sich an den Inhalt ihrer Aufsätze zu erinnern, selbst nur wenige Minuten nach deren Fertigstellung, und keiner der Teilnehmer konnte genaue Zitate angeben. Im Vergleich zu den anderen Gruppen fehlte das Gefühl der Autorenschaft. Die Teilnehmer, die nur mit dem Gehirn arbeiteten, hatten nicht nur das größte Verantwortungsgefühl und zeigten die größte Bandbreite an Gehirnaktivität, sondern verfassten auch die originellsten Aufsätze. Die Ergebnisse der LLM-Gruppe waren homogener und wurden von den Juroren leicht als das Werk von KI identifiziert.
Aus der Sicht der Entwickler ist das wichtigste Ergebnis die Beeinträchtigung des kritischen Denkens durch den Einsatz von KI. Der einmalige Einsatz von KI führt zwar nicht unbedingt zu einem Verlust grundlegender Denkfähigkeiten, aber die ständige Nutzung über einen längeren Zeitraum kann dazu führen, dass diese Fähigkeiten verkümmern. Die Studie schlägt eine Möglichkeit vor, das kritische Denken beim Einsatz von KI aufrechtzuerhalten, indem die KI dem Benutzer hilft, anstatt dass der Benutzer der KI hilft. Der eigentliche Schwerpunkt muss jedoch darauf liegen, sicherzustellen, dass die Entwickler über die Sicherheitsfähigkeiten verfügen, die sie benötigen, um sichere Software zu entwickeln, und dass sie diese Fähigkeiten als routinemäßigen, wesentlichen Teil ihrer Arbeit einsetzen.
Ausbildung von Entwicklern: Wesentlich für das KI-gesteuerte Ökosystem
Eine Studie wie die des MIT wird die Einführung von KI nicht aufhalten, die in allen Sektoren voranschreitet. Der "2025 AI Index Report" der Stanford University ergab, dass 78 % der Unternehmen im Jahr 2024 KI einsetzen werden, verglichen mit 55 % im Jahr 2023. Dieses Wachstum wird sich voraussichtlich fortsetzen. Die zunehmende Nutzung geht jedoch mit einem erhöhten Risiko einher: Der Bericht ergab, dass KI-bezogene Cybersicherheitsvorfälle im gleichen Zeitraum um 56 % zunahmen.
Der Stanford-Bericht unterstreicht die dringende Notwendigkeit einer verbesserten KI-Governance, da er auch feststellt, dass Unternehmen bei der Umsetzung von Sicherheitsvorkehrungen nachlässig sind. Obwohl praktisch alle Unternehmen die Risiken von KI erkennen, unternehmen weniger als zwei Drittel etwas dagegen. Dadurch sind sie einer Vielzahl von Cybersicherheitsbedrohungen ausgesetzt und verstoßen möglicherweise gegen immer strengere gesetzliche Vorschriften.
Wenn die Antwort nicht darin besteht, die Nutzung von KI einzustellen (was niemand tun wird), muss sie darin bestehen, KI sicherer zu nutzen. Die MIT-Studie bietet einen hilfreichen Hinweis darauf, wie man das anstellen kann. In einem vierten Durchgang der Studie teilten die Forscher die LLM-Nutzer in zwei Gruppen ein: diejenigen, die den Aufsatz alleine begannen, bevor sie ChatGPT um Hilfe baten, in der Studie als Brain-to-LLM-Gruppe bezeichnet, und diejenigen, die ChatGPT einen ersten Entwurf ausarbeiten ließen, bevor sie sich persönlich darum kümmerten, als LLM-to-Brain-Gruppe bezeichnet. Die Brain-to-LLM-Gruppe, die KI-Tools nutzte, um einen bereits verfassten Aufsatz umzuschreiben, zeigte eine höhere Erinnerungsleistung und Gehirnaktivität, wobei einige Bereiche denen der Suchmaschinenbenutzer ähnelten. Die LLM-to-Brain-Gruppe, bei der die KI den Aufsatz initiierte, zeigte weniger koordinierte neuronale Aktivität und eine Tendenz zur Verwendung von LLM-Vokabular.
Ein Brain-to-LLM-Ansatz kann dazu beitragen, dass die Gehirne der Benutzer etwas schärfer werden, aber die Entwickler brauchen auch das spezifische Wissen, um Software sicher zu schreiben und den von der KI erzeugten Code kritisch auf Fehler und Sicherheitsrisiken zu prüfen. Sie müssen die Grenzen der KI verstehen, einschließlich ihrer Neigung, Sicherheitslücken wie Schwachstellen für Prompt-Injection-Angriffe einzuführen.
Dies erfordert eine Überarbeitung der Sicherheitsprogramme von Unternehmen, um einen menschenzentrierten SDLC zu gewährleisten, in dem Entwickler im Rahmen einer unternehmensweiten Sicherheitskultur effektiv, flexibel, praxisnah und kontinuierlich weitergebildet werden. Entwickler müssen ihre Fähigkeiten kontinuierlich verbessern, um mit den sich schnell entwickelnden, ausgefeilten Bedrohungen Schritt zu halten, insbesondere mit denen, die durch die herausragende Rolle der KI in der Softwareentwicklung entstehen. Dies schützt beispielsweise vor den immer häufiger auftretenden Prompt-Injection-Angriffen. Doch damit dieser Schutz funktioniert, brauchen Unternehmen eine von den Entwicklern getragene Initiative, die sich auf sichere Entwurfsmuster und Bedrohungsmodellierung konzentriert.
Fazit
Wenn LLMs oder Agenten die schwere Arbeit übernehmen, werden die Nutzer zu passiven Beobachtern. Dies kann, so die Autoren der Studie, zu "geschwächten Fähigkeiten des kritischen Denkens, einem geringeren Verständnis des Materials und einer geringeren Bildung des Langzeitgedächtnisses" führen. Ein geringeres Maß an kognitivem Engagement kann auch zu einer geringeren Entscheidungsfähigkeit führen.
Unternehmen können sich einen Mangel an kritischem Denken nicht leisten, wenn es um Cybersicherheit geht. Und da Softwarefehler in hochgradig verteilten, cloudbasierten Umgebungen zum Hauptziel von Cyberangreifern geworden sind, beginnt Cybersicherheit mit der Gewährleistung von sicherem Code, unabhängig davon, ob er von Entwicklern, KI-Assistenten oder agentenbasierten Agenten erstellt wird. Bei aller Leistungsfähigkeit der KI brauchen Unternehmen mehr denn je ausgefeilte Fähigkeiten zur Problemlösung und zum kritischen Denken. Und das kann nicht an KI ausgelagert werden.
Die neuen KI-Fähigkeiten von SCW Trust Agent bieten Ihnen die umfassende Beobachtungsmöglichkeit und Kontrolle, die Sie benötigen, um die Einführung von KI in Ihrem SDLC ohne Sicherheitseinbußen zu bewältigen. Erfahren Sie mehr.

Eine Version dieses Artikels erschien in Cybersecurity Insiders. Er wurde aktualisiert und hier syndiziert.
Der Einsatz von Assistenten der künstlichen Intelligenz, die von Large Language Model (LLM) Code-Erstellern bis hin zu hochentwickelten agentenbasierten KI-Agenten reichen, bietet Softwareentwicklern eine Fülle von Vorteilen. Jüngste Erkenntnisse, die durch eine neue MIT-Studie unterstrichen werden, geben jedoch eine Warnung aus: Die starke Abhängigkeit von KI könnte dazu führen, dass Nutzer ihre Fähigkeiten zum kritischen Denken verlieren.
In einer Software-Landschaft, in der die KI-bezogenen Sicherheitsrisiken im Gleichschritt mit der KI-Einführung gewachsen sind, könnte dieser Verlust an kognitiver Fitness tatsächlich zu katastrophalen Ergebnissen führen. Es ist ein ethischer Imperativ für Entwickler und Unternehmen, Sicherheitsschwachstellen proaktiv und frühzeitig im Softwareentwicklungszyklus (SDLC) zu erkennen, zu verstehen und zu entschärfen. Diejenigen, die diese Pflicht vernachlässigen, und das sind heute erschreckenderweise viele Unternehmen, sehen sich mit einem ebenso starken Anstieg potenzieller Sicherheitsbedrohungen konfrontiert, von denen einige direkt auf die KI zurückzuführen sind.
Die Debatte dreht sich nicht um die Frage, ob KI eingesetzt werden soll, denn die Produktivitäts- und Effizienzvorteile sind zu groß, um sie auszuschließen. Die eigentliche Frage ist vielmehr, wie sie am effektivsten eingesetzt werden kann: Gewährleistung der Sicherheit bei gleichzeitiger Maximierung der Leistungssteigerung. Und das geht am besten mit sicherheitsbewussten Entwicklern, die ihren Code genau verstehen, unabhängig davon, wo er entstanden ist.
Übermäßiges Vertrauen in KI birgt das Risiko eines kognitiven Rückgangs
In der Anfang Juni veröffentlichten Studie des Media Lab des MIT wurden die kognitiven Funktionen von 54 Studenten aus fünf Universitäten im Großraum Boston getestet, während sie einen Aufsatz schrieben. Die Studenten wurden in drei Gruppen eingeteilt: diejenigen, die ein Large Language Model (LLM) verwendeten, diejenigen, die Suchmaschinen nutzten, und diejenigen, die ohne fremde Hilfe nach alter Schule vorgingen. Das Forschungsteam nutzte die Elektroenzephalographie (EEG), um die Gehirnaktivität der Teilnehmer aufzuzeichnen und das kognitive Engagement und die kognitive Belastung zu bewerten. Das Team fand heraus, dass die Gruppe, die nur mit dem Gehirn arbeitete, die stärkste und weitreichendste neuronale Aktivität aufwies, während die Teilnehmer, die Suchmaschinen benutzten, eine mäßige Aktivität zeigten, und die Teilnehmer, die ein LLM benutzten (in diesem Fall ChatGPT-4 von OpenAI), die geringste Gehirnaktivität aufwiesen.
Dies mag nicht sonderlich überraschen - schließlich wird man weniger nachdenken, wenn man ein Werkzeug einsetzt, das das Denken für einen übernimmt. Die Studie ergab jedoch auch, dass LLM-Nutzer eine schwächere Verbindung zu ihren Arbeiten hatten: 83 % der Studenten hatten Schwierigkeiten, sich an den Inhalt ihrer Aufsätze zu erinnern, selbst nur wenige Minuten nach deren Fertigstellung, und keiner der Teilnehmer konnte genaue Zitate angeben. Im Vergleich zu den anderen Gruppen fehlte das Gefühl der Autorenschaft. Die Teilnehmer, die nur mit dem Gehirn arbeiteten, hatten nicht nur das größte Verantwortungsgefühl und zeigten die größte Bandbreite an Gehirnaktivität, sondern verfassten auch die originellsten Aufsätze. Die Ergebnisse der LLM-Gruppe waren homogener und wurden von den Juroren leicht als das Werk von KI identifiziert.
Aus der Sicht der Entwickler ist das wichtigste Ergebnis die Beeinträchtigung des kritischen Denkens durch den Einsatz von KI. Der einmalige Einsatz von KI führt zwar nicht unbedingt zu einem Verlust grundlegender Denkfähigkeiten, aber die ständige Nutzung über einen längeren Zeitraum kann dazu führen, dass diese Fähigkeiten verkümmern. Die Studie schlägt eine Möglichkeit vor, das kritische Denken beim Einsatz von KI aufrechtzuerhalten, indem die KI dem Benutzer hilft, anstatt dass der Benutzer der KI hilft. Der eigentliche Schwerpunkt muss jedoch darauf liegen, sicherzustellen, dass die Entwickler über die Sicherheitsfähigkeiten verfügen, die sie benötigen, um sichere Software zu entwickeln, und dass sie diese Fähigkeiten als routinemäßigen, wesentlichen Teil ihrer Arbeit einsetzen.
Ausbildung von Entwicklern: Wesentlich für das KI-gesteuerte Ökosystem
Eine Studie wie die des MIT wird die Einführung von KI nicht aufhalten, die in allen Sektoren voranschreitet. Der "2025 AI Index Report" der Stanford University ergab, dass 78 % der Unternehmen im Jahr 2024 KI einsetzen werden, verglichen mit 55 % im Jahr 2023. Dieses Wachstum wird sich voraussichtlich fortsetzen. Die zunehmende Nutzung geht jedoch mit einem erhöhten Risiko einher: Der Bericht ergab, dass KI-bezogene Cybersicherheitsvorfälle im gleichen Zeitraum um 56 % zunahmen.
Der Stanford-Bericht unterstreicht die dringende Notwendigkeit einer verbesserten KI-Governance, da er auch feststellt, dass Unternehmen bei der Umsetzung von Sicherheitsvorkehrungen nachlässig sind. Obwohl praktisch alle Unternehmen die Risiken von KI erkennen, unternehmen weniger als zwei Drittel etwas dagegen. Dadurch sind sie einer Vielzahl von Cybersicherheitsbedrohungen ausgesetzt und verstoßen möglicherweise gegen immer strengere gesetzliche Vorschriften.
Wenn die Antwort nicht darin besteht, die Nutzung von KI einzustellen (was niemand tun wird), muss sie darin bestehen, KI sicherer zu nutzen. Die MIT-Studie bietet einen hilfreichen Hinweis darauf, wie man das anstellen kann. In einem vierten Durchgang der Studie teilten die Forscher die LLM-Nutzer in zwei Gruppen ein: diejenigen, die den Aufsatz alleine begannen, bevor sie ChatGPT um Hilfe baten, in der Studie als Brain-to-LLM-Gruppe bezeichnet, und diejenigen, die ChatGPT einen ersten Entwurf ausarbeiten ließen, bevor sie sich persönlich darum kümmerten, als LLM-to-Brain-Gruppe bezeichnet. Die Brain-to-LLM-Gruppe, die KI-Tools nutzte, um einen bereits verfassten Aufsatz umzuschreiben, zeigte eine höhere Erinnerungsleistung und Gehirnaktivität, wobei einige Bereiche denen der Suchmaschinenbenutzer ähnelten. Die LLM-to-Brain-Gruppe, bei der die KI den Aufsatz initiierte, zeigte weniger koordinierte neuronale Aktivität und eine Tendenz zur Verwendung von LLM-Vokabular.
Ein Brain-to-LLM-Ansatz kann dazu beitragen, dass die Gehirne der Benutzer etwas schärfer werden, aber die Entwickler brauchen auch das spezifische Wissen, um Software sicher zu schreiben und den von der KI erzeugten Code kritisch auf Fehler und Sicherheitsrisiken zu prüfen. Sie müssen die Grenzen der KI verstehen, einschließlich ihrer Neigung, Sicherheitslücken wie Schwachstellen für Prompt-Injection-Angriffe einzuführen.
Dies erfordert eine Überarbeitung der Sicherheitsprogramme von Unternehmen, um einen menschenzentrierten SDLC zu gewährleisten, in dem Entwickler im Rahmen einer unternehmensweiten Sicherheitskultur effektiv, flexibel, praxisnah und kontinuierlich weitergebildet werden. Entwickler müssen ihre Fähigkeiten kontinuierlich verbessern, um mit den sich schnell entwickelnden, ausgefeilten Bedrohungen Schritt zu halten, insbesondere mit denen, die durch die herausragende Rolle der KI in der Softwareentwicklung entstehen. Dies schützt beispielsweise vor den immer häufiger auftretenden Prompt-Injection-Angriffen. Doch damit dieser Schutz funktioniert, brauchen Unternehmen eine von den Entwicklern getragene Initiative, die sich auf sichere Entwurfsmuster und Bedrohungsmodellierung konzentriert.
Fazit
Wenn LLMs oder Agenten die schwere Arbeit übernehmen, werden die Nutzer zu passiven Beobachtern. Dies kann, so die Autoren der Studie, zu "geschwächten Fähigkeiten des kritischen Denkens, einem geringeren Verständnis des Materials und einer geringeren Bildung des Langzeitgedächtnisses" führen. Ein geringeres Maß an kognitivem Engagement kann auch zu einer geringeren Entscheidungsfähigkeit führen.
Unternehmen können sich einen Mangel an kritischem Denken nicht leisten, wenn es um Cybersicherheit geht. Und da Softwarefehler in hochgradig verteilten, cloudbasierten Umgebungen zum Hauptziel von Cyberangreifern geworden sind, beginnt Cybersicherheit mit der Gewährleistung von sicherem Code, unabhängig davon, ob er von Entwicklern, KI-Assistenten oder agentenbasierten Agenten erstellt wird. Bei aller Leistungsfähigkeit der KI brauchen Unternehmen mehr denn je ausgefeilte Fähigkeiten zur Problemlösung und zum kritischen Denken. Und das kann nicht an KI ausgelagert werden.
Die neuen KI-Fähigkeiten von SCW Trust Agent bieten Ihnen die umfassende Beobachtungsmöglichkeit und Kontrolle, die Sie benötigen, um die Einführung von KI in Ihrem SDLC ohne Sicherheitseinbußen zu bewältigen. Erfahren Sie mehr.

Klicken Sie auf den untenstehenden Link und laden Sie das PDF dieser Ressource herunter.
Secure Code Warrior Ihr Unternehmen dabei, den Code während des gesamten Softwareentwicklungszyklus zu sichern und eine Kultur zu schaffen, in der Cybersicherheit oberste Priorität hat. Ganz gleich, ob Sie für die Anwendungssicherheit verantwortlich sind, Entwickler, IT-Sicherheitsbeauftragter oder in einer anderen Funktion im Bereich Sicherheit tätig sind – wir können Ihrem Unternehmen dabei helfen, die mit unsicherem Code verbundenen Risiken zu reduzieren.
Bericht anzeigenDemo buchenMatias Madou, Ph.D. est expert en sécurité, chercheur, directeur technique et cofondateur de Secure Code Warrior. Matias a obtenu son doctorat en sécurité des applications à l'université de Gand, en se concentrant sur les solutions d'analyse statique. Il a ensuite rejoint Fortify aux États-Unis, où il s'est rendu compte qu'il ne suffisait pas de détecter uniquement les problèmes de code sans aider les développeurs à écrire du code sécurisé. Cela l'a incité à développer des produits qui aident les développeurs, allègent le fardeau de la sécurité et dépassent les attentes des clients. Lorsqu'il n'est pas à son bureau au sein de Team Awesome, il aime être sur scène pour faire des présentations lors de conférences telles que RSA Conference, BlackHat et DefCon.
Matias est un chercheur et développeur qui possède plus de 15 ans d'expérience pratique en matière de sécurité logicielle. Il a développé des solutions pour des entreprises telles que Fortify Software et sa propre société Sensei Security. Au cours de sa carrière, Matias a dirigé de nombreux projets de recherche sur la sécurité des applications qui ont abouti à des produits commerciaux et possède plus de 10 brevets à son actif. Lorsqu'il n'est pas à son bureau, Matias a enseigné des cours de formation avancée sur la sécurité des applications et prend régulièrement la parole lors de conférences mondiales telles que RSA Conference, Black Hat, DefCon, BSIMM, OWASP AppSec et BruCon.
Matias est titulaire d'un doctorat en génie informatique de l'université de Gand, où il a étudié la sécurité des applications par le biais de l'obfuscation de programmes pour masquer le fonctionnement interne d'une application.
Eine Version dieses Artikels erschien in Cybersecurity Insiders. Er wurde aktualisiert und hier syndiziert.
Der Einsatz von Assistenten der künstlichen Intelligenz, die von Large Language Model (LLM) Code-Erstellern bis hin zu hochentwickelten agentenbasierten KI-Agenten reichen, bietet Softwareentwicklern eine Fülle von Vorteilen. Jüngste Erkenntnisse, die durch eine neue MIT-Studie unterstrichen werden, geben jedoch eine Warnung aus: Die starke Abhängigkeit von KI könnte dazu führen, dass Nutzer ihre Fähigkeiten zum kritischen Denken verlieren.
In einer Software-Landschaft, in der die KI-bezogenen Sicherheitsrisiken im Gleichschritt mit der KI-Einführung gewachsen sind, könnte dieser Verlust an kognitiver Fitness tatsächlich zu katastrophalen Ergebnissen führen. Es ist ein ethischer Imperativ für Entwickler und Unternehmen, Sicherheitsschwachstellen proaktiv und frühzeitig im Softwareentwicklungszyklus (SDLC) zu erkennen, zu verstehen und zu entschärfen. Diejenigen, die diese Pflicht vernachlässigen, und das sind heute erschreckenderweise viele Unternehmen, sehen sich mit einem ebenso starken Anstieg potenzieller Sicherheitsbedrohungen konfrontiert, von denen einige direkt auf die KI zurückzuführen sind.
Die Debatte dreht sich nicht um die Frage, ob KI eingesetzt werden soll, denn die Produktivitäts- und Effizienzvorteile sind zu groß, um sie auszuschließen. Die eigentliche Frage ist vielmehr, wie sie am effektivsten eingesetzt werden kann: Gewährleistung der Sicherheit bei gleichzeitiger Maximierung der Leistungssteigerung. Und das geht am besten mit sicherheitsbewussten Entwicklern, die ihren Code genau verstehen, unabhängig davon, wo er entstanden ist.
Übermäßiges Vertrauen in KI birgt das Risiko eines kognitiven Rückgangs
In der Anfang Juni veröffentlichten Studie des Media Lab des MIT wurden die kognitiven Funktionen von 54 Studenten aus fünf Universitäten im Großraum Boston getestet, während sie einen Aufsatz schrieben. Die Studenten wurden in drei Gruppen eingeteilt: diejenigen, die ein Large Language Model (LLM) verwendeten, diejenigen, die Suchmaschinen nutzten, und diejenigen, die ohne fremde Hilfe nach alter Schule vorgingen. Das Forschungsteam nutzte die Elektroenzephalographie (EEG), um die Gehirnaktivität der Teilnehmer aufzuzeichnen und das kognitive Engagement und die kognitive Belastung zu bewerten. Das Team fand heraus, dass die Gruppe, die nur mit dem Gehirn arbeitete, die stärkste und weitreichendste neuronale Aktivität aufwies, während die Teilnehmer, die Suchmaschinen benutzten, eine mäßige Aktivität zeigten, und die Teilnehmer, die ein LLM benutzten (in diesem Fall ChatGPT-4 von OpenAI), die geringste Gehirnaktivität aufwiesen.
Dies mag nicht sonderlich überraschen - schließlich wird man weniger nachdenken, wenn man ein Werkzeug einsetzt, das das Denken für einen übernimmt. Die Studie ergab jedoch auch, dass LLM-Nutzer eine schwächere Verbindung zu ihren Arbeiten hatten: 83 % der Studenten hatten Schwierigkeiten, sich an den Inhalt ihrer Aufsätze zu erinnern, selbst nur wenige Minuten nach deren Fertigstellung, und keiner der Teilnehmer konnte genaue Zitate angeben. Im Vergleich zu den anderen Gruppen fehlte das Gefühl der Autorenschaft. Die Teilnehmer, die nur mit dem Gehirn arbeiteten, hatten nicht nur das größte Verantwortungsgefühl und zeigten die größte Bandbreite an Gehirnaktivität, sondern verfassten auch die originellsten Aufsätze. Die Ergebnisse der LLM-Gruppe waren homogener und wurden von den Juroren leicht als das Werk von KI identifiziert.
Aus der Sicht der Entwickler ist das wichtigste Ergebnis die Beeinträchtigung des kritischen Denkens durch den Einsatz von KI. Der einmalige Einsatz von KI führt zwar nicht unbedingt zu einem Verlust grundlegender Denkfähigkeiten, aber die ständige Nutzung über einen längeren Zeitraum kann dazu führen, dass diese Fähigkeiten verkümmern. Die Studie schlägt eine Möglichkeit vor, das kritische Denken beim Einsatz von KI aufrechtzuerhalten, indem die KI dem Benutzer hilft, anstatt dass der Benutzer der KI hilft. Der eigentliche Schwerpunkt muss jedoch darauf liegen, sicherzustellen, dass die Entwickler über die Sicherheitsfähigkeiten verfügen, die sie benötigen, um sichere Software zu entwickeln, und dass sie diese Fähigkeiten als routinemäßigen, wesentlichen Teil ihrer Arbeit einsetzen.
Ausbildung von Entwicklern: Wesentlich für das KI-gesteuerte Ökosystem
Eine Studie wie die des MIT wird die Einführung von KI nicht aufhalten, die in allen Sektoren voranschreitet. Der "2025 AI Index Report" der Stanford University ergab, dass 78 % der Unternehmen im Jahr 2024 KI einsetzen werden, verglichen mit 55 % im Jahr 2023. Dieses Wachstum wird sich voraussichtlich fortsetzen. Die zunehmende Nutzung geht jedoch mit einem erhöhten Risiko einher: Der Bericht ergab, dass KI-bezogene Cybersicherheitsvorfälle im gleichen Zeitraum um 56 % zunahmen.
Der Stanford-Bericht unterstreicht die dringende Notwendigkeit einer verbesserten KI-Governance, da er auch feststellt, dass Unternehmen bei der Umsetzung von Sicherheitsvorkehrungen nachlässig sind. Obwohl praktisch alle Unternehmen die Risiken von KI erkennen, unternehmen weniger als zwei Drittel etwas dagegen. Dadurch sind sie einer Vielzahl von Cybersicherheitsbedrohungen ausgesetzt und verstoßen möglicherweise gegen immer strengere gesetzliche Vorschriften.
Wenn die Antwort nicht darin besteht, die Nutzung von KI einzustellen (was niemand tun wird), muss sie darin bestehen, KI sicherer zu nutzen. Die MIT-Studie bietet einen hilfreichen Hinweis darauf, wie man das anstellen kann. In einem vierten Durchgang der Studie teilten die Forscher die LLM-Nutzer in zwei Gruppen ein: diejenigen, die den Aufsatz alleine begannen, bevor sie ChatGPT um Hilfe baten, in der Studie als Brain-to-LLM-Gruppe bezeichnet, und diejenigen, die ChatGPT einen ersten Entwurf ausarbeiten ließen, bevor sie sich persönlich darum kümmerten, als LLM-to-Brain-Gruppe bezeichnet. Die Brain-to-LLM-Gruppe, die KI-Tools nutzte, um einen bereits verfassten Aufsatz umzuschreiben, zeigte eine höhere Erinnerungsleistung und Gehirnaktivität, wobei einige Bereiche denen der Suchmaschinenbenutzer ähnelten. Die LLM-to-Brain-Gruppe, bei der die KI den Aufsatz initiierte, zeigte weniger koordinierte neuronale Aktivität und eine Tendenz zur Verwendung von LLM-Vokabular.
Ein Brain-to-LLM-Ansatz kann dazu beitragen, dass die Gehirne der Benutzer etwas schärfer werden, aber die Entwickler brauchen auch das spezifische Wissen, um Software sicher zu schreiben und den von der KI erzeugten Code kritisch auf Fehler und Sicherheitsrisiken zu prüfen. Sie müssen die Grenzen der KI verstehen, einschließlich ihrer Neigung, Sicherheitslücken wie Schwachstellen für Prompt-Injection-Angriffe einzuführen.
Dies erfordert eine Überarbeitung der Sicherheitsprogramme von Unternehmen, um einen menschenzentrierten SDLC zu gewährleisten, in dem Entwickler im Rahmen einer unternehmensweiten Sicherheitskultur effektiv, flexibel, praxisnah und kontinuierlich weitergebildet werden. Entwickler müssen ihre Fähigkeiten kontinuierlich verbessern, um mit den sich schnell entwickelnden, ausgefeilten Bedrohungen Schritt zu halten, insbesondere mit denen, die durch die herausragende Rolle der KI in der Softwareentwicklung entstehen. Dies schützt beispielsweise vor den immer häufiger auftretenden Prompt-Injection-Angriffen. Doch damit dieser Schutz funktioniert, brauchen Unternehmen eine von den Entwicklern getragene Initiative, die sich auf sichere Entwurfsmuster und Bedrohungsmodellierung konzentriert.
Fazit
Wenn LLMs oder Agenten die schwere Arbeit übernehmen, werden die Nutzer zu passiven Beobachtern. Dies kann, so die Autoren der Studie, zu "geschwächten Fähigkeiten des kritischen Denkens, einem geringeren Verständnis des Materials und einer geringeren Bildung des Langzeitgedächtnisses" führen. Ein geringeres Maß an kognitivem Engagement kann auch zu einer geringeren Entscheidungsfähigkeit führen.
Unternehmen können sich einen Mangel an kritischem Denken nicht leisten, wenn es um Cybersicherheit geht. Und da Softwarefehler in hochgradig verteilten, cloudbasierten Umgebungen zum Hauptziel von Cyberangreifern geworden sind, beginnt Cybersicherheit mit der Gewährleistung von sicherem Code, unabhängig davon, ob er von Entwicklern, KI-Assistenten oder agentenbasierten Agenten erstellt wird. Bei aller Leistungsfähigkeit der KI brauchen Unternehmen mehr denn je ausgefeilte Fähigkeiten zur Problemlösung und zum kritischen Denken. Und das kann nicht an KI ausgelagert werden.
Die neuen KI-Fähigkeiten von SCW Trust Agent bieten Ihnen die umfassende Beobachtungsmöglichkeit und Kontrolle, die Sie benötigen, um die Einführung von KI in Ihrem SDLC ohne Sicherheitseinbußen zu bewältigen. Erfahren Sie mehr.
Inhaltsverzeichnis
Matias Madou, Ph.D. est expert en sécurité, chercheur, directeur technique et cofondateur de Secure Code Warrior. Matias a obtenu son doctorat en sécurité des applications à l'université de Gand, en se concentrant sur les solutions d'analyse statique. Il a ensuite rejoint Fortify aux États-Unis, où il s'est rendu compte qu'il ne suffisait pas de détecter uniquement les problèmes de code sans aider les développeurs à écrire du code sécurisé. Cela l'a incité à développer des produits qui aident les développeurs, allègent le fardeau de la sécurité et dépassent les attentes des clients. Lorsqu'il n'est pas à son bureau au sein de Team Awesome, il aime être sur scène pour faire des présentations lors de conférences telles que RSA Conference, BlackHat et DefCon.

Secure Code Warrior Ihr Unternehmen dabei, den Code während des gesamten Softwareentwicklungszyklus zu sichern und eine Kultur zu schaffen, in der Cybersicherheit oberste Priorität hat. Ganz gleich, ob Sie für die Anwendungssicherheit verantwortlich sind, Entwickler, IT-Sicherheitsbeauftragter oder in einer anderen Funktion im Bereich Sicherheit tätig sind – wir können Ihrem Unternehmen dabei helfen, die mit unsicherem Code verbundenen Risiken zu reduzieren.
Demo buchenHerunterladenRessourcen, die Ihnen den Einstieg erleichtern
Trust Agent:AI - Secure and scale AI-Drive development
AI is writing code. Who’s governing it? With up to 50% of AI-generated code containing security weaknesses, managing AI risk is critical. Discover how SCW's Trust Agent: AI provides the real-time visibility, proactive governance, and targeted upskilling needed to scale AI-driven development securely.
Die Leistungsfähigkeit von OpenText Application Security + Secure Code Warrior
OpenText Application Security and Secure Code Warrior combine vulnerability detection with AI Software Governance and developer capability. Together, they help organizations reduce risk, strengthen secure coding practices, and confidently adopt AI-driven development.
Secure Code Warrior corporate overview
Secure Code Warrior is an AI Software Governance platform designed to enable organizations to safely adopt AI-driven development by bridging the gap between development velocity and enterprise security. The platform addresses the "Visibility Gap," where security teams often lack insights into shadow AI coding tools and the origins of production code.
Themen und Inhalte der Schulung zum sicheren Code
Unsere hochmodernen Inhalte werden ständig weiterentwickelt, um mit den ständigen Veränderungen in der Softwareentwicklungslandschaft Schritt zu halten und gleichzeitig Ihre Rolle zu berücksichtigen. Die Themen reichen von KI bis hin zu XQuery-Injection und sind für eine Vielzahl von Positionen konzipiert, von Architekten über Ingenieure bis hin zu Produktmanagern und Qualitätssicherungsmitarbeitern. Verschaffen Sie sich einen Überblick über die Inhalte unseres Katalogs, sortiert nach Themen und Rollen.
Ressourcen, die Ihnen den Einstieg erleichtern
Cybermon ist zurück: Die missions „Beat the Boss“ sind jetzt auf Abruf verfügbar.
Cybermon 2025 Beat the Boss ist jetzt das ganze Jahr über in SCW verfügbar. Setzen Sie fortschrittliche Sicherheitsherausforderungen im Zusammenhang mit KI und LLM ein, um die sichere Entwicklung von KI in großem Maßstab zu stärken.
Erläuterung des Gesetzes zur Cyberresilienz: Was bedeutet das für die Entwicklung sicherer Software bereits ab der Konzeption?
Entdecken Sie, was das europäische Gesetz zur Cyberresilienz (CRA) verlangt, für wen es gilt und wie sich Ingenieurteams durch Sicherheitsmaßnahmen bereits in der Entwurfsphase, durch die Vermeidung von Schwachstellen und durch die Stärkung der Fähigkeiten der Entwickler darauf vorbereiten können.
Moderator 1: Definierte und messbare Erfolgskriterien
Enabler 1 gibt den Startschuss für unsere 10-teilige Serie mit dem Titel „Enablers of Success“ und zeigt, wie sichere Codierung mit geschäftlichen Ergebnissen wie Risikominderung und Schnelligkeit kombiniert werden kann, um die langfristige Reife von Programmen sicherzustellen.




