Um die Vorteile der KI-Innovation zu nutzen, muss man mit sicherem Code beginnen
Um die Vorteile der KI-Innovation zu nutzen, muss man mit sicherem Code beginnen
![](https://cdn.prod.website-files.com/5fec9210c1841a6c20c6ce81/66156fa3e3cea2370c2301e0_Financial%20Guide%20Blog%20main%20image%206.webp)
![](https://cdn.prod.website-files.com/5fec9210c1841a6c20c6ce81/66981d5851003a8e12f7a070_generic%20blog.webp)
Softwareentwickler haben gezeigt, dass sie bereit sind, generative künstliche Intelligenz (KI) zum Schreiben von Code zu nutzen, und sie haben im Allgemeinen einige positive Ergebnisse erzielt. Aber es gibt auch viele Anzeichen dafür, dass sie ein gefährliches Spiel spielen könnten.
Laut einer kürzlich von GitHub durchgeführten Umfrage nutzen mehr als 90 % der US-Entwickler KI-Codierungstools und geben als Vorteile schnellere Fertigstellungszeiten, eine schnellere Lösung von Problemen und ein kollaborativeres Umfeld an, was sie als wichtig erachten. Die Arbeit mit KI-Tools ermöglicht es Entwicklern, Routineaufgaben abzugeben, so dass sie sich kreativeren Aufgaben widmen können, die ihrem Unternehmen zugutekommen, und verringert nicht zuletzt die Gefahr eines Burnouts am Arbeitsplatz.
Studien haben jedoch auch gezeigt, dass KI-Tools dazu neigen, beim Schreiben von Code Fehler zu machen. Eine Umfrage von Snyk ergab, dass zwar 75,8 % der Befragten angaben, dass KI-Code sicherer ist als menschlicher Code, aber 56,4 % räumten ein, dass KI manchmal Probleme bei der Codierung verursacht. Alarmierenderweise gaben 80 % der Befragten an, dass sie die Sicherheitsrichtlinien für KI-Code während der Entwicklung umgehen.
Seit dem Debüt von OpenAIs ChatGPT im November 2022 hat sich der Einsatz generativer KI-Modelle im Code-Entwicklungsprozess von Finanzdienstleistern, wie auch in vielen anderen Bereichen, blitzschnell verbreitet. Das rasche Auftauchen anderer Modelle wie GitHub Copilot, OpenAI Codex und eine wachsende Liste weiterer Modelle deutet darauf hin, dass wir erst an der Oberfläche dessen gekratzt haben, was generative KI leisten kann und welche Auswirkungen sie haben kann. Damit dieser Einfluss jedoch positiv ist, müssen wir sicherstellen, dass der von ihr generierte Code sicher ist.
Programmierfehler können sich schnell verbreiten
Unabhängig davon, ob der Code von menschlichen Entwicklern oder von KI-Modellen erstellt wurde, wird er immer einige Fehler enthalten. Da KI dazu beiträgt, die Code-Entwicklung zu beschleunigen, um den ständig steigenden Anforderungen in hochgradig verteilten, cloudbasierten Computerumgebungen gerecht zu werden, könnte die Wahrscheinlichkeit steigen, dass sich fehlerhafter Code weit verbreitet, bevor er entdeckt wird.
KI-Modelle, die für das Schreiben von Code trainiert werden, nehmen Tausende von Codebeispielen auf, die verschiedene Aufgaben erfüllen, und können dann auf diese Beispiele zurückgreifen, um ihren eigenen Code zu erstellen. Wenn die Beispiele jedoch Fehler oder Schwachstellen enthalten - unabhängig davon, ob sie ursprünglich von einem Menschen oder einer anderen KI erstellt wurden - könnte das Modell diese Fehler auf eine neue Umgebung übertragen.
Da die Forschung gezeigt hat, dass KI-Modelle nicht in der Lage sind, Fehler in dem von ihnen verwendeten Code zuverlässig zu erkennen, gibt es kaum einen eingebauten Schutz gegen die Verbreitung von Fehlern und Schwachstellen. KI wird nicht nur Fehler bei der Programmierung machen, sondern auch ihre eigenen Fehler und die anderer Quellen wiederholen, bis die Schwachstelle irgendwann entdeckt wird - vielleicht in Form eines erfolgreichen Einbruchs in ein Unternehmen, das die von ihr erstellte Software nutzt.
Der wirkliche Schutz gegen die Verbreitung von Programmierfehlern besteht darin, dass Menschen und KI-Modelle zusammenarbeiten. Menschliche Entwickler sollten das Schreiben von KI-Code überwachen und als Kontrolle gegen unsichere Codierungspraktiken und anfälligen Code dienen. Dazu müssen die Entwickler jedoch gründlich in den bewährten Verfahren für die Erstellung von sicherem Code geschult werden, damit sie mögliche KI-Fehler erkennen und schnell korrigieren können.
Die Herausforderungen der KI-Code-Erstellung und -Beseitigung
Die plötzliche Explosion großer Sprachmodelle (LLMs) wie ChatGPT war eine Art zweischneidiges Schwert. Auf der einen Seite haben Unternehmen und alltägliche Nutzer enorme Produktivitätsgewinne durch den Einsatz von KI zur Erledigung zeitraubender, lästiger oder schwieriger Aufgaben erlebt. Auf der anderen Seite gibt es viele Beispiele dafür, was schief gehen kann, wenn man KI blindlings die Arbeit überlässt.
KI-Modelle haben eklatante Fehler gemacht, Voreingenommenheit gezeigt und regelrechte Halluzinationen erzeugt. In vielen Fällen lag die Ursache für das Problem in unzureichenden oder unverantwortlichen Trainingsdaten. Jedes KI-Modell ist nur so gut wie die Daten, mit denen es trainiert wurde. Deshalb ist es wichtig, dass die Trainingsdaten umfassend und sorgfältig geprüft sind. Aber auch dann werden Fehler gemacht.
Die Verwendung von KI für die Programmierung steht vor vielen der gleichen Hürden. Es hat sich gezeigt, dass von KI generierter Code eine Reihe von Schwachstellen enthält, z. B. Anfälligkeiten für Cross-Site-Scripting und Code-Injection sowie Angriffe, die speziell auf KI und maschinelles Lernen (ML) ausgerichtet sind, wie z. B. Prompt-Injection. KI-Modelle arbeiten auch als Blackbox, weil ihre Prozesse nicht transparent sind, so dass ein Sicherheits- oder Entwicklungsteam nicht sehen kann, wie eine KI zu ihren Schlussfolgerungen kommt. Infolgedessen kann das Modell die gleichen Fehler immer wiederholen. Die gleichen Unzulänglichkeiten, die sich auf das Schreiben von Code auswirken können, gelten auch für den Einsatz von KI zur Codebereinigung und zur Erfüllung von Compliance-Anforderungen.
Das Potenzial für Fehler, die von KI-Modellen erzeugt oder wiederholt werden, ist so groß, dass LLMs jetzt eine eigene Liste der zehn größten Schwachstellen des Open Web Application Security Project (OWASP) haben.
Entwickler und KI können zusammenarbeiten, um sicheren Code zu erstellen
Bedenken hinsichtlich möglicher Fehler in KI-generiertem Code könnten einige Unternehmen, wenn auch nur kurz, davon abhalten, die Technologie weiter zu nutzen. Aber die potenziellen Vorteile sind zu groß, um sie zu ignorieren, vor allem, wenn die KI-Entwickler ihre Modelle weiter innovativ gestalten und verbessern. Es ist unwahrscheinlich, dass die Finanzdienstleistungsbranche den Geist wieder in die Flasche stecken wird. Banken und Finanzdienstleister sind bereits technologiegetrieben und in einem Bereich tätig, in dem sie immer auf der Suche nach einem Wettbewerbsvorteil sind.
Der Schlüssel liegt darin, KI-Modelle so zu implementieren, dass das Risiko minimiert wird. Und das bedeutet, dass die Entwickler über ein Sicherheitsbewusstsein verfügen und gründlich in den Best Practices für die sichere Programmierung geschult sind, damit sie selbst sicheren Code schreiben und den von den KI-Modellen erzeugten Code genau überwachen können. Wenn KI-Engines und menschliche Entwickler in enger Partnerschaft zusammenarbeiten und die Entwickler das letzte Wort haben, können Unternehmen die Vorteile einer verbesserten Produktivität und Effizienz nutzen und gleichzeitig die Sicherheit verbessern, Risiken begrenzen und die Einhaltung von Vorschriften gewährleisten.
Einen umfassenden Überblick darüber, wie sichere Kodierung den Erfolg, die Sicherheit und die Gewinne von Finanzdienstleistungsunternehmen gewährleisten kann, finden Sie in dem neu veröffentlichten Leitfaden Secure Code Warrior : Der ultimative Leitfaden für Sicherheitstrends im Finanzdienstleistungssektor.
Besuchen Sie die Secure Code Warrior Blog-Seiten, um mehr über Cybersicherheit und die zunehmend gefährliche Bedrohungslage zu erfahren und um zu lernen, wie Sie innovative Technologien und Schulungen einsetzen können, um Ihr Unternehmen und Ihre Kunden besser zu schützen.
Ressourcen für den Einstieg
Vertrauensperson von Secure Code Warrior
Entdecken Sie den SCW Trust Agent, eine innovative Lösung, die die Sicherheit erhöht, indem sie die Kenntnisse und Fähigkeiten von Entwicklern in Bezug auf sicheren Code mit der von ihnen übertragenen Arbeit in Einklang bringt. Er bietet umfassende Transparenz und Kontrolle über das gesamte Code-Repository eines Unternehmens, indem er jeden Commit mit den sicheren Code-Profilen der Entwickler abgleicht. Mit SCW Trust Agent können Unternehmen ihre Sicherheitslage verbessern, die Entwicklungszyklen optimieren und die entwicklergesteuerte Sicherheit skalieren.
Trust Score von Secure Code Warrior
Entdecken Sie den SCW Trust Score, ein branchenweit einzigartiges Benchmarking zur Messung der Effektivität Ihres Sicherheitsprogramms. Vergleichen Sie sich mit Branchenkollegen, optimieren Sie Ihre Sicherheitslage und treffen Sie datengestützte Entscheidungen für eine verbesserte Software-Sicherheit.
Ressourcen für den Einstieg
Frauen in der Sicherheitsbranche sind auf dem Vormarsch: Wie die AWSN eine neue Generation von Superfrauen im Sicherheitsbereich hervorbringt
Secure-by-Design ist die neueste Initiative, die in aller Munde ist, und die australische Regierung, die mit der CISA auf den höchsten Ebenen der Global Governance zusammenarbeitet, fordert von den Anbietern einen höheren Standard für Softwarequalität und -sicherheit.
Frauen in der Sicherheitsbranche sind auf dem Vormarsch: Wie die AWSN eine neue Generation von Superfrauen im Sicherheitsbereich hervorbringt
Secure-by-Design ist die neueste Initiative, die in aller Munde ist, und die australische Regierung, die mit der CISA auf den höchsten Ebenen der Global Governance zusammenarbeitet, fordert von den Anbietern einen höheren Standard für Softwarequalität und -sicherheit.
SCW Trust Agent - Sichtbarkeit und Kontrolle zur Skalierung der entwicklergesteuerten Sicherheit
Der von Secure Code Warrior vorgestellte SCW Trust Agent bietet Sicherheitsverantwortlichen die Transparenz und Kontrolle, die sie für die Skalierung der entwicklergesteuerten Sicherheit in Unternehmen benötigen. Durch die Verbindung mit Code-Repositories wertet er Code-Commit-Metadaten aus, prüft Entwickler, verwendete Programmiersprachen und Zeitstempel für den Versand, um das Sicherheitswissen der Entwickler zu ermitteln.
Ist Ihr Sicherheitsprogramm bereit für den CISA-Strategieplan für Cybersicherheit?
Der Strategische Plan für Cybersicherheit sieht weitreichende Änderungen in der Art und Weise vor, wie die meisten Unternehmen an die Cybersicherheit herangehen, und Entwickler befinden sich in einer einzigartigen Position, um zur Erreichung dieser neuen Ziele beizutragen.
Um die Vorteile der KI-Innovation zu nutzen, muss man mit sicherem Code beginnen
![](https://cdn.prod.website-files.com/5fec9210c1841a6c20c6ce81/66156fa3e3cea2370c2301e0_Financial%20Guide%20Blog%20main%20image%206.webp)
Softwareentwickler haben gezeigt, dass sie bereit sind, generative künstliche Intelligenz (KI) zum Schreiben von Code zu nutzen, und sie haben im Allgemeinen einige positive Ergebnisse erzielt. Aber es gibt auch viele Anzeichen dafür, dass sie ein gefährliches Spiel spielen könnten.
Laut einer kürzlich von GitHub durchgeführten Umfrage nutzen mehr als 90 % der US-Entwickler KI-Codierungstools und geben als Vorteile schnellere Fertigstellungszeiten, eine schnellere Lösung von Problemen und ein kollaborativeres Umfeld an, was sie als wichtig erachten. Die Arbeit mit KI-Tools ermöglicht es Entwicklern, Routineaufgaben abzugeben, so dass sie sich kreativeren Aufgaben widmen können, die ihrem Unternehmen zugutekommen, und verringert nicht zuletzt die Gefahr eines Burnouts am Arbeitsplatz.
Studien haben jedoch auch gezeigt, dass KI-Tools dazu neigen, beim Schreiben von Code Fehler zu machen. Eine Umfrage von Snyk ergab, dass zwar 75,8 % der Befragten angaben, dass KI-Code sicherer ist als menschlicher Code, aber 56,4 % räumten ein, dass KI manchmal Probleme bei der Codierung verursacht. Alarmierenderweise gaben 80 % der Befragten an, dass sie die Sicherheitsrichtlinien für KI-Code während der Entwicklung umgehen.
Seit dem Debüt von OpenAIs ChatGPT im November 2022 hat sich der Einsatz generativer KI-Modelle im Code-Entwicklungsprozess von Finanzdienstleistern, wie auch in vielen anderen Bereichen, blitzschnell verbreitet. Das rasche Auftauchen anderer Modelle wie GitHub Copilot, OpenAI Codex und eine wachsende Liste weiterer Modelle deutet darauf hin, dass wir erst an der Oberfläche dessen gekratzt haben, was generative KI leisten kann und welche Auswirkungen sie haben kann. Damit dieser Einfluss jedoch positiv ist, müssen wir sicherstellen, dass der von ihr generierte Code sicher ist.
Programmierfehler können sich schnell verbreiten
Unabhängig davon, ob der Code von menschlichen Entwicklern oder von KI-Modellen erstellt wurde, wird er immer einige Fehler enthalten. Da KI dazu beiträgt, die Code-Entwicklung zu beschleunigen, um den ständig steigenden Anforderungen in hochgradig verteilten, cloudbasierten Computerumgebungen gerecht zu werden, könnte die Wahrscheinlichkeit steigen, dass sich fehlerhafter Code weit verbreitet, bevor er entdeckt wird.
KI-Modelle, die für das Schreiben von Code trainiert werden, nehmen Tausende von Codebeispielen auf, die verschiedene Aufgaben erfüllen, und können dann auf diese Beispiele zurückgreifen, um ihren eigenen Code zu erstellen. Wenn die Beispiele jedoch Fehler oder Schwachstellen enthalten - unabhängig davon, ob sie ursprünglich von einem Menschen oder einer anderen KI erstellt wurden - könnte das Modell diese Fehler auf eine neue Umgebung übertragen.
Da die Forschung gezeigt hat, dass KI-Modelle nicht in der Lage sind, Fehler in dem von ihnen verwendeten Code zuverlässig zu erkennen, gibt es kaum einen eingebauten Schutz gegen die Verbreitung von Fehlern und Schwachstellen. KI wird nicht nur Fehler bei der Programmierung machen, sondern auch ihre eigenen Fehler und die anderer Quellen wiederholen, bis die Schwachstelle irgendwann entdeckt wird - vielleicht in Form eines erfolgreichen Einbruchs in ein Unternehmen, das die von ihr erstellte Software nutzt.
Der wirkliche Schutz gegen die Verbreitung von Programmierfehlern besteht darin, dass Menschen und KI-Modelle zusammenarbeiten. Menschliche Entwickler sollten das Schreiben von KI-Code überwachen und als Kontrolle gegen unsichere Codierungspraktiken und anfälligen Code dienen. Dazu müssen die Entwickler jedoch gründlich in den bewährten Verfahren für die Erstellung von sicherem Code geschult werden, damit sie mögliche KI-Fehler erkennen und schnell korrigieren können.
Die Herausforderungen der KI-Code-Erstellung und -Beseitigung
Die plötzliche Explosion großer Sprachmodelle (LLMs) wie ChatGPT war eine Art zweischneidiges Schwert. Auf der einen Seite haben Unternehmen und alltägliche Nutzer enorme Produktivitätsgewinne durch den Einsatz von KI zur Erledigung zeitraubender, lästiger oder schwieriger Aufgaben erlebt. Auf der anderen Seite gibt es viele Beispiele dafür, was schief gehen kann, wenn man KI blindlings die Arbeit überlässt.
KI-Modelle haben eklatante Fehler gemacht, Voreingenommenheit gezeigt und regelrechte Halluzinationen erzeugt. In vielen Fällen lag die Ursache für das Problem in unzureichenden oder unverantwortlichen Trainingsdaten. Jedes KI-Modell ist nur so gut wie die Daten, mit denen es trainiert wurde. Deshalb ist es wichtig, dass die Trainingsdaten umfassend und sorgfältig geprüft sind. Aber auch dann werden Fehler gemacht.
Die Verwendung von KI für die Programmierung steht vor vielen der gleichen Hürden. Es hat sich gezeigt, dass von KI generierter Code eine Reihe von Schwachstellen enthält, z. B. Anfälligkeiten für Cross-Site-Scripting und Code-Injection sowie Angriffe, die speziell auf KI und maschinelles Lernen (ML) ausgerichtet sind, wie z. B. Prompt-Injection. KI-Modelle arbeiten auch als Blackbox, weil ihre Prozesse nicht transparent sind, so dass ein Sicherheits- oder Entwicklungsteam nicht sehen kann, wie eine KI zu ihren Schlussfolgerungen kommt. Infolgedessen kann das Modell die gleichen Fehler immer wiederholen. Die gleichen Unzulänglichkeiten, die sich auf das Schreiben von Code auswirken können, gelten auch für den Einsatz von KI zur Codebereinigung und zur Erfüllung von Compliance-Anforderungen.
Das Potenzial für Fehler, die von KI-Modellen erzeugt oder wiederholt werden, ist so groß, dass LLMs jetzt eine eigene Liste der zehn größten Schwachstellen des Open Web Application Security Project (OWASP) haben.
Entwickler und KI können zusammenarbeiten, um sicheren Code zu erstellen
Bedenken hinsichtlich möglicher Fehler in KI-generiertem Code könnten einige Unternehmen, wenn auch nur kurz, davon abhalten, die Technologie weiter zu nutzen. Aber die potenziellen Vorteile sind zu groß, um sie zu ignorieren, vor allem, wenn die KI-Entwickler ihre Modelle weiter innovativ gestalten und verbessern. Es ist unwahrscheinlich, dass die Finanzdienstleistungsbranche den Geist wieder in die Flasche stecken wird. Banken und Finanzdienstleister sind bereits technologiegetrieben und in einem Bereich tätig, in dem sie immer auf der Suche nach einem Wettbewerbsvorteil sind.
Der Schlüssel liegt darin, KI-Modelle so zu implementieren, dass das Risiko minimiert wird. Und das bedeutet, dass die Entwickler über ein Sicherheitsbewusstsein verfügen und gründlich in den Best Practices für die sichere Programmierung geschult sind, damit sie selbst sicheren Code schreiben und den von den KI-Modellen erzeugten Code genau überwachen können. Wenn KI-Engines und menschliche Entwickler in enger Partnerschaft zusammenarbeiten und die Entwickler das letzte Wort haben, können Unternehmen die Vorteile einer verbesserten Produktivität und Effizienz nutzen und gleichzeitig die Sicherheit verbessern, Risiken begrenzen und die Einhaltung von Vorschriften gewährleisten.
Einen umfassenden Überblick darüber, wie sichere Kodierung den Erfolg, die Sicherheit und die Gewinne von Finanzdienstleistungsunternehmen gewährleisten kann, finden Sie in dem neu veröffentlichten Leitfaden Secure Code Warrior : Der ultimative Leitfaden für Sicherheitstrends im Finanzdienstleistungssektor.
Besuchen Sie die Secure Code Warrior Blog-Seiten, um mehr über Cybersicherheit und die zunehmend gefährliche Bedrohungslage zu erfahren und um zu lernen, wie Sie innovative Technologien und Schulungen einsetzen können, um Ihr Unternehmen und Ihre Kunden besser zu schützen.
Ressourcen für den Einstieg
Frauen in der Sicherheitsbranche sind auf dem Vormarsch: Wie die AWSN eine neue Generation von Superfrauen im Sicherheitsbereich hervorbringt
Secure-by-Design ist die neueste Initiative, die in aller Munde ist, und die australische Regierung, die mit der CISA auf den höchsten Ebenen der Global Governance zusammenarbeitet, fordert von den Anbietern einen höheren Standard für Softwarequalität und -sicherheit.
SCW Trust Agent - Sichtbarkeit und Kontrolle zur Skalierung der entwicklergesteuerten Sicherheit
Der von Secure Code Warrior vorgestellte SCW Trust Agent bietet Sicherheitsverantwortlichen die Transparenz und Kontrolle, die sie für die Skalierung der entwicklergesteuerten Sicherheit in Unternehmen benötigen. Durch die Verbindung mit Code-Repositories wertet er Code-Commit-Metadaten aus, prüft Entwickler, verwendete Programmiersprachen und Zeitstempel für den Versand, um das Sicherheitswissen der Entwickler zu ermitteln.
Vertrauensperson von Secure Code Warrior
Entdecken Sie den SCW Trust Agent, eine innovative Lösung, die die Sicherheit erhöht, indem sie die Kenntnisse und Fähigkeiten von Entwicklern in Bezug auf sicheren Code mit der von ihnen übertragenen Arbeit in Einklang bringt. Er bietet umfassende Transparenz und Kontrolle über das gesamte Code-Repository eines Unternehmens, indem er jeden Commit mit den sicheren Code-Profilen der Entwickler abgleicht. Mit SCW Trust Agent können Unternehmen ihre Sicherheitslage verbessern, die Entwicklungszyklen optimieren und die entwicklergesteuerte Sicherheit skalieren.