
Wenn gute Werkzeuge schlecht werden: Wie man AI-Werkzeugsucht und die Rolle der KI als Doppelagent verhindert
AI-gestützte Entwicklung (oder die trendigere Version „Vibecoding“) hat einen enormen und innovativen Einfluss auf die Codegenerierung. Etablierte Entwickler setzen diese Tools bereits in großem Umfang ein, und auch Entwickler, die schon immer ihre eigene Software erstellen wollten, aber keine einschlägige Erfahrung hatten, nutzen sie nun, um Assets zu erstellen, deren Entwicklung früher viel Zeit und Geld gekostet hätte. Diese Technologie wird voraussichtlich eine neue Ära der Innovation einläuten, bringt jedoch auch eine Vielzahl neuer Schwachstellen und Risikoprofile mit sich, mit denen Sicherheitsverantwortliche zu kämpfen haben.
A 최근 발견 InvariantLabs는 강력한 AI 도구가 다른 소프트웨어 및 데이터베이스와 자율적으로 상호 작용할 수 있도록 하는 API와 유사한 프레임워크인 MCP (Model Context Protocol) 에서 심각한 취약점을 발견했으며, 이를 통해 기업에 특히 해를 끼칠 수 있는 새로운 취약성 범주인 “도구 중독 공격 (Tool Docuining Atars)" 이 가능해졌습니다.Auch wichtige KI-Tools wie Windsurf und Cursor bilden hier keine Ausnahme. Da es Millionen von Nutzern gibt, sind das Bewusstsein und die Fähigkeiten, die zur Bewältigung dieser neuen Sicherheitsprobleme erforderlich sind, von größter Bedeutung.
Derzeit sind die Ergebnisse dieser Tools wie folgt. Wie bereits erwähnt, sind sie so sicher, dass sie als Produkte der Enterprise-Klasse eingestuft werden können. Aus einer aktuellen Forschungsarbeit von AWS und Intuit, den Sicherheitsforschern Vinish Sainarajala und Idan Habler, geht hervor:„Da die Autonomie von KI-Systemen zunimmt und sie durch Funktionen wie MCP beginnen, direkt mit externen Tools und Echtzeitdaten zu interagieren, ist es von entscheidender Bedeutung, die Sicherheit dieser Interaktionen zu gewährleisten.“
Risikoprofil des Agent-KI-Systems und des Modellkontextprotokolls
Das Modellkontextprotokoll ist eine praktische Software. Es wurde von Anthropos entwickelt. Es ermöglicht eine nahtlosere und reibungslosere Integration zwischen großen Sprachmodellen (LLM), KI-Agenten und anderen Tools. Dies ist ein leistungsstarkes Anwendungsbeispiel, das neue Möglichkeiten für die Interaktion zwischen proprietären Anwendungen und geschäftskritischen SaaS-Tools wie GitHub mit modernsten KI-Lösungen eröffnet. Sie müssen lediglich einen MCP-Server erstellen und Richtlinien für die gewünschte Funktionsweise und den Verwendungszweck festlegen.
Tatsächlich sind die Auswirkungen der MCP-Technologie auf die Sicherheit überwiegend positiv. Das Versprechen einer direkteren Integration zwischen den von Sicherheitsexperten verwendeten Technologie-Stacks und LLM ist nicht zu übersehen und zeigt, dass eine präzise Automatisierung von Sicherheitsaufgaben in einem bisher unmöglichen Ausmaß möglich ist, ohne dass für jede Aufgabe benutzerdefinierter Code geschrieben und bereitgestellt werden muss.Angesichts der Tatsache, dass eine umfassende Sichtbarkeit und Konnektivität zwischen Daten, Tools und Mitarbeitern die Grundlage für eine effektive Sicherheitsabwehr und -planung bildet, ist die verbesserte Interoperabilität von LLM, die MCP bietet, eine interessante Perspektive für die Unternehmenssicherheit.
Bei Verwendung von MCP können jedoch andere Bedrohungsvektoren hinzukommen, die den Angriffsbereich des Unternehmens erheblich erweitern können, wenn sie nicht sorgfältig verwaltet werden. Wie bereits erwähnt, handelt es sich bei Invariant-Lab- und Tool-Poison-Angriffen um eine neue Kategorie von Schwachstellen, die zu sensiblen Datenlecks und unbefugten Aktivitäten von KI-Modellen führen können. Von dort aus verschlechtert sich die Sicherheitslage sehr schnell.
Laut InvariantLabs kann es zu Tool-Poisoning-Angriffen kommen, wenn die MCP-Toolbeschreibung böswillige Befehle enthält, die für den Benutzer nicht sichtbar sind, aber vom KI-Modell vollständig gelesen und ausgeführt werden können. Auf diese Weise kann das Tool dazu verleitet werden, ohne Wissen des Benutzers unbefugt falsche Aktionen auszuführen. Das Problem liegt in der Annahme von MCP, dass alle Toolbeschreibungen vertrauenswürdig sein müssen. Das ist Musik in den Ohren von Angreifern.
Sie weisen auf die folgenden möglichen Folgen hin, die durch beschädigte Werkzeuge verursacht werden können.
- AI-Modell anweisen, auf sensible Dateien (z. B. SSH-Schlüssel, Konfigurationsdateien, Datenbanken usw.) zuzugreifen
- In einer Umgebung, in der diese böswilligen Handlungen für den ahnungslosen Benutzer im Wesentlichen verborgen bleiben, wird die KI angewiesen, diese Daten zu extrahieren und zu übertragen.
- Hinter der unglaublich einfachen Benutzeroberfläche für die Übernahme und Ausgabe von Werkzeugen kann sich eine Diskrepanz zwischen dem, was der Benutzer sieht, und dem, was das KI-Modell tatsächlich tut, verbergen.
Dies ist eine besorgniserregende Schwachstelle, die mit der unvermeidlichen Zunahme der MCP-Nutzung mit ziemlicher Sicherheit häufiger auftreten wird. Mit der Weiterentwicklung von Unternehmenssicherheitsprogrammen werden sorgfältige Maßnahmen ergriffen werden, um diese Bedrohungen zu erkennen und zu mindern. Dabei ist es von entscheidender Bedeutung, dass Entwickler angemessen vorbereitet werden, damit sie an der Lösung mitwirken können.
Warum nur Entwickler mit Sicherheitskenntnissen Agent-KI-Tools verwenden sollten
Agentische KI-Codierungswerkzeuge gelten als die nächste Evolutionsstufe der KI-gestützten Codierung und bieten Funktionen zur Steigerung der Effizienz, Produktivität und Flexibilität der Softwareentwicklung. Sie sind besonders nützlich aufgrund ihrer verbesserten Fähigkeit, Kontext und Absichten zu verstehen, sind jedoch nicht frei von Bedrohungen wie sofortigen Injektionen, Halluzinationen oder Verhaltensmanipulationen durch Angreifer.
Entwickler sind die Verteidigungslinie, die zwischen guten und schlechten Code-Commits unterscheidet. Die Aufrechterhaltung einer hohen Sicherheits- und Kritikfähigkeit wird die Grundlage für die zukünftige Entwicklung sicherer Software sein.
Die Ergebnisse der KI sollten niemals blind vertraut werden. Erfahrene Entwickler mit fundierten Sicherheitskenntnissen, die situationsgerecht kritisch denken, können die Produktivitätssteigerungen, die diese Technologie bietet, sicher nutzen. Dennoch sollte es sich um eine Pair-Programming-Umgebung handeln, in der menschliche Experten die vom Tool generierten Aufgaben bewerten, Bedrohungen modellieren und schließlich genehmigen können.
Erfahren Sie mehr darüber, wie Entwickler mithilfe von KI ihre Fähigkeiten verbessern und ihre Produktivität steigern können. Hier.
Lesen Sie mehr über praktische Entspannungstechniken und aktuelle Forschungsarbeiten.
KI-Codierungswerkzeuge und MCP-Technologie werden voraussichtlich wichtige Faktoren für die Zukunft der Cybersicherheit sein, aber es ist wichtig, sich vorab genau zu informieren, bevor man sich darauf einlässt.
Narayala und Habulus beschreiben detailliert eine umfassende Strategie zur Risikominderung, um MCP auf Unternehmensebene zu implementieren und Risiken kontinuierlich zu verwalten. Letztendlich zielt dieses neue Ökosystem explizit auf das spezifische Risikoprofil ab, das es in Unternehmensumgebungen mit sich bringt, wobei der Schwerpunkt auf den Prinzipien der tiefgreifenden Verteidigung und Zero Trust liegt. Insbesondere für Entwickler ist es unerlässlich, Wissenslücken in den folgenden Bereichen zu schließen.
- Authentifizierung und Zugriffskontrolle: Agentic AI-Tools sind in der Lage, Probleme zu lösen und autonome Entscheidungen zu treffen, um geplante Ziele zu erreichen, ähnlich wie Menschen bei technischen Aufgaben vorgehen. Wie jedoch bereits dargelegt, darf die Aufsicht durch erfahrene Fachleute bei diesen Prozessen nicht außer Acht gelassen werden. Entwickler, die diese Tools in ihren Workflows einsetzen, müssen genau verstehen, über welche Zugriffsrechte sie verfügen, welche Daten sie abrufen oder offenlegen können und wo diese Daten geteilt werden können.
- Erkennung und Abwehr allgemeiner Bedrohungen: Wie bei den meisten KI-Prozessen müssen Anwender über fundierte Kenntnisse verfügen, um potenzielle Fehler und Ungenauigkeiten in den Tool-Ausgaben zu erkennen. Entwickler müssen sich kontinuierlich weiterbilden und ihre Kenntnisse überprüfen lassen, um Sicherheitsprozesse effektiv überprüfen zu können. Sie können KI-generierten Code auf Genauigkeit und Berechtigungen überprüfen.
- Sicherheitsrichtlinien und Abstimmung mit der KI-Governance: Entwickler müssen über zugelassene Tools informiert werden, die entsprechenden Technologien erlernen und Zugang zu diesen Tools erhalten. Um Commits vertrauenswürdig zu machen, müssen sowohl Entwickler als auch Tools einem Sicherheits-Benchmarking unterzogen werden.
Die kürzlich veröffentlichte Forschungsarbeit beschreibt die Einführung von Vib-Coding und KI-gestütztem Coding sowie die Maßnahmen, die Unternehmen ergreifen sollten, um die nächste Generation von KI-basierten Software-Ingenieuren zu fördern. Lesen Sie die Studie und kontaktieren Sie uns noch heute, um Ihre Entwickler-Cohorte zu stärken.
Vorstandsvorsitzender, Chairman und Mitbegründer

Secure Code Warrior ist für Unternehmen da, um den Code während des gesamten Softwareentwicklungszyklus zu schützen und eine Kultur zu schaffen, in der Cybersicherheit oberste Priorität hat. Unabhängig davon, ob Sie AppSec-Manager, Entwickler, CISO oder in einem anderen Bereich der Sicherheit tätig sind, können wir Ihnen dabei helfen, die Risiken zu reduzieren, die mit unsicherem Code verbunden sind.
Demo-Termin vereinbarenVorstandsvorsitzender, Chairman und Mitbegründer
Pieter Danhieux ist ein weltweit anerkannter Sicherheitsexperte mit mehr als 12 Jahren Erfahrung als Sicherheitsberater und 8 Jahren als Principal Instructor für SANS, wo er offensive Techniken lehrt, wie man Organisationen, Systeme und Einzelpersonen auf Sicherheitsschwächen hin untersucht und bewertet. Im Jahr 2016 wurde er als einer der "Coolest Tech People in Australia" (Business Insider) ausgezeichnet, erhielt die Auszeichnung "Cyber Security Professional of the Year" (AISA - Australian Information Security Association) und besitzt die Zertifizierungen GSE, CISSP, GCIH, GCFA, GSEC, GPEN, GWAPT, GCIA.


AI-gestützte Entwicklung (oder die trendigere Version „Vibecoding“) hat einen enormen und innovativen Einfluss auf die Codegenerierung. Etablierte Entwickler setzen diese Tools bereits in großem Umfang ein, und auch Entwickler, die schon immer ihre eigene Software erstellen wollten, aber keine einschlägige Erfahrung hatten, nutzen sie nun, um Assets zu erstellen, deren Entwicklung früher viel Zeit und Geld gekostet hätte. Diese Technologie wird voraussichtlich eine neue Ära der Innovation einläuten, bringt jedoch auch eine Vielzahl neuer Schwachstellen und Risikoprofile mit sich, mit denen Sicherheitsverantwortliche zu kämpfen haben.
A 최근 발견 InvariantLabs는 강력한 AI 도구가 다른 소프트웨어 및 데이터베이스와 자율적으로 상호 작용할 수 있도록 하는 API와 유사한 프레임워크인 MCP (Model Context Protocol) 에서 심각한 취약점을 발견했으며, 이를 통해 기업에 특히 해를 끼칠 수 있는 새로운 취약성 범주인 “도구 중독 공격 (Tool Docuining Atars)" 이 가능해졌습니다.Auch wichtige KI-Tools wie Windsurf und Cursor bilden hier keine Ausnahme. Da es Millionen von Nutzern gibt, sind das Bewusstsein und die Fähigkeiten, die zur Bewältigung dieser neuen Sicherheitsprobleme erforderlich sind, von größter Bedeutung.
Derzeit sind die Ergebnisse dieser Tools wie folgt. Wie bereits erwähnt, sind sie so sicher, dass sie als Produkte der Enterprise-Klasse eingestuft werden können. Aus einer aktuellen Forschungsarbeit von AWS und Intuit, den Sicherheitsforschern Vinish Sainarajala und Idan Habler, geht hervor:„Da die Autonomie von KI-Systemen zunimmt und sie durch Funktionen wie MCP beginnen, direkt mit externen Tools und Echtzeitdaten zu interagieren, ist es von entscheidender Bedeutung, die Sicherheit dieser Interaktionen zu gewährleisten.“
Risikoprofil des Agent-KI-Systems und des Modellkontextprotokolls
Das Modellkontextprotokoll ist eine praktische Software. Es wurde von Anthropos entwickelt. Es ermöglicht eine nahtlosere und reibungslosere Integration zwischen großen Sprachmodellen (LLM), KI-Agenten und anderen Tools. Dies ist ein leistungsstarkes Anwendungsbeispiel, das neue Möglichkeiten für die Interaktion zwischen proprietären Anwendungen und geschäftskritischen SaaS-Tools wie GitHub mit modernsten KI-Lösungen eröffnet. Sie müssen lediglich einen MCP-Server erstellen und Richtlinien für die gewünschte Funktionsweise und den Verwendungszweck festlegen.
Tatsächlich sind die Auswirkungen der MCP-Technologie auf die Sicherheit überwiegend positiv. Das Versprechen einer direkteren Integration zwischen den von Sicherheitsexperten verwendeten Technologie-Stacks und LLM ist nicht zu übersehen und zeigt, dass eine präzise Automatisierung von Sicherheitsaufgaben in einem bisher unmöglichen Ausmaß möglich ist, ohne dass für jede Aufgabe benutzerdefinierter Code geschrieben und bereitgestellt werden muss.Angesichts der Tatsache, dass eine umfassende Sichtbarkeit und Konnektivität zwischen Daten, Tools und Mitarbeitern die Grundlage für eine effektive Sicherheitsabwehr und -planung bildet, ist die verbesserte Interoperabilität von LLM, die MCP bietet, eine interessante Perspektive für die Unternehmenssicherheit.
Bei Verwendung von MCP können jedoch andere Bedrohungsvektoren hinzukommen, die den Angriffsbereich des Unternehmens erheblich erweitern können, wenn sie nicht sorgfältig verwaltet werden. Wie bereits erwähnt, handelt es sich bei Invariant-Lab- und Tool-Poison-Angriffen um eine neue Kategorie von Schwachstellen, die zu sensiblen Datenlecks und unbefugten Aktivitäten von KI-Modellen führen können. Von dort aus verschlechtert sich die Sicherheitslage sehr schnell.
Laut InvariantLabs kann es zu Tool-Poisoning-Angriffen kommen, wenn die MCP-Toolbeschreibung böswillige Befehle enthält, die für den Benutzer nicht sichtbar sind, aber vom KI-Modell vollständig gelesen und ausgeführt werden können. Auf diese Weise kann das Tool dazu verleitet werden, ohne Wissen des Benutzers unbefugt falsche Aktionen auszuführen. Das Problem liegt in der Annahme von MCP, dass alle Toolbeschreibungen vertrauenswürdig sein müssen. Das ist Musik in den Ohren von Angreifern.
Sie weisen auf die folgenden möglichen Folgen hin, die durch beschädigte Werkzeuge verursacht werden können.
- AI-Modell anweisen, auf sensible Dateien (z. B. SSH-Schlüssel, Konfigurationsdateien, Datenbanken usw.) zuzugreifen
- In einer Umgebung, in der diese böswilligen Handlungen für den ahnungslosen Benutzer im Wesentlichen verborgen bleiben, wird die KI angewiesen, diese Daten zu extrahieren und zu übertragen.
- Hinter der unglaublich einfachen Benutzeroberfläche für die Übernahme und Ausgabe von Werkzeugen kann sich eine Diskrepanz zwischen dem, was der Benutzer sieht, und dem, was das KI-Modell tatsächlich tut, verbergen.
Dies ist eine besorgniserregende Schwachstelle, die mit der unvermeidlichen Zunahme der MCP-Nutzung mit ziemlicher Sicherheit häufiger auftreten wird. Mit der Weiterentwicklung von Unternehmenssicherheitsprogrammen werden sorgfältige Maßnahmen ergriffen werden, um diese Bedrohungen zu erkennen und zu mindern. Dabei ist es von entscheidender Bedeutung, dass Entwickler angemessen vorbereitet werden, damit sie an der Lösung mitwirken können.
Warum nur Entwickler mit Sicherheitskenntnissen Agent-KI-Tools verwenden sollten
Agentische KI-Codierungswerkzeuge gelten als die nächste Evolutionsstufe der KI-gestützten Codierung und bieten Funktionen zur Steigerung der Effizienz, Produktivität und Flexibilität der Softwareentwicklung. Sie sind besonders nützlich aufgrund ihrer verbesserten Fähigkeit, Kontext und Absichten zu verstehen, sind jedoch nicht frei von Bedrohungen wie sofortigen Injektionen, Halluzinationen oder Verhaltensmanipulationen durch Angreifer.
Entwickler sind die Verteidigungslinie, die zwischen guten und schlechten Code-Commits unterscheidet. Die Aufrechterhaltung einer hohen Sicherheits- und Kritikfähigkeit wird die Grundlage für die zukünftige Entwicklung sicherer Software sein.
Die Ergebnisse der KI sollten niemals blind vertraut werden. Erfahrene Entwickler mit fundierten Sicherheitskenntnissen, die situationsgerecht kritisch denken, können die Produktivitätssteigerungen, die diese Technologie bietet, sicher nutzen. Dennoch sollte es sich um eine Pair-Programming-Umgebung handeln, in der menschliche Experten die vom Tool generierten Aufgaben bewerten, Bedrohungen modellieren und schließlich genehmigen können.
Erfahren Sie mehr darüber, wie Entwickler mithilfe von KI ihre Fähigkeiten verbessern und ihre Produktivität steigern können. Hier.
Lesen Sie mehr über praktische Entspannungstechniken und aktuelle Forschungsarbeiten.
KI-Codierungswerkzeuge und MCP-Technologie werden voraussichtlich wichtige Faktoren für die Zukunft der Cybersicherheit sein, aber es ist wichtig, sich vorab genau zu informieren, bevor man sich darauf einlässt.
Narayala und Habulus beschreiben detailliert eine umfassende Strategie zur Risikominderung, um MCP auf Unternehmensebene zu implementieren und Risiken kontinuierlich zu verwalten. Letztendlich zielt dieses neue Ökosystem explizit auf das spezifische Risikoprofil ab, das es in Unternehmensumgebungen mit sich bringt, wobei der Schwerpunkt auf den Prinzipien der tiefgreifenden Verteidigung und Zero Trust liegt. Insbesondere für Entwickler ist es unerlässlich, Wissenslücken in den folgenden Bereichen zu schließen.
- Authentifizierung und Zugriffskontrolle: Agentic AI-Tools sind in der Lage, Probleme zu lösen und autonome Entscheidungen zu treffen, um geplante Ziele zu erreichen, ähnlich wie Menschen bei technischen Aufgaben vorgehen. Wie jedoch bereits dargelegt, darf die Aufsicht durch erfahrene Fachleute bei diesen Prozessen nicht außer Acht gelassen werden. Entwickler, die diese Tools in ihren Workflows einsetzen, müssen genau verstehen, über welche Zugriffsrechte sie verfügen, welche Daten sie abrufen oder offenlegen können und wo diese Daten geteilt werden können.
- Erkennung und Abwehr allgemeiner Bedrohungen: Wie bei den meisten KI-Prozessen müssen Anwender über fundierte Kenntnisse verfügen, um potenzielle Fehler und Ungenauigkeiten in den Tool-Ausgaben zu erkennen. Entwickler müssen sich kontinuierlich weiterbilden und ihre Kenntnisse überprüfen lassen, um Sicherheitsprozesse effektiv überprüfen zu können. Sie können KI-generierten Code auf Genauigkeit und Berechtigungen überprüfen.
- Sicherheitsrichtlinien und Abstimmung mit der KI-Governance: Entwickler müssen über zugelassene Tools informiert werden, die entsprechenden Technologien erlernen und Zugang zu diesen Tools erhalten. Um Commits vertrauenswürdig zu machen, müssen sowohl Entwickler als auch Tools einem Sicherheits-Benchmarking unterzogen werden.
Die kürzlich veröffentlichte Forschungsarbeit beschreibt die Einführung von Vib-Coding und KI-gestütztem Coding sowie die Maßnahmen, die Unternehmen ergreifen sollten, um die nächste Generation von KI-basierten Software-Ingenieuren zu fördern. Lesen Sie die Studie und kontaktieren Sie uns noch heute, um Ihre Entwickler-Cohorte zu stärken.

AI-gestützte Entwicklung (oder die trendigere Version „Vibecoding“) hat einen enormen und innovativen Einfluss auf die Codegenerierung. Etablierte Entwickler setzen diese Tools bereits in großem Umfang ein, und auch Entwickler, die schon immer ihre eigene Software erstellen wollten, aber keine einschlägige Erfahrung hatten, nutzen sie nun, um Assets zu erstellen, deren Entwicklung früher viel Zeit und Geld gekostet hätte. Diese Technologie wird voraussichtlich eine neue Ära der Innovation einläuten, bringt jedoch auch eine Vielzahl neuer Schwachstellen und Risikoprofile mit sich, mit denen Sicherheitsverantwortliche zu kämpfen haben.
A 최근 발견 InvariantLabs는 강력한 AI 도구가 다른 소프트웨어 및 데이터베이스와 자율적으로 상호 작용할 수 있도록 하는 API와 유사한 프레임워크인 MCP (Model Context Protocol) 에서 심각한 취약점을 발견했으며, 이를 통해 기업에 특히 해를 끼칠 수 있는 새로운 취약성 범주인 “도구 중독 공격 (Tool Docuining Atars)" 이 가능해졌습니다.Auch wichtige KI-Tools wie Windsurf und Cursor bilden hier keine Ausnahme. Da es Millionen von Nutzern gibt, sind das Bewusstsein und die Fähigkeiten, die zur Bewältigung dieser neuen Sicherheitsprobleme erforderlich sind, von größter Bedeutung.
Derzeit sind die Ergebnisse dieser Tools wie folgt. Wie bereits erwähnt, sind sie so sicher, dass sie als Produkte der Enterprise-Klasse eingestuft werden können. Aus einer aktuellen Forschungsarbeit von AWS und Intuit, den Sicherheitsforschern Vinish Sainarajala und Idan Habler, geht hervor:„Da die Autonomie von KI-Systemen zunimmt und sie durch Funktionen wie MCP beginnen, direkt mit externen Tools und Echtzeitdaten zu interagieren, ist es von entscheidender Bedeutung, die Sicherheit dieser Interaktionen zu gewährleisten.“
Risikoprofil des Agent-KI-Systems und des Modellkontextprotokolls
Das Modellkontextprotokoll ist eine praktische Software. Es wurde von Anthropos entwickelt. Es ermöglicht eine nahtlosere und reibungslosere Integration zwischen großen Sprachmodellen (LLM), KI-Agenten und anderen Tools. Dies ist ein leistungsstarkes Anwendungsbeispiel, das neue Möglichkeiten für die Interaktion zwischen proprietären Anwendungen und geschäftskritischen SaaS-Tools wie GitHub mit modernsten KI-Lösungen eröffnet. Sie müssen lediglich einen MCP-Server erstellen und Richtlinien für die gewünschte Funktionsweise und den Verwendungszweck festlegen.
Tatsächlich sind die Auswirkungen der MCP-Technologie auf die Sicherheit überwiegend positiv. Das Versprechen einer direkteren Integration zwischen den von Sicherheitsexperten verwendeten Technologie-Stacks und LLM ist nicht zu übersehen und zeigt, dass eine präzise Automatisierung von Sicherheitsaufgaben in einem bisher unmöglichen Ausmaß möglich ist, ohne dass für jede Aufgabe benutzerdefinierter Code geschrieben und bereitgestellt werden muss.Angesichts der Tatsache, dass eine umfassende Sichtbarkeit und Konnektivität zwischen Daten, Tools und Mitarbeitern die Grundlage für eine effektive Sicherheitsabwehr und -planung bildet, ist die verbesserte Interoperabilität von LLM, die MCP bietet, eine interessante Perspektive für die Unternehmenssicherheit.
Bei Verwendung von MCP können jedoch andere Bedrohungsvektoren hinzukommen, die den Angriffsbereich des Unternehmens erheblich erweitern können, wenn sie nicht sorgfältig verwaltet werden. Wie bereits erwähnt, handelt es sich bei Invariant-Lab- und Tool-Poison-Angriffen um eine neue Kategorie von Schwachstellen, die zu sensiblen Datenlecks und unbefugten Aktivitäten von KI-Modellen führen können. Von dort aus verschlechtert sich die Sicherheitslage sehr schnell.
Laut InvariantLabs kann es zu Tool-Poisoning-Angriffen kommen, wenn die MCP-Toolbeschreibung böswillige Befehle enthält, die für den Benutzer nicht sichtbar sind, aber vom KI-Modell vollständig gelesen und ausgeführt werden können. Auf diese Weise kann das Tool dazu verleitet werden, ohne Wissen des Benutzers unbefugt falsche Aktionen auszuführen. Das Problem liegt in der Annahme von MCP, dass alle Toolbeschreibungen vertrauenswürdig sein müssen. Das ist Musik in den Ohren von Angreifern.
Sie weisen auf die folgenden möglichen Folgen hin, die durch beschädigte Werkzeuge verursacht werden können.
- AI-Modell anweisen, auf sensible Dateien (z. B. SSH-Schlüssel, Konfigurationsdateien, Datenbanken usw.) zuzugreifen
- In einer Umgebung, in der diese böswilligen Handlungen für den ahnungslosen Benutzer im Wesentlichen verborgen bleiben, wird die KI angewiesen, diese Daten zu extrahieren und zu übertragen.
- Hinter der unglaublich einfachen Benutzeroberfläche für die Übernahme und Ausgabe von Werkzeugen kann sich eine Diskrepanz zwischen dem, was der Benutzer sieht, und dem, was das KI-Modell tatsächlich tut, verbergen.
Dies ist eine besorgniserregende Schwachstelle, die mit der unvermeidlichen Zunahme der MCP-Nutzung mit ziemlicher Sicherheit häufiger auftreten wird. Mit der Weiterentwicklung von Unternehmenssicherheitsprogrammen werden sorgfältige Maßnahmen ergriffen werden, um diese Bedrohungen zu erkennen und zu mindern. Dabei ist es von entscheidender Bedeutung, dass Entwickler angemessen vorbereitet werden, damit sie an der Lösung mitwirken können.
Warum nur Entwickler mit Sicherheitskenntnissen Agent-KI-Tools verwenden sollten
Agentische KI-Codierungswerkzeuge gelten als die nächste Evolutionsstufe der KI-gestützten Codierung und bieten Funktionen zur Steigerung der Effizienz, Produktivität und Flexibilität der Softwareentwicklung. Sie sind besonders nützlich aufgrund ihrer verbesserten Fähigkeit, Kontext und Absichten zu verstehen, sind jedoch nicht frei von Bedrohungen wie sofortigen Injektionen, Halluzinationen oder Verhaltensmanipulationen durch Angreifer.
Entwickler sind die Verteidigungslinie, die zwischen guten und schlechten Code-Commits unterscheidet. Die Aufrechterhaltung einer hohen Sicherheits- und Kritikfähigkeit wird die Grundlage für die zukünftige Entwicklung sicherer Software sein.
Die Ergebnisse der KI sollten niemals blind vertraut werden. Erfahrene Entwickler mit fundierten Sicherheitskenntnissen, die situationsgerecht kritisch denken, können die Produktivitätssteigerungen, die diese Technologie bietet, sicher nutzen. Dennoch sollte es sich um eine Pair-Programming-Umgebung handeln, in der menschliche Experten die vom Tool generierten Aufgaben bewerten, Bedrohungen modellieren und schließlich genehmigen können.
Erfahren Sie mehr darüber, wie Entwickler mithilfe von KI ihre Fähigkeiten verbessern und ihre Produktivität steigern können. Hier.
Lesen Sie mehr über praktische Entspannungstechniken und aktuelle Forschungsarbeiten.
KI-Codierungswerkzeuge und MCP-Technologie werden voraussichtlich wichtige Faktoren für die Zukunft der Cybersicherheit sein, aber es ist wichtig, sich vorab genau zu informieren, bevor man sich darauf einlässt.
Narayala und Habulus beschreiben detailliert eine umfassende Strategie zur Risikominderung, um MCP auf Unternehmensebene zu implementieren und Risiken kontinuierlich zu verwalten. Letztendlich zielt dieses neue Ökosystem explizit auf das spezifische Risikoprofil ab, das es in Unternehmensumgebungen mit sich bringt, wobei der Schwerpunkt auf den Prinzipien der tiefgreifenden Verteidigung und Zero Trust liegt. Insbesondere für Entwickler ist es unerlässlich, Wissenslücken in den folgenden Bereichen zu schließen.
- Authentifizierung und Zugriffskontrolle: Agentic AI-Tools sind in der Lage, Probleme zu lösen und autonome Entscheidungen zu treffen, um geplante Ziele zu erreichen, ähnlich wie Menschen bei technischen Aufgaben vorgehen. Wie jedoch bereits dargelegt, darf die Aufsicht durch erfahrene Fachleute bei diesen Prozessen nicht außer Acht gelassen werden. Entwickler, die diese Tools in ihren Workflows einsetzen, müssen genau verstehen, über welche Zugriffsrechte sie verfügen, welche Daten sie abrufen oder offenlegen können und wo diese Daten geteilt werden können.
- Erkennung und Abwehr allgemeiner Bedrohungen: Wie bei den meisten KI-Prozessen müssen Anwender über fundierte Kenntnisse verfügen, um potenzielle Fehler und Ungenauigkeiten in den Tool-Ausgaben zu erkennen. Entwickler müssen sich kontinuierlich weiterbilden und ihre Kenntnisse überprüfen lassen, um Sicherheitsprozesse effektiv überprüfen zu können. Sie können KI-generierten Code auf Genauigkeit und Berechtigungen überprüfen.
- Sicherheitsrichtlinien und Abstimmung mit der KI-Governance: Entwickler müssen über zugelassene Tools informiert werden, die entsprechenden Technologien erlernen und Zugang zu diesen Tools erhalten. Um Commits vertrauenswürdig zu machen, müssen sowohl Entwickler als auch Tools einem Sicherheits-Benchmarking unterzogen werden.
Die kürzlich veröffentlichte Forschungsarbeit beschreibt die Einführung von Vib-Coding und KI-gestütztem Coding sowie die Maßnahmen, die Unternehmen ergreifen sollten, um die nächste Generation von KI-basierten Software-Ingenieuren zu fördern. Lesen Sie die Studie und kontaktieren Sie uns noch heute, um Ihre Entwickler-Cohorte zu stärken.

Klicken Sie auf den folgenden Link und laden Sie die PDF-Datei dieser Ressource herunter.
Secure Code Warrior ist für Unternehmen da, um den Code während des gesamten Softwareentwicklungszyklus zu schützen und eine Kultur zu schaffen, in der Cybersicherheit oberste Priorität hat. Unabhängig davon, ob Sie AppSec-Manager, Entwickler, CISO oder in einem anderen Bereich der Sicherheit tätig sind, können wir Ihnen dabei helfen, die Risiken zu reduzieren, die mit unsicherem Code verbunden sind.
Bericht anzeigenDemo-Termin vereinbarenVorstandsvorsitzender, Chairman und Mitbegründer
Pieter Danhieux ist ein weltweit anerkannter Sicherheitsexperte mit mehr als 12 Jahren Erfahrung als Sicherheitsberater und 8 Jahren als Principal Instructor für SANS, wo er offensive Techniken lehrt, wie man Organisationen, Systeme und Einzelpersonen auf Sicherheitsschwächen hin untersucht und bewertet. Im Jahr 2016 wurde er als einer der "Coolest Tech People in Australia" (Business Insider) ausgezeichnet, erhielt die Auszeichnung "Cyber Security Professional of the Year" (AISA - Australian Information Security Association) und besitzt die Zertifizierungen GSE, CISSP, GCIH, GCFA, GSEC, GPEN, GWAPT, GCIA.
AI-gestützte Entwicklung (oder die trendigere Version „Vibecoding“) hat einen enormen und innovativen Einfluss auf die Codegenerierung. Etablierte Entwickler setzen diese Tools bereits in großem Umfang ein, und auch Entwickler, die schon immer ihre eigene Software erstellen wollten, aber keine einschlägige Erfahrung hatten, nutzen sie nun, um Assets zu erstellen, deren Entwicklung früher viel Zeit und Geld gekostet hätte. Diese Technologie wird voraussichtlich eine neue Ära der Innovation einläuten, bringt jedoch auch eine Vielzahl neuer Schwachstellen und Risikoprofile mit sich, mit denen Sicherheitsverantwortliche zu kämpfen haben.
A 최근 발견 InvariantLabs는 강력한 AI 도구가 다른 소프트웨어 및 데이터베이스와 자율적으로 상호 작용할 수 있도록 하는 API와 유사한 프레임워크인 MCP (Model Context Protocol) 에서 심각한 취약점을 발견했으며, 이를 통해 기업에 특히 해를 끼칠 수 있는 새로운 취약성 범주인 “도구 중독 공격 (Tool Docuining Atars)" 이 가능해졌습니다.Auch wichtige KI-Tools wie Windsurf und Cursor bilden hier keine Ausnahme. Da es Millionen von Nutzern gibt, sind das Bewusstsein und die Fähigkeiten, die zur Bewältigung dieser neuen Sicherheitsprobleme erforderlich sind, von größter Bedeutung.
Derzeit sind die Ergebnisse dieser Tools wie folgt. Wie bereits erwähnt, sind sie so sicher, dass sie als Produkte der Enterprise-Klasse eingestuft werden können. Aus einer aktuellen Forschungsarbeit von AWS und Intuit, den Sicherheitsforschern Vinish Sainarajala und Idan Habler, geht hervor:„Da die Autonomie von KI-Systemen zunimmt und sie durch Funktionen wie MCP beginnen, direkt mit externen Tools und Echtzeitdaten zu interagieren, ist es von entscheidender Bedeutung, die Sicherheit dieser Interaktionen zu gewährleisten.“
Risikoprofil des Agent-KI-Systems und des Modellkontextprotokolls
Das Modellkontextprotokoll ist eine praktische Software. Es wurde von Anthropos entwickelt. Es ermöglicht eine nahtlosere und reibungslosere Integration zwischen großen Sprachmodellen (LLM), KI-Agenten und anderen Tools. Dies ist ein leistungsstarkes Anwendungsbeispiel, das neue Möglichkeiten für die Interaktion zwischen proprietären Anwendungen und geschäftskritischen SaaS-Tools wie GitHub mit modernsten KI-Lösungen eröffnet. Sie müssen lediglich einen MCP-Server erstellen und Richtlinien für die gewünschte Funktionsweise und den Verwendungszweck festlegen.
Tatsächlich sind die Auswirkungen der MCP-Technologie auf die Sicherheit überwiegend positiv. Das Versprechen einer direkteren Integration zwischen den von Sicherheitsexperten verwendeten Technologie-Stacks und LLM ist nicht zu übersehen und zeigt, dass eine präzise Automatisierung von Sicherheitsaufgaben in einem bisher unmöglichen Ausmaß möglich ist, ohne dass für jede Aufgabe benutzerdefinierter Code geschrieben und bereitgestellt werden muss.Angesichts der Tatsache, dass eine umfassende Sichtbarkeit und Konnektivität zwischen Daten, Tools und Mitarbeitern die Grundlage für eine effektive Sicherheitsabwehr und -planung bildet, ist die verbesserte Interoperabilität von LLM, die MCP bietet, eine interessante Perspektive für die Unternehmenssicherheit.
Bei Verwendung von MCP können jedoch andere Bedrohungsvektoren hinzukommen, die den Angriffsbereich des Unternehmens erheblich erweitern können, wenn sie nicht sorgfältig verwaltet werden. Wie bereits erwähnt, handelt es sich bei Invariant-Lab- und Tool-Poison-Angriffen um eine neue Kategorie von Schwachstellen, die zu sensiblen Datenlecks und unbefugten Aktivitäten von KI-Modellen führen können. Von dort aus verschlechtert sich die Sicherheitslage sehr schnell.
Laut InvariantLabs kann es zu Tool-Poisoning-Angriffen kommen, wenn die MCP-Toolbeschreibung böswillige Befehle enthält, die für den Benutzer nicht sichtbar sind, aber vom KI-Modell vollständig gelesen und ausgeführt werden können. Auf diese Weise kann das Tool dazu verleitet werden, ohne Wissen des Benutzers unbefugt falsche Aktionen auszuführen. Das Problem liegt in der Annahme von MCP, dass alle Toolbeschreibungen vertrauenswürdig sein müssen. Das ist Musik in den Ohren von Angreifern.
Sie weisen auf die folgenden möglichen Folgen hin, die durch beschädigte Werkzeuge verursacht werden können.
- AI-Modell anweisen, auf sensible Dateien (z. B. SSH-Schlüssel, Konfigurationsdateien, Datenbanken usw.) zuzugreifen
- In einer Umgebung, in der diese böswilligen Handlungen für den ahnungslosen Benutzer im Wesentlichen verborgen bleiben, wird die KI angewiesen, diese Daten zu extrahieren und zu übertragen.
- Hinter der unglaublich einfachen Benutzeroberfläche für die Übernahme und Ausgabe von Werkzeugen kann sich eine Diskrepanz zwischen dem, was der Benutzer sieht, und dem, was das KI-Modell tatsächlich tut, verbergen.
Dies ist eine besorgniserregende Schwachstelle, die mit der unvermeidlichen Zunahme der MCP-Nutzung mit ziemlicher Sicherheit häufiger auftreten wird. Mit der Weiterentwicklung von Unternehmenssicherheitsprogrammen werden sorgfältige Maßnahmen ergriffen werden, um diese Bedrohungen zu erkennen und zu mindern. Dabei ist es von entscheidender Bedeutung, dass Entwickler angemessen vorbereitet werden, damit sie an der Lösung mitwirken können.
Warum nur Entwickler mit Sicherheitskenntnissen Agent-KI-Tools verwenden sollten
Agentische KI-Codierungswerkzeuge gelten als die nächste Evolutionsstufe der KI-gestützten Codierung und bieten Funktionen zur Steigerung der Effizienz, Produktivität und Flexibilität der Softwareentwicklung. Sie sind besonders nützlich aufgrund ihrer verbesserten Fähigkeit, Kontext und Absichten zu verstehen, sind jedoch nicht frei von Bedrohungen wie sofortigen Injektionen, Halluzinationen oder Verhaltensmanipulationen durch Angreifer.
Entwickler sind die Verteidigungslinie, die zwischen guten und schlechten Code-Commits unterscheidet. Die Aufrechterhaltung einer hohen Sicherheits- und Kritikfähigkeit wird die Grundlage für die zukünftige Entwicklung sicherer Software sein.
Die Ergebnisse der KI sollten niemals blind vertraut werden. Erfahrene Entwickler mit fundierten Sicherheitskenntnissen, die situationsgerecht kritisch denken, können die Produktivitätssteigerungen, die diese Technologie bietet, sicher nutzen. Dennoch sollte es sich um eine Pair-Programming-Umgebung handeln, in der menschliche Experten die vom Tool generierten Aufgaben bewerten, Bedrohungen modellieren und schließlich genehmigen können.
Erfahren Sie mehr darüber, wie Entwickler mithilfe von KI ihre Fähigkeiten verbessern und ihre Produktivität steigern können. Hier.
Lesen Sie mehr über praktische Entspannungstechniken und aktuelle Forschungsarbeiten.
KI-Codierungswerkzeuge und MCP-Technologie werden voraussichtlich wichtige Faktoren für die Zukunft der Cybersicherheit sein, aber es ist wichtig, sich vorab genau zu informieren, bevor man sich darauf einlässt.
Narayala und Habulus beschreiben detailliert eine umfassende Strategie zur Risikominderung, um MCP auf Unternehmensebene zu implementieren und Risiken kontinuierlich zu verwalten. Letztendlich zielt dieses neue Ökosystem explizit auf das spezifische Risikoprofil ab, das es in Unternehmensumgebungen mit sich bringt, wobei der Schwerpunkt auf den Prinzipien der tiefgreifenden Verteidigung und Zero Trust liegt. Insbesondere für Entwickler ist es unerlässlich, Wissenslücken in den folgenden Bereichen zu schließen.
- Authentifizierung und Zugriffskontrolle: Agentic AI-Tools sind in der Lage, Probleme zu lösen und autonome Entscheidungen zu treffen, um geplante Ziele zu erreichen, ähnlich wie Menschen bei technischen Aufgaben vorgehen. Wie jedoch bereits dargelegt, darf die Aufsicht durch erfahrene Fachleute bei diesen Prozessen nicht außer Acht gelassen werden. Entwickler, die diese Tools in ihren Workflows einsetzen, müssen genau verstehen, über welche Zugriffsrechte sie verfügen, welche Daten sie abrufen oder offenlegen können und wo diese Daten geteilt werden können.
- Erkennung und Abwehr allgemeiner Bedrohungen: Wie bei den meisten KI-Prozessen müssen Anwender über fundierte Kenntnisse verfügen, um potenzielle Fehler und Ungenauigkeiten in den Tool-Ausgaben zu erkennen. Entwickler müssen sich kontinuierlich weiterbilden und ihre Kenntnisse überprüfen lassen, um Sicherheitsprozesse effektiv überprüfen zu können. Sie können KI-generierten Code auf Genauigkeit und Berechtigungen überprüfen.
- Sicherheitsrichtlinien und Abstimmung mit der KI-Governance: Entwickler müssen über zugelassene Tools informiert werden, die entsprechenden Technologien erlernen und Zugang zu diesen Tools erhalten. Um Commits vertrauenswürdig zu machen, müssen sowohl Entwickler als auch Tools einem Sicherheits-Benchmarking unterzogen werden.
Die kürzlich veröffentlichte Forschungsarbeit beschreibt die Einführung von Vib-Coding und KI-gestütztem Coding sowie die Maßnahmen, die Unternehmen ergreifen sollten, um die nächste Generation von KI-basierten Software-Ingenieuren zu fördern. Lesen Sie die Studie und kontaktieren Sie uns noch heute, um Ihre Entwickler-Cohorte zu stärken.
Inhaltsverzeichnis
Vorstandsvorsitzender, Chairman und Mitbegründer

Secure Code Warrior ist für Unternehmen da, um den Code während des gesamten Softwareentwicklungszyklus zu schützen und eine Kultur zu schaffen, in der Cybersicherheit oberste Priorität hat. Unabhängig davon, ob Sie AppSec-Manager, Entwickler, CISO oder in einem anderen Bereich der Sicherheit tätig sind, können wir Ihnen dabei helfen, die Risiken zu reduzieren, die mit unsicherem Code verbunden sind.
Demo-Termin vereinbarenDownloadHilfreiche Ressourcen für den Einstieg
Themen und Inhalte der Sicherheitsschulung
Die branchenweit besten Inhalte werden unter Berücksichtigung der Kundenrollen ständig weiterentwickelt und an die sich ständig verändernde Softwareentwicklungsumgebung angepasst. Es werden Themen angeboten, die alle Bereiche von KI bis hin zu XQuery-Injection abdecken und für verschiedene Rollen geeignet sind, von Architekten und Ingenieuren bis hin zu Produktmanagern und QA-Mitarbeitern. Sehen Sie sich vorab an, was der Inhaltskatalog nach Themen und Rollen zu bieten hat.
Die Kamer van Koophandel setzt Maßstäbe für entwicklergesteuerte Sicherheit in großem Maßstab
Die Kamer van Koophandel berichtet, wie sie sicheres Codieren durch rollenbasierte Zertifizierungen, Trust Score-Benchmarking und eine Kultur der gemeinsamen Verantwortung für Sicherheit in die tägliche Entwicklungsarbeit integriert hat.
Bedrohungsmodellierung mit KI: So wird jeder Entwickler zum Bedrohungsmodellierer
Sie werden besser gerüstet sein, um Entwicklern dabei zu helfen, Ideen und Techniken zur Bedrohungsmodellierung mit den KI-Tools zu kombinieren, die sie bereits verwenden, um die Sicherheit zu erhöhen, die Zusammenarbeit zu verbessern und von Anfang an widerstandsfähigere Software zu entwickeln.
Hilfreiche Ressourcen für den Einstieg
Cybermon ist zurück: Die KI-Mission zum Besiegen des Bosses ist jetzt auf Abruf verfügbar.
Cybermon 2025 Bit The Boss ist jetzt das ganze Jahr über bei SCW verfügbar. Stärken Sie die Entwicklung von Sicherheits-KI in großem Maßstab durch den Einsatz fortschrittlicher KI/LLM-Sicherheitslösungen.
Erläuterung des Gesetzes zur Cyber-Resilienz: Bedeutung der Entwicklung von Sicherheitsdesign-Software
Erfahren Sie mehr über die Anforderungen und Anwendungsbereiche des EU-Cyberresilienzgesetzes (CRA) und darüber, wie sich Ingenieurteams durch Design, Praktiken, Schwachstellenvermeidung und die Einrichtung einer Entwicklerumgebung sicher vorbereiten können.
Erfolgsfaktor 1: Definierte und messbare Erfolgskriterien
Enabler 1 bietet eine zehnteilige Reihe von Erfolgsfaktoren, die zeigen, wie sichere Codierung zu Geschäftsergebnissen wie einer schnelleren Risikominderung und Kostensenkung für die Reifung langfristiger Programme beitragen kann.




%20(1).avif)
.avif)
