
Um die Vorteile der KI-Innovation nutzen zu können, müssen Sie mit sicherem Code beginnen
Softwareentwickler haben gezeigt, dass sie bereit und willens sind, generative künstliche Intelligenz (KI) zum Schreiben von Code zu nutzen, und sie haben im Allgemeinen einige positive Ergebnisse erzielt. Es gibt aber auch viele Anzeichen dafür, dass sie ein gefährliches Spiel spielen könnten.
Laut einem aktuellen Umfrage von GitHub, verwenden mehr als 90% der US-Entwickler KI-Codierungstools und nennen dabei Vorteile wie schnellere Bearbeitungszeiten, schnelle Lösung von Vorfällen und eine stärker kollaborative Umgebung, was ihrer Meinung nach wichtig ist. Die Arbeit mit KI-Tools ermöglicht es Entwicklern, Routineaufgaben abzugeben, sodass sie an kreativeren Jobs arbeiten können, von denen ihr Unternehmen profitiert, und nicht nebenbei die Wahrscheinlichkeit eines Burnouts am Arbeitsplatz verringert.
Studien haben jedoch auch gezeigt, dass KI-Tools dazu neigen Fehler einführen beim Schreiben von Code. EIN Umfrage von Snyk stellte fest, dass zwar 75,8% der Befragten angaben, KI-Code sei sicherer als menschlicher Code, 56,4% jedoch einräumten, dass KI manchmal zu Codierungsproblemen führt. Alarmierend ist, dass 80% der Befragten angaben, während der Entwicklung Sicherheitsrichtlinien für KI-Code zu umgehen.
Seit OpenAis Chat GPT Der Einsatz generativer KI-Modelle wurde im November 2022 eingeführt und hat sich wie in vielen anderen Bereichen während des Codeentwicklungsprozesses im Finanzdienstleistungssektor blitzschnell verbreitet. Das schnelle Aufkommen anderer Modelle, wie GitHub-Copilot, OpenAI-Kodex, und ein wachsende Liste von anderen, deutet darauf hin, dass wir nur an der Oberfläche dessen gekratzt haben, was generative KI leisten kann und welche Auswirkungen sie haben kann. Damit diese Wirkung jedoch positiv ist, müssen wir sicherstellen, dass der Code, den sie generiert, sicher ist.
Programmierfehler können sich schnell ausbreiten
Ob von menschlichen Entwicklern oder KI-Modellen erstellt, Code wird enthalten einige Fehler. Da KI dazu beiträgt, die Codeentwicklung zu beschleunigen, um den ständig steigenden Anforderungen in stark verteilten, cloudbasierten Computerumgebungen gerecht zu werden, könnte die Wahrscheinlichkeit steigen, dass sich böser Code ausbreitet, bevor er erkannt wird.
KI-Modelle, die darauf trainiert werden, Code zu schreiben, nehmen Tausende von Codebeispielen auf, die verschiedene Aufgaben ausführen, und dann können sie auf diesen Beispielen zurückgreifen, um ihren eigenen Code zu erstellen. Wenn die Beispiele, mit denen es arbeitet, jedoch Fehler oder Sicherheitslücken aufweisen — unabhängig davon, ob sie ursprünglich von einem Menschen oder einer anderen KI erstellt wurden —, könnte das Modell diese Fehler auf eine neue Umgebung übertragen.
In Anbetracht Untersuchungen haben gezeigt Da KI-Modelle nicht in der Lage sind, Fehler in dem von ihnen verwendeten Code zuverlässig zu erkennen, gibt es kaum einen eingebauten Schutz gegen die Ausbreitung von Fehlern und Sicherheitslücken. KI macht nicht nur Fehler beim Programmieren, sondern wiederholt auch ihre eigenen Fehler und die Fehler anderer Quellen, bis die Sicherheitslücke irgendwann identifiziert wird — vielleicht in Form eines erfolgreichen Sicherheitsverstoßes durch ein Unternehmen, das die von ihr erstellte Software verwendet.
Die wirkliche Verteidigung gegen die Ausbreitung von Codierungsfehlern besteht darin, dass Menschen und KI-Modelle zusammenarbeiten. Menschliche Entwickler sollten das Schreiben von KI-Code überwachen und als Schutz vor unsicheren Programmierpraktiken und anfälligem Code dienen. Dazu müssen Entwickler jedoch gründlich in den besten Praktiken des sicheren Code-Schreibens geschult werden, damit sie Codierungsfehler, die eine KI möglicherweise macht, erkennen und schnell korrigieren können.
Die Herausforderungen der Erstellung und Korrektur von KI-Code
Die plötzliche Explosion großer Sprachmodelle (LLMs) wie ChatGPT war so etwas wie ein zweischneidiges Schwert. Einerseits haben Unternehmen und alltägliche Anwender durch den Einsatz von KI zur Erledigung zeitaufwändiger, beschwerlicher oder schwieriger Aufgaben enorme Produktivitätssteigerungen erzielt. Auf der anderen Seite gab es viele Beispiele dafür, was schief gehen kann, wenn man blind darauf vertraut, dass KI die Arbeit erledigt.
KI-Modelle haben gemacht eklatante Fehler, bewies Voreingenommenheit und produzierte durchweg halluzinationen. In vielen Fällen lag die Ursache des Problems in unzureichenden oder unverantwortlichen Trainingsdaten. Jedes KI-Modell ist nur so gut wie die Daten, auf denen es trainiert wurde. Daher ist es wichtig, dass die Trainingsdaten umfassend und sorgfältig überprüft werden. Aber selbst dann werden einige Fehler gemacht werden.
Der Einsatz von KI zum Codieren steht vor vielen der gleichen Hürden. Von KI generierter Code weist nachweislich eine Reihe von Sicherheitslücken auf, wie z. B. Sicherheitslücken für Cross-Site-Scripting und Code-Injection sowie spezifische Angriffe auf KI und maschinelles Lernen (ML), wie schnelle Injektion. KI-Modelle arbeiten auch in einer Blackbox, weil ihre Prozesse nicht transparent sind, sodass ein Sicherheits- oder Entwicklungsteam nicht sehen kann, wie eine KI zu ihren Schlussfolgerungen kommt. Infolgedessen kann das Modell dieselben Fehler immer wieder wiederholen. Dieselben Mängel, die sich auf das Schreiben von Code auswirken können, übertragen sich auch auf die Verwendung von KI für Codekorrektur und Erfüllung der Compliance-Anforderungen.
Das Potenzial, dass Fehler durch KI-Modelle verursacht oder wiederholt werden, ist so weit gewachsen, dass LLMs jetzt ihre eigene Liste des Open Web Application Security Project (OWASP) haben Die zehn wichtigsten Sicherheitslücken.
Entwickler und KI können zusammenarbeiten, um sicheren Code zu erstellen
Bedenken hinsichtlich potenzieller Fehler in KI-generiertem Code könnten einige Unternehmen, wenn auch nur kurz, dazu veranlassen, die Technologie weiterzuentwickeln. Die potenziellen Vorteile sind jedoch zu groß, um sie zu ignorieren, insbesondere da KI-Entwickler weiterhin innovativ sind und ihre Modelle verbessern. Zum einen ist es unwahrscheinlich, dass die Finanzdienstleistungsbranche den Geist wieder in die Flasche steckt. Banken und Finanzdienstleistungsunternehmen sind bereits technologiegetrieben, und sie sind in einem Bereich tätig, in dem sie immer nach einem Wettbewerbsvorteil suchen.
Der Schlüssel liegt darin, KI-Modelle so zu implementieren, dass das Risiko minimiert wird. Und das bedeutet, dass Entwickler, die sicherheitsbewusst sind und gründlich in den Best Practices für sicheres Programmieren geschult sind, damit sie selbst sicheren Code schreiben und den Code, den KI-Modelle produzieren, genau überwachen können. Wenn KI-Engines und menschliche Entwickler in einer engen Partnerschaft zusammenarbeiten, wobei die Entwickler das letzte Wort haben, können Unternehmen die Vorteile einer verbesserten Produktivität und Effizienz nutzen und gleichzeitig die Sicherheit verbessern, Risiken begrenzen und die Einhaltung der Vorschriften sicherstellen.
Einen umfassenden Überblick darüber, wie sichere Codierung dazu beitragen kann, Erfolg, Sicherheit und Gewinne für Finanzdienstleistungsunternehmen zu gewährleisten, finden Sie im neu veröffentlichten Secure Code Warrior-Leitfaden: Der ultimative Leitfaden zu Sicherheitstrends bei Finanzdienstleistungen.
Schauen Sie sich das an Sicherer Codekrieger Blogseiten mit mehr Informationen über Cybersicherheit, die zunehmend gefährliche Bedrohungslandschaft und um zu erfahren, wie Sie innovative Technologien und Schulungen einsetzen können, um Ihr Unternehmen und Ihre Kunden besser zu schützen.


Generative KI bietet Finanzdienstleistungsunternehmen viele Vorteile, aber auch viele potenzielle Risiken. Entwickler in bewährten Sicherheitsmethoden zu schulen und sie mit KI-Modellen zu kombinieren, kann dazu beitragen, von Anfang an sicheren Code zu erstellen.
Secure Code Warrior macht sicheres Programmieren zu einer positiven und ansprechenden Erfahrung für Entwickler, die ihre Fähigkeiten erweitern. Wir begleiten jeden Programmierer auf seinem eigenen bevorzugten Lernweg, sodass sicherheitserfahrene Entwickler zu den alltäglichen Superhelden unserer vernetzten Welt werden.

Secure Code Warrior 、ソフトウェア開発サイクル全体を通じてコードの安全性を確保し、サイバーセキュリティを最優先とする文化を構築するため、貴社をSecure Code Warrior 。アプリセキュリティ管理者、開発者、CISO、あるいはセキュリティに関わるあらゆる立場の方々に対し、当社が貴社のビジネスにおける不安全なコードに関連するリスクの低減を支援します。
デモを予約するSecure Code Warrior macht sicheres Programmieren zu einer positiven und ansprechenden Erfahrung für Entwickler, die ihre Fähigkeiten erweitern. Wir begleiten jeden Programmierer auf seinem eigenen bevorzugten Lernweg, sodass sicherheitserfahrene Entwickler zu den alltäglichen Superhelden unserer vernetzten Welt werden.
Dieser Artikel wurde vom Branchenexpertenteam von Secure Code Warrior verfasst, das sich zum Ziel gesetzt hat, Entwicklern von Anfang an das Wissen und die Fähigkeiten zu vermitteln, um sichere Software zu entwickeln. Wir stützen uns auf fundiertes Fachwissen in Bezug auf sichere Codierungspraktiken, Branchentrends und Erkenntnisse aus der Praxis.


Softwareentwickler haben gezeigt, dass sie bereit und willens sind, generative künstliche Intelligenz (KI) zum Schreiben von Code zu nutzen, und sie haben im Allgemeinen einige positive Ergebnisse erzielt. Es gibt aber auch viele Anzeichen dafür, dass sie ein gefährliches Spiel spielen könnten.
Laut einem aktuellen Umfrage von GitHub, verwenden mehr als 90% der US-Entwickler KI-Codierungstools und nennen dabei Vorteile wie schnellere Bearbeitungszeiten, schnelle Lösung von Vorfällen und eine stärker kollaborative Umgebung, was ihrer Meinung nach wichtig ist. Die Arbeit mit KI-Tools ermöglicht es Entwicklern, Routineaufgaben abzugeben, sodass sie an kreativeren Jobs arbeiten können, von denen ihr Unternehmen profitiert, und nicht nebenbei die Wahrscheinlichkeit eines Burnouts am Arbeitsplatz verringert.
Studien haben jedoch auch gezeigt, dass KI-Tools dazu neigen Fehler einführen beim Schreiben von Code. EIN Umfrage von Snyk stellte fest, dass zwar 75,8% der Befragten angaben, KI-Code sei sicherer als menschlicher Code, 56,4% jedoch einräumten, dass KI manchmal zu Codierungsproblemen führt. Alarmierend ist, dass 80% der Befragten angaben, während der Entwicklung Sicherheitsrichtlinien für KI-Code zu umgehen.
Seit OpenAis Chat GPT Der Einsatz generativer KI-Modelle wurde im November 2022 eingeführt und hat sich wie in vielen anderen Bereichen während des Codeentwicklungsprozesses im Finanzdienstleistungssektor blitzschnell verbreitet. Das schnelle Aufkommen anderer Modelle, wie GitHub-Copilot, OpenAI-Kodex, und ein wachsende Liste von anderen, deutet darauf hin, dass wir nur an der Oberfläche dessen gekratzt haben, was generative KI leisten kann und welche Auswirkungen sie haben kann. Damit diese Wirkung jedoch positiv ist, müssen wir sicherstellen, dass der Code, den sie generiert, sicher ist.
Programmierfehler können sich schnell ausbreiten
Ob von menschlichen Entwicklern oder KI-Modellen erstellt, Code wird enthalten einige Fehler. Da KI dazu beiträgt, die Codeentwicklung zu beschleunigen, um den ständig steigenden Anforderungen in stark verteilten, cloudbasierten Computerumgebungen gerecht zu werden, könnte die Wahrscheinlichkeit steigen, dass sich böser Code ausbreitet, bevor er erkannt wird.
KI-Modelle, die darauf trainiert werden, Code zu schreiben, nehmen Tausende von Codebeispielen auf, die verschiedene Aufgaben ausführen, und dann können sie auf diesen Beispielen zurückgreifen, um ihren eigenen Code zu erstellen. Wenn die Beispiele, mit denen es arbeitet, jedoch Fehler oder Sicherheitslücken aufweisen — unabhängig davon, ob sie ursprünglich von einem Menschen oder einer anderen KI erstellt wurden —, könnte das Modell diese Fehler auf eine neue Umgebung übertragen.
In Anbetracht Untersuchungen haben gezeigt Da KI-Modelle nicht in der Lage sind, Fehler in dem von ihnen verwendeten Code zuverlässig zu erkennen, gibt es kaum einen eingebauten Schutz gegen die Ausbreitung von Fehlern und Sicherheitslücken. KI macht nicht nur Fehler beim Programmieren, sondern wiederholt auch ihre eigenen Fehler und die Fehler anderer Quellen, bis die Sicherheitslücke irgendwann identifiziert wird — vielleicht in Form eines erfolgreichen Sicherheitsverstoßes durch ein Unternehmen, das die von ihr erstellte Software verwendet.
Die wirkliche Verteidigung gegen die Ausbreitung von Codierungsfehlern besteht darin, dass Menschen und KI-Modelle zusammenarbeiten. Menschliche Entwickler sollten das Schreiben von KI-Code überwachen und als Schutz vor unsicheren Programmierpraktiken und anfälligem Code dienen. Dazu müssen Entwickler jedoch gründlich in den besten Praktiken des sicheren Code-Schreibens geschult werden, damit sie Codierungsfehler, die eine KI möglicherweise macht, erkennen und schnell korrigieren können.
Die Herausforderungen der Erstellung und Korrektur von KI-Code
Die plötzliche Explosion großer Sprachmodelle (LLMs) wie ChatGPT war so etwas wie ein zweischneidiges Schwert. Einerseits haben Unternehmen und alltägliche Anwender durch den Einsatz von KI zur Erledigung zeitaufwändiger, beschwerlicher oder schwieriger Aufgaben enorme Produktivitätssteigerungen erzielt. Auf der anderen Seite gab es viele Beispiele dafür, was schief gehen kann, wenn man blind darauf vertraut, dass KI die Arbeit erledigt.
KI-Modelle haben gemacht eklatante Fehler, bewies Voreingenommenheit und produzierte durchweg halluzinationen. In vielen Fällen lag die Ursache des Problems in unzureichenden oder unverantwortlichen Trainingsdaten. Jedes KI-Modell ist nur so gut wie die Daten, auf denen es trainiert wurde. Daher ist es wichtig, dass die Trainingsdaten umfassend und sorgfältig überprüft werden. Aber selbst dann werden einige Fehler gemacht werden.
Der Einsatz von KI zum Codieren steht vor vielen der gleichen Hürden. Von KI generierter Code weist nachweislich eine Reihe von Sicherheitslücken auf, wie z. B. Sicherheitslücken für Cross-Site-Scripting und Code-Injection sowie spezifische Angriffe auf KI und maschinelles Lernen (ML), wie schnelle Injektion. KI-Modelle arbeiten auch in einer Blackbox, weil ihre Prozesse nicht transparent sind, sodass ein Sicherheits- oder Entwicklungsteam nicht sehen kann, wie eine KI zu ihren Schlussfolgerungen kommt. Infolgedessen kann das Modell dieselben Fehler immer wieder wiederholen. Dieselben Mängel, die sich auf das Schreiben von Code auswirken können, übertragen sich auch auf die Verwendung von KI für Codekorrektur und Erfüllung der Compliance-Anforderungen.
Das Potenzial, dass Fehler durch KI-Modelle verursacht oder wiederholt werden, ist so weit gewachsen, dass LLMs jetzt ihre eigene Liste des Open Web Application Security Project (OWASP) haben Die zehn wichtigsten Sicherheitslücken.
Entwickler und KI können zusammenarbeiten, um sicheren Code zu erstellen
Bedenken hinsichtlich potenzieller Fehler in KI-generiertem Code könnten einige Unternehmen, wenn auch nur kurz, dazu veranlassen, die Technologie weiterzuentwickeln. Die potenziellen Vorteile sind jedoch zu groß, um sie zu ignorieren, insbesondere da KI-Entwickler weiterhin innovativ sind und ihre Modelle verbessern. Zum einen ist es unwahrscheinlich, dass die Finanzdienstleistungsbranche den Geist wieder in die Flasche steckt. Banken und Finanzdienstleistungsunternehmen sind bereits technologiegetrieben, und sie sind in einem Bereich tätig, in dem sie immer nach einem Wettbewerbsvorteil suchen.
Der Schlüssel liegt darin, KI-Modelle so zu implementieren, dass das Risiko minimiert wird. Und das bedeutet, dass Entwickler, die sicherheitsbewusst sind und gründlich in den Best Practices für sicheres Programmieren geschult sind, damit sie selbst sicheren Code schreiben und den Code, den KI-Modelle produzieren, genau überwachen können. Wenn KI-Engines und menschliche Entwickler in einer engen Partnerschaft zusammenarbeiten, wobei die Entwickler das letzte Wort haben, können Unternehmen die Vorteile einer verbesserten Produktivität und Effizienz nutzen und gleichzeitig die Sicherheit verbessern, Risiken begrenzen und die Einhaltung der Vorschriften sicherstellen.
Einen umfassenden Überblick darüber, wie sichere Codierung dazu beitragen kann, Erfolg, Sicherheit und Gewinne für Finanzdienstleistungsunternehmen zu gewährleisten, finden Sie im neu veröffentlichten Secure Code Warrior-Leitfaden: Der ultimative Leitfaden zu Sicherheitstrends bei Finanzdienstleistungen.
Schauen Sie sich das an Sicherer Codekrieger Blogseiten mit mehr Informationen über Cybersicherheit, die zunehmend gefährliche Bedrohungslandschaft und um zu erfahren, wie Sie innovative Technologien und Schulungen einsetzen können, um Ihr Unternehmen und Ihre Kunden besser zu schützen.

Softwareentwickler haben gezeigt, dass sie bereit und willens sind, generative künstliche Intelligenz (KI) zum Schreiben von Code zu nutzen, und sie haben im Allgemeinen einige positive Ergebnisse erzielt. Es gibt aber auch viele Anzeichen dafür, dass sie ein gefährliches Spiel spielen könnten.
Laut einem aktuellen Umfrage von GitHub, verwenden mehr als 90% der US-Entwickler KI-Codierungstools und nennen dabei Vorteile wie schnellere Bearbeitungszeiten, schnelle Lösung von Vorfällen und eine stärker kollaborative Umgebung, was ihrer Meinung nach wichtig ist. Die Arbeit mit KI-Tools ermöglicht es Entwicklern, Routineaufgaben abzugeben, sodass sie an kreativeren Jobs arbeiten können, von denen ihr Unternehmen profitiert, und nicht nebenbei die Wahrscheinlichkeit eines Burnouts am Arbeitsplatz verringert.
Studien haben jedoch auch gezeigt, dass KI-Tools dazu neigen Fehler einführen beim Schreiben von Code. EIN Umfrage von Snyk stellte fest, dass zwar 75,8% der Befragten angaben, KI-Code sei sicherer als menschlicher Code, 56,4% jedoch einräumten, dass KI manchmal zu Codierungsproblemen führt. Alarmierend ist, dass 80% der Befragten angaben, während der Entwicklung Sicherheitsrichtlinien für KI-Code zu umgehen.
Seit OpenAis Chat GPT Der Einsatz generativer KI-Modelle wurde im November 2022 eingeführt und hat sich wie in vielen anderen Bereichen während des Codeentwicklungsprozesses im Finanzdienstleistungssektor blitzschnell verbreitet. Das schnelle Aufkommen anderer Modelle, wie GitHub-Copilot, OpenAI-Kodex, und ein wachsende Liste von anderen, deutet darauf hin, dass wir nur an der Oberfläche dessen gekratzt haben, was generative KI leisten kann und welche Auswirkungen sie haben kann. Damit diese Wirkung jedoch positiv ist, müssen wir sicherstellen, dass der Code, den sie generiert, sicher ist.
Programmierfehler können sich schnell ausbreiten
Ob von menschlichen Entwicklern oder KI-Modellen erstellt, Code wird enthalten einige Fehler. Da KI dazu beiträgt, die Codeentwicklung zu beschleunigen, um den ständig steigenden Anforderungen in stark verteilten, cloudbasierten Computerumgebungen gerecht zu werden, könnte die Wahrscheinlichkeit steigen, dass sich böser Code ausbreitet, bevor er erkannt wird.
KI-Modelle, die darauf trainiert werden, Code zu schreiben, nehmen Tausende von Codebeispielen auf, die verschiedene Aufgaben ausführen, und dann können sie auf diesen Beispielen zurückgreifen, um ihren eigenen Code zu erstellen. Wenn die Beispiele, mit denen es arbeitet, jedoch Fehler oder Sicherheitslücken aufweisen — unabhängig davon, ob sie ursprünglich von einem Menschen oder einer anderen KI erstellt wurden —, könnte das Modell diese Fehler auf eine neue Umgebung übertragen.
In Anbetracht Untersuchungen haben gezeigt Da KI-Modelle nicht in der Lage sind, Fehler in dem von ihnen verwendeten Code zuverlässig zu erkennen, gibt es kaum einen eingebauten Schutz gegen die Ausbreitung von Fehlern und Sicherheitslücken. KI macht nicht nur Fehler beim Programmieren, sondern wiederholt auch ihre eigenen Fehler und die Fehler anderer Quellen, bis die Sicherheitslücke irgendwann identifiziert wird — vielleicht in Form eines erfolgreichen Sicherheitsverstoßes durch ein Unternehmen, das die von ihr erstellte Software verwendet.
Die wirkliche Verteidigung gegen die Ausbreitung von Codierungsfehlern besteht darin, dass Menschen und KI-Modelle zusammenarbeiten. Menschliche Entwickler sollten das Schreiben von KI-Code überwachen und als Schutz vor unsicheren Programmierpraktiken und anfälligem Code dienen. Dazu müssen Entwickler jedoch gründlich in den besten Praktiken des sicheren Code-Schreibens geschult werden, damit sie Codierungsfehler, die eine KI möglicherweise macht, erkennen und schnell korrigieren können.
Die Herausforderungen der Erstellung und Korrektur von KI-Code
Die plötzliche Explosion großer Sprachmodelle (LLMs) wie ChatGPT war so etwas wie ein zweischneidiges Schwert. Einerseits haben Unternehmen und alltägliche Anwender durch den Einsatz von KI zur Erledigung zeitaufwändiger, beschwerlicher oder schwieriger Aufgaben enorme Produktivitätssteigerungen erzielt. Auf der anderen Seite gab es viele Beispiele dafür, was schief gehen kann, wenn man blind darauf vertraut, dass KI die Arbeit erledigt.
KI-Modelle haben gemacht eklatante Fehler, bewies Voreingenommenheit und produzierte durchweg halluzinationen. In vielen Fällen lag die Ursache des Problems in unzureichenden oder unverantwortlichen Trainingsdaten. Jedes KI-Modell ist nur so gut wie die Daten, auf denen es trainiert wurde. Daher ist es wichtig, dass die Trainingsdaten umfassend und sorgfältig überprüft werden. Aber selbst dann werden einige Fehler gemacht werden.
Der Einsatz von KI zum Codieren steht vor vielen der gleichen Hürden. Von KI generierter Code weist nachweislich eine Reihe von Sicherheitslücken auf, wie z. B. Sicherheitslücken für Cross-Site-Scripting und Code-Injection sowie spezifische Angriffe auf KI und maschinelles Lernen (ML), wie schnelle Injektion. KI-Modelle arbeiten auch in einer Blackbox, weil ihre Prozesse nicht transparent sind, sodass ein Sicherheits- oder Entwicklungsteam nicht sehen kann, wie eine KI zu ihren Schlussfolgerungen kommt. Infolgedessen kann das Modell dieselben Fehler immer wieder wiederholen. Dieselben Mängel, die sich auf das Schreiben von Code auswirken können, übertragen sich auch auf die Verwendung von KI für Codekorrektur und Erfüllung der Compliance-Anforderungen.
Das Potenzial, dass Fehler durch KI-Modelle verursacht oder wiederholt werden, ist so weit gewachsen, dass LLMs jetzt ihre eigene Liste des Open Web Application Security Project (OWASP) haben Die zehn wichtigsten Sicherheitslücken.
Entwickler und KI können zusammenarbeiten, um sicheren Code zu erstellen
Bedenken hinsichtlich potenzieller Fehler in KI-generiertem Code könnten einige Unternehmen, wenn auch nur kurz, dazu veranlassen, die Technologie weiterzuentwickeln. Die potenziellen Vorteile sind jedoch zu groß, um sie zu ignorieren, insbesondere da KI-Entwickler weiterhin innovativ sind und ihre Modelle verbessern. Zum einen ist es unwahrscheinlich, dass die Finanzdienstleistungsbranche den Geist wieder in die Flasche steckt. Banken und Finanzdienstleistungsunternehmen sind bereits technologiegetrieben, und sie sind in einem Bereich tätig, in dem sie immer nach einem Wettbewerbsvorteil suchen.
Der Schlüssel liegt darin, KI-Modelle so zu implementieren, dass das Risiko minimiert wird. Und das bedeutet, dass Entwickler, die sicherheitsbewusst sind und gründlich in den Best Practices für sicheres Programmieren geschult sind, damit sie selbst sicheren Code schreiben und den Code, den KI-Modelle produzieren, genau überwachen können. Wenn KI-Engines und menschliche Entwickler in einer engen Partnerschaft zusammenarbeiten, wobei die Entwickler das letzte Wort haben, können Unternehmen die Vorteile einer verbesserten Produktivität und Effizienz nutzen und gleichzeitig die Sicherheit verbessern, Risiken begrenzen und die Einhaltung der Vorschriften sicherstellen.
Einen umfassenden Überblick darüber, wie sichere Codierung dazu beitragen kann, Erfolg, Sicherheit und Gewinne für Finanzdienstleistungsunternehmen zu gewährleisten, finden Sie im neu veröffentlichten Secure Code Warrior-Leitfaden: Der ultimative Leitfaden zu Sicherheitstrends bei Finanzdienstleistungen.
Schauen Sie sich das an Sicherer Codekrieger Blogseiten mit mehr Informationen über Cybersicherheit, die zunehmend gefährliche Bedrohungslandschaft und um zu erfahren, wie Sie innovative Technologien und Schulungen einsetzen können, um Ihr Unternehmen und Ihre Kunden besser zu schützen.

以下のリンクをクリックして、このリソースのPDFをダウンロードしてください。
Secure Code Warrior 、ソフトウェア開発サイクル全体を通じてコードの安全性を確保し、サイバーセキュリティを最優先とする文化を構築するため、貴社をSecure Code Warrior 。アプリセキュリティ管理者、開発者、CISO、あるいはセキュリティに関わるあらゆる立場の方々に対し、当社が貴社のビジネスにおける不安全なコードに関連するリスクの低減を支援します。
レポートを見るデモを予約するSecure Code Warrior macht sicheres Programmieren zu einer positiven und ansprechenden Erfahrung für Entwickler, die ihre Fähigkeiten erweitern. Wir begleiten jeden Programmierer auf seinem eigenen bevorzugten Lernweg, sodass sicherheitserfahrene Entwickler zu den alltäglichen Superhelden unserer vernetzten Welt werden.
Dieser Artikel wurde vom Branchenexpertenteam von Secure Code Warrior verfasst, das sich zum Ziel gesetzt hat, Entwicklern von Anfang an das Wissen und die Fähigkeiten zu vermitteln, um sichere Software zu entwickeln. Wir stützen uns auf fundiertes Fachwissen in Bezug auf sichere Codierungspraktiken, Branchentrends und Erkenntnisse aus der Praxis.
Softwareentwickler haben gezeigt, dass sie bereit und willens sind, generative künstliche Intelligenz (KI) zum Schreiben von Code zu nutzen, und sie haben im Allgemeinen einige positive Ergebnisse erzielt. Es gibt aber auch viele Anzeichen dafür, dass sie ein gefährliches Spiel spielen könnten.
Laut einem aktuellen Umfrage von GitHub, verwenden mehr als 90% der US-Entwickler KI-Codierungstools und nennen dabei Vorteile wie schnellere Bearbeitungszeiten, schnelle Lösung von Vorfällen und eine stärker kollaborative Umgebung, was ihrer Meinung nach wichtig ist. Die Arbeit mit KI-Tools ermöglicht es Entwicklern, Routineaufgaben abzugeben, sodass sie an kreativeren Jobs arbeiten können, von denen ihr Unternehmen profitiert, und nicht nebenbei die Wahrscheinlichkeit eines Burnouts am Arbeitsplatz verringert.
Studien haben jedoch auch gezeigt, dass KI-Tools dazu neigen Fehler einführen beim Schreiben von Code. EIN Umfrage von Snyk stellte fest, dass zwar 75,8% der Befragten angaben, KI-Code sei sicherer als menschlicher Code, 56,4% jedoch einräumten, dass KI manchmal zu Codierungsproblemen führt. Alarmierend ist, dass 80% der Befragten angaben, während der Entwicklung Sicherheitsrichtlinien für KI-Code zu umgehen.
Seit OpenAis Chat GPT Der Einsatz generativer KI-Modelle wurde im November 2022 eingeführt und hat sich wie in vielen anderen Bereichen während des Codeentwicklungsprozesses im Finanzdienstleistungssektor blitzschnell verbreitet. Das schnelle Aufkommen anderer Modelle, wie GitHub-Copilot, OpenAI-Kodex, und ein wachsende Liste von anderen, deutet darauf hin, dass wir nur an der Oberfläche dessen gekratzt haben, was generative KI leisten kann und welche Auswirkungen sie haben kann. Damit diese Wirkung jedoch positiv ist, müssen wir sicherstellen, dass der Code, den sie generiert, sicher ist.
Programmierfehler können sich schnell ausbreiten
Ob von menschlichen Entwicklern oder KI-Modellen erstellt, Code wird enthalten einige Fehler. Da KI dazu beiträgt, die Codeentwicklung zu beschleunigen, um den ständig steigenden Anforderungen in stark verteilten, cloudbasierten Computerumgebungen gerecht zu werden, könnte die Wahrscheinlichkeit steigen, dass sich böser Code ausbreitet, bevor er erkannt wird.
KI-Modelle, die darauf trainiert werden, Code zu schreiben, nehmen Tausende von Codebeispielen auf, die verschiedene Aufgaben ausführen, und dann können sie auf diesen Beispielen zurückgreifen, um ihren eigenen Code zu erstellen. Wenn die Beispiele, mit denen es arbeitet, jedoch Fehler oder Sicherheitslücken aufweisen — unabhängig davon, ob sie ursprünglich von einem Menschen oder einer anderen KI erstellt wurden —, könnte das Modell diese Fehler auf eine neue Umgebung übertragen.
In Anbetracht Untersuchungen haben gezeigt Da KI-Modelle nicht in der Lage sind, Fehler in dem von ihnen verwendeten Code zuverlässig zu erkennen, gibt es kaum einen eingebauten Schutz gegen die Ausbreitung von Fehlern und Sicherheitslücken. KI macht nicht nur Fehler beim Programmieren, sondern wiederholt auch ihre eigenen Fehler und die Fehler anderer Quellen, bis die Sicherheitslücke irgendwann identifiziert wird — vielleicht in Form eines erfolgreichen Sicherheitsverstoßes durch ein Unternehmen, das die von ihr erstellte Software verwendet.
Die wirkliche Verteidigung gegen die Ausbreitung von Codierungsfehlern besteht darin, dass Menschen und KI-Modelle zusammenarbeiten. Menschliche Entwickler sollten das Schreiben von KI-Code überwachen und als Schutz vor unsicheren Programmierpraktiken und anfälligem Code dienen. Dazu müssen Entwickler jedoch gründlich in den besten Praktiken des sicheren Code-Schreibens geschult werden, damit sie Codierungsfehler, die eine KI möglicherweise macht, erkennen und schnell korrigieren können.
Die Herausforderungen der Erstellung und Korrektur von KI-Code
Die plötzliche Explosion großer Sprachmodelle (LLMs) wie ChatGPT war so etwas wie ein zweischneidiges Schwert. Einerseits haben Unternehmen und alltägliche Anwender durch den Einsatz von KI zur Erledigung zeitaufwändiger, beschwerlicher oder schwieriger Aufgaben enorme Produktivitätssteigerungen erzielt. Auf der anderen Seite gab es viele Beispiele dafür, was schief gehen kann, wenn man blind darauf vertraut, dass KI die Arbeit erledigt.
KI-Modelle haben gemacht eklatante Fehler, bewies Voreingenommenheit und produzierte durchweg halluzinationen. In vielen Fällen lag die Ursache des Problems in unzureichenden oder unverantwortlichen Trainingsdaten. Jedes KI-Modell ist nur so gut wie die Daten, auf denen es trainiert wurde. Daher ist es wichtig, dass die Trainingsdaten umfassend und sorgfältig überprüft werden. Aber selbst dann werden einige Fehler gemacht werden.
Der Einsatz von KI zum Codieren steht vor vielen der gleichen Hürden. Von KI generierter Code weist nachweislich eine Reihe von Sicherheitslücken auf, wie z. B. Sicherheitslücken für Cross-Site-Scripting und Code-Injection sowie spezifische Angriffe auf KI und maschinelles Lernen (ML), wie schnelle Injektion. KI-Modelle arbeiten auch in einer Blackbox, weil ihre Prozesse nicht transparent sind, sodass ein Sicherheits- oder Entwicklungsteam nicht sehen kann, wie eine KI zu ihren Schlussfolgerungen kommt. Infolgedessen kann das Modell dieselben Fehler immer wieder wiederholen. Dieselben Mängel, die sich auf das Schreiben von Code auswirken können, übertragen sich auch auf die Verwendung von KI für Codekorrektur und Erfüllung der Compliance-Anforderungen.
Das Potenzial, dass Fehler durch KI-Modelle verursacht oder wiederholt werden, ist so weit gewachsen, dass LLMs jetzt ihre eigene Liste des Open Web Application Security Project (OWASP) haben Die zehn wichtigsten Sicherheitslücken.
Entwickler und KI können zusammenarbeiten, um sicheren Code zu erstellen
Bedenken hinsichtlich potenzieller Fehler in KI-generiertem Code könnten einige Unternehmen, wenn auch nur kurz, dazu veranlassen, die Technologie weiterzuentwickeln. Die potenziellen Vorteile sind jedoch zu groß, um sie zu ignorieren, insbesondere da KI-Entwickler weiterhin innovativ sind und ihre Modelle verbessern. Zum einen ist es unwahrscheinlich, dass die Finanzdienstleistungsbranche den Geist wieder in die Flasche steckt. Banken und Finanzdienstleistungsunternehmen sind bereits technologiegetrieben, und sie sind in einem Bereich tätig, in dem sie immer nach einem Wettbewerbsvorteil suchen.
Der Schlüssel liegt darin, KI-Modelle so zu implementieren, dass das Risiko minimiert wird. Und das bedeutet, dass Entwickler, die sicherheitsbewusst sind und gründlich in den Best Practices für sicheres Programmieren geschult sind, damit sie selbst sicheren Code schreiben und den Code, den KI-Modelle produzieren, genau überwachen können. Wenn KI-Engines und menschliche Entwickler in einer engen Partnerschaft zusammenarbeiten, wobei die Entwickler das letzte Wort haben, können Unternehmen die Vorteile einer verbesserten Produktivität und Effizienz nutzen und gleichzeitig die Sicherheit verbessern, Risiken begrenzen und die Einhaltung der Vorschriften sicherstellen.
Einen umfassenden Überblick darüber, wie sichere Codierung dazu beitragen kann, Erfolg, Sicherheit und Gewinne für Finanzdienstleistungsunternehmen zu gewährleisten, finden Sie im neu veröffentlichten Secure Code Warrior-Leitfaden: Der ultimative Leitfaden zu Sicherheitstrends bei Finanzdienstleistungen.
Schauen Sie sich das an Sicherer Codekrieger Blogseiten mit mehr Informationen über Cybersicherheit, die zunehmend gefährliche Bedrohungslandschaft und um zu erfahren, wie Sie innovative Technologien und Schulungen einsetzen können, um Ihr Unternehmen und Ihre Kunden besser zu schützen.
目次
Secure Code Warrior macht sicheres Programmieren zu einer positiven und ansprechenden Erfahrung für Entwickler, die ihre Fähigkeiten erweitern. Wir begleiten jeden Programmierer auf seinem eigenen bevorzugten Lernweg, sodass sicherheitserfahrene Entwickler zu den alltäglichen Superhelden unserer vernetzten Welt werden.

Secure Code Warrior 、ソフトウェア開発サイクル全体を通じてコードの安全性を確保し、サイバーセキュリティを最優先とする文化を構築するため、貴社をSecure Code Warrior 。アプリセキュリティ管理者、開発者、CISO、あるいはセキュリティに関わるあらゆる立場の方々に対し、当社が貴社のビジネスにおける不安全なコードに関連するリスクの低減を支援します。
デモを予約するダウンロード



%20(1).avif)
.avif)
