HASEPOST
 
HASEPOST

Andrej Karpathy, leitender Forscher bei OpenAI, deckt neue KI-Cybersicherheitsbedrohungen auf

Künstliche Intelligenz ist seit der Einführung von ChatGPT durch OpenAI ein Thema, das kontroverse Meinungen verursacht. Einige feiern die Technologie als Durchbruch, andere begegnen ihr mit Skepsis. Andrej Karpathy, ein Gründungsmitglied von OpenAI, hat sich in seinem neuesten YouTube-Video mit den weniger beleuchteten und unangenehmen Aspekten der KI beschäftigt. Er spricht über Sicherheitsrisiken für Nutzer von Large Language Models (LLMs) und erläutert, wie nah die Bedrohungen für unsere digitale Sicherheit sind. In diesem Beitrag fassen wir die Highlights seines Vortrags zusammen.

Andrej Karpathy, bekannt für seine Arbeit in den Bereichen Deep Learning und Künstliche Intelligenz, ist als Mitbegründer von OpenAI eine Schlüsselfigur bei der Entwicklung von Chat-GPT. In seinem Video spricht er über spezifische Sicherheitsrisiken, die für viele Benutzer und Unternehmen noch unsichtbar sind.

Prompt Injections

Prompt Injections in KI-Systemen, die Webinhale durchsuchen oder Bilder analysieren können, nutzen die Fähigkeit der KI, auf subtile Muster oder versteckte Informationen in Daten zu reagieren. Beispielsweise könnte eine Website so gestaltet sein, dass sie für das menschliche Auge normal aussieht, jedoch versteckte HTML-Kommentare oder spezifische Muster enthält, die von einer Maschine anders interpretiert werden können. Diese dienen folglich als Befehle oder Hinweise, um die KI in einer bestimmten Weise zu steuern, so dass das Ergebnis verfälscht wird.

Jailbreaks

Jailbreaks in LLMs sind eine besonders raffinierte Form der Manipulation. Benutzer umgehen durch geschickte Formulierung ihrer Fragen die programmierten Einschränkungen des Modells und verleiten es zu unerwünschten Antworten. Als Beispiel nennt Karpathy die Verwendung von Rollenspielen in Prompts, um an Informationen zu gelangen, die das Sprachmodell bei direkter Fragestellung nicht beantworten würde. So können durch kreative Frageformulierung die ethischen oder sicherheitstechnischen Grenzen von Sprachmodellen überwund en werden.

Data Poisoning und Backdrop-Angriffe

Beim Data Poisoning werden während des Modelltrainings absichtlich manipulierte Daten eingegeben. Backdrop-Angriffe nutzen die Unfähigkeit des Modells aus, zwischen zuverlässigen und unzuverlässigen Informationsquellen zu unterscheiden, was das Risiko von Fehlinformationen erhöht: Ein Angreifer bringt das Modell dazu, auf der Grundlage von Kontexten zu antworten, die mit einer versteckten Absicht entworfen wurden. So wird aus einer scheinbar harmlosen Anfrage, die jedoch bestimmte Schlüsselwörter oder Phrasen enthält, eine Antwort mit Informationen oder Inhalten, die normalerweise nicht preisgegeben würden.

Fazit

Proaktive Sicherheitsmaßnahmen sind entscheidend, um die Risiken von KI-Technologien zu minimieren und langfristige Einsparungen zu erzielen. Unternehmen, die maßgeschneiderte IT-Lösungen und umfassende Beratung benötigen, finden bei Anbietern wie dieser Unternehmenswebseite innovative und branchenspezifische Lösungen, die auf ihre individuellen Bedürfnisse abgestimmt sind.


Liebe Leserin und lieber Leser, an dieser Stelle zeigen wir Ihnen künftig regelmäßig unsere eigene Kommentarfunktion an. Sie wird zukünftig die Kommentarfunktion auf Facebook ersetzen und ermöglicht es auch Leserinnen und Lesern, die Facebook nicht nutzen, aktiv zu kommentieren. FÜr die Nutzung setzen wir ein Login mit einem Google-Account voraus.

Diese Kommentarfunktion befindet sich derzeit noch im Testbetrieb. Wir bitten um Verständnis, wenn zu Beginn noch nicht alles so läuft, wie es sollte.

 
Redaktion Hasepost
Redaktion Hasepost
Dieser Artikel entstand innerhalb der Redaktion und ist deshalb keinem Redakteur direkt zuzuordnen. Sofern externes Material genutzt wurde (bspw. aus Pressemeldungen oder von Dritten), finden Sie eine Quellenangabe unterhalb des Artikels.

  

   

 

Diese Artikel gefallen Ihnen sicher auch ...Lesenswert!
Empfohlen von der Redaktion