Im Gespräch mit Christoph Endres, sequire technology GmbH
Sprachmodelle wie ChatGPT sind faszinierende Technologien, die unser tägliches Leben beeinflussen, aber auch erhebliche Sicherheitsrisiken bergen. Diese Modelle, die ihr Wissen ausschließlich aus Dokumenten beziehen, sind leicht manipulierbar. Angriffe können durch versteckte Informationen und Anweisungen in Webseiten und Dokumenten erfolgen, wodurch das Verhalten der Modelle unbemerkt geändert wird. Dr. Christoph Endres hat mit seinen Kollegen Schwachstellen verschiedener Sprachmodelle entdeckt und konnte diese erfolgreich ausnutzen. Endres betont die Wichtigkeit, ein Bewusstsein für die Risiken zu schaffen und fordert mehr Sorgfalt im Umgang mit KI. Seine Botschaft ist klar: Sprachmodelle sind eine mächtige Technologie, die sowohl große Vorteile als auch erhebliche Risiken mit sich bringt.