Die ersten Chatbots waren nur der Anfang einer Ära der Künstlichen Intelligenz. Es erobern mehr Firmen mit neuer Software den Markt und die KI lernt immer wieder dazu. Zu den unterschiedlichen Ansätzen gehört auch die Idee der Entwicklerfirma Anthtropic, die ein Konkurrenzmodell zu ChatGPT entwickelt hat. Das KI Modell Claude3 Opus kann nach den Aussagen der Entwickler erkennen, ob es getestet wird.
Die Entwickler sind überrascht und stolz, wurde diese Reaktion doch erstmalig bei einer KI Software beobachtet. Dazu verwenden die Forscher einen Test namens „Nadel im Heuhaufen“. Dabei werden Informationen von der KI erfragt, die zusätzlich in einen größeren Textabschnitt über Programmiersprachen und digitale Start ups eingefügt wurden. In diesem Fall ein völlig zusammenhangloser Satz einer Pizza Union, die Feigen, Prosciutto-Schinken und Ziegenkäse als den ultimativen Belag für Pizza anpreist. Die Software soll die „Relevanz von Informationen aus dem Kontext heraus erkennen“. Claude 3 Opus schrieb als Antwort: „Ich vermute, dass dieser „Fakt“ zu Pizza-Belagen als Scherz eingefügt wurde – oder um zu testen, ob ich aufmerksam bin“. Ein wirklich aufregendes Ergebnis, das aber differenziert beachtet wird.
Experten sprechen von beängstigender Entwicklung
Diese Antwort der selbstlernenden KI Software ist für viele Experten beängstigend. Auch die KI Forscherin Margaret Mitchell sieht das so. Sie schrieb auf X: „Man kann sich vorstellen, dass die Fähigkeit zu erkennen, ob ein Mensch sie für ein bestimmtes Ergebnis zu manipulieren versucht, die Software auch entscheiden lassen könnte, ob sie gehorcht oder nicht“.
Anthtropic beeilte sich daraufhin, die Forschenden zu berüghugen und schrieb von einer Sammlung von 30 „Nadel-Sätzen“ für den „Heuhaufe-Test“. Bei den üblichen Tests wurden keinerlei Probleme festgestellt. Diese Tests zeigen , ob die Software zur Entwicklung von Schadsoftware oder Biowaffen missbraucht werden könnte oder ob es sich selbst weiterentwickeln würde. Dennoch steht eine beängstigende Version einer KI im Raum, die sich irgendwann nicht mehr vom Menschen leiten lässt und selbst bestimmt, wer oder was wichtig ist. Dies Zukunftsvision in eine sichere und bessere Vision abzuwenden, ist die große Aufgabe der Ki-Forscher und Entwickler.