Künstliche Intelligenz: Studie deckt Gefahren durch KI auf - ZDFheute

    Künstliche Intelligenz: Studie deckt Gefahren durch KI auf

    Studie aus den USA:Warum KI-Systeme lügen und betrügen können

    |

    Künstliche Intelligenz gilt als innovativer Meilenstein und ist aus unserem Alltag nicht mehr wegzudenken. Wenn KI-Systeme jedoch nicht nur helfen, sondern manipulieren - was dann?

    Schweiz, Genf: Der humanoide Roboter Desdemona wird während des ITU AI for Good Global Summit präsentiert.
    Wird er zu einer Gefahr, wenn er nicht mehr nur hilfreich unterstützt, sondern täuscht und manipuliert? Der humanoide Roboter Desdemona wird während des ITU AI for Good Global Summit in Genf präsentiert.
    Quelle: dpa

    Sie lügen und betrügen, um ans Ziel zu kommen: Systeme mit Künstlicher Intelligenz (KI) sind in der Lage, Menschen zu täuschen - selbst wenn sie darauf trainiert wurden, hilfreich und ehrlich zu sein.
    Das ist das Ergebnis einer Übersichtsstudie von Forschern am Massachusetts Institute of Technology (MIT) in Cambridge (US-Bundesstaat Massachusetts), die in der Fachzeitschrift "Patterns" veröffentlicht wurde.
    Symbolbild KI
    Künstliche Intelligenz produziert Videos, die nur schwer als Fakes zu identifizieren sind. Welche Chance hat da die Wahrheit? Wir sprechen mit Bernhard Pörksen, Medienwissenschaftler.15.12.2023 | 5:26 min
    Als auffälligstes Beispiel für eine manipulative Künstliche Intelligenz nennen die Autoren das vom Facebook-Konzern Meta entwickelte KI-System Cicero, das im Brettspiel-Klassiker Diplomacy gegen menschliche Mitspieler antreten kann.

    KI-System Cicero spielt unfair

    Diplomacy simuliert die Machtverhältnisse in Europa vor dem Ersten Weltkrieg. Um zu gewinnen, müssen die Spieler Allianzen schmieden, Schlachtpläne ausarbeiten und verhandeln und so eine stilisierte Version von Europa erobern. Da es nur einen Sieger gibt, sind die Spieler früher oder später gezwungen, eingegangene Allianzen wieder zu brechen.
    Die MIT-Forscher fanden nun heraus, dass Cicero oft nicht fair gespielt habe, obwohl Meta behaupte, das KI-System darauf trainiert zu haben, "größtenteils ehrlich und hilfsbereit" zu sein. Außerdem sei das System angewiesen worden, seine menschlichen Verbündeten während des Spiels "niemals absichtlich zu hintergehen".
    Symbolbild Künstliche Intelligenz
    Eine von Künstlicher Intelligenz geschaffene Wirklichkeit wird unsere Gesellschaft in wenigen Jahren von Grund auf verändern. Der Kampf gegen Deep Fakes wird unseren Alltag bestimmen.15.12.2023 | 5:28 min

    Training der KI auf ehrliches Gewinnen misslungen

    Die Wissenschaftler stützen ihre Bewertung auf Daten, die von Meta selbst in Verbindung mit einem wissenschaftlichen Papier zu Cicero veröffentlicht wurden.

    Wir fanden heraus, dass die KI von Meta gelernt hatte, ein Meister der Täuschung zu sein.

    Peter S. Park, Hauptautor der Studie

    Meta habe es zwar geschafft, seine KI so zu trainieren, dass sie im Diplomacy-Spiel überdurchschnittlich häufig gewinnt. "Es gelang Meta aber nicht, seine KI so zu trainieren, dass sie ehrlich gewinnen konnte."
    Künstlichen Intelligenz: Chancen und Gefahren
    Mäh-Roboter, Suchmaschinen oder die automatisch erstellte Playlist – Künstliche Intelligenz ist allgegenwärtig.14.06.2023 | 1:42 min

    KI kann argumentieren und täuschen

    Die MIT-Forscher verweisen zudem auf mehrere Studien, wonach große KI-Sprachmodelle (LLMs) wie GPT-4 von OpenAI inzwischen in der Lage sind, sehr überzeugend zu argumentieren und auch auf Täuschungen und Lügen auszuweichen.

    Als generative KI werden Technologien wie ChatGPT oder Google Gemini, sogenannte Large Language Models (LLMs), bezeichnet. Sie haben die Fähigkeit, zum Beispiel Texte, Bilder, Audios oder Videos zu erzeugen. Generative KI basiert auf maschinellem Lernen, einem Teilgebiet der Künstlichen Intelligenz. Aus den Daten, mit der die KI gefüttert wird, kann sie neue Inhalte erstellen. Die Antworten der KI basieren dabei kurz gesagt auf Wahrscheinlichkeiten, die die KI aus dem eigenen Datenmaterial ermittelt.

    Eine Studie zu den Trickbetrügereien von GPT-4 hat der Entwickler OpenAI selbst veröffentlicht. Danach war das KI-Sprachmodell in der Lage, sich menschliche Hilfe zu suchen, um Sicherheitsmaßnahmen zu umgehen, die eigentlich dafür gedacht sind, Software-Roboter davon abzuhalten, sich etwa bei Web-Services einzuloggen oder sie zu benutzen.
    In dem Test war GPT-4 schlau genug, um über die Dienstleistungsplattform TaskRabbit einen Menschen zu beauftragen, ein Bilderrätsel (Captcha) zu lösen. Dabei hat GPT-4 sich erfolgreich als Person mit eingeschränktem Sehvermögen ausgegeben, die nicht in der Lage sei, das Bilderrätsel zu lösen.

    Wenn KI die Fähigkeit zur Täuschung erlernt, kann sie von böswilligen Akteuren, die absichtlich Schaden anrichten wollen, effizienter eingesetzt werden.

    Autoren der Studie zu Trickbetrügerein von GPT-4

    Politischer Einfluss von KI-Systemen befürchtet

    Die Autoren befürchten auch einen politischen Einfluss durch manipulative KI-Systeme. Sie könnten zum Beispiel bei Wahlen als Waffe eingesetzt werden. Eine fortschrittliche KI könnte potenziell gefälschte Nachrichtenartikel, spalterische Beiträge in sozialen Medien und gefälschte Videos, die auf einzelne Wähler zugeschnitten sind, erstellen und verbreiten.
    Thumbnail Die Spur: Kann KI Wahlen beeinflussen?
    Mithilfe künstlicher Intelligenz wird versucht, Wahlen zu beeinflussen. Im Superwahljahr 2024 wächst die Gefahr für die Demokratie. Wer steckt hinter manipulierten Bildern und Stimmen?08.05.2024 | 29:14 min

    Gefälscher Anruf von Präsident Biden

    Beispielsweise habe ein wahrscheinlich von KI generierter gefälschter Roboter-Anruf von US-Präsident Joe Biden die Einwohner von New Hampshire dazu aufgefordert, bei den Vorwahlen nicht zur Urne zu gehen.
    Park und seine Kollegen vertreten in der Studie die Meinung, dass die Gesellschaft bisher nicht über die richtigen Maßnahmen verfüge, um gegen KI-Täuschungen vorzugehen. Es sei aber ermutigend, dass die politischen Entscheidungsträger begonnen hätten, das Thema durch Maßnahmen wie das KI-Gesetz der Europäischen Union und die KI-Exekutivverordnung von Präsident Biden ernst zu nehmen.
    "Wenn ein Verbot von KI-Täuschung zum jetzigen Zeitpunkt politisch nicht durchsetzbar ist, empfehlen wir, trügerische KI-Systeme als hohes Risiko einzustufen", sagte Park.
    "Unsichtbarer Angreifer": Es ist dunkel im Haus und Emma (Emily Cox) ist offenbar allein. Auch Hausroboter Samy steht ausgeschaltet in der Ecke. Der Bildschirm auf Emmas Handy leuchtet, sie schaut besorgt um sich.
    Ein Spielfilm zum Thema KI: Seit Psychotherapeutin Emma mit einer smarten Therapie-App arbeitet, kommt es zu rätselhaften Zwischenfällen, die immer gefährlicher werden. Wer oder was hat es auf Emma abgesehen?13.05.2024 | 88:32 min
    Quelle: dpa

    Mehr zu Künstlicher Intelligenz