ChatGPT bekommt in Deutschland einen neuen starken Konkurrenten. Die Firma Anthropic bringt ihren KI-Chatbot Claude nach Europa. Tests hätten gezeigt, dass Claude sehr gut unter anderem auf Deutsch, Französisch und Italienisch funktioniere, sagte Anthropic-Mitgründer Jack Clark der Deutschen Presse-Agentur (dpa) zum Start am 14. Mai 2024. Ähnlich wie ChatGPT kann Claude mithilfe künstlicher Intelligenz unter anderem Sätze auf dem Niveau eines Menschen formulieren und den Inhalt von Texten zusammenfassen. In Europa werden die Web-Version, die iPhone-App und eine Variante für Unternehmen verfügbar sein.

Claude angeblich besser als ChatGPT

Anthropic brachte im März 2024 die aktuelle Generation Claude 3 heraus, die in einigen technischen Tests die Leistung des GPT-4-Modells des ChatGPT-Entwicklers OpenAI übertraf. Wenige Stunden vor Bekanntgabe des Europa-Starts von Claude stellte OpenAI allerdings eine sprechende Version von ChatGPT vor, die sich mit Nutzerinnen und Nutzern wie ein Mensch unterhalten kann. Dabei geht die Software auch auf visuelle Informationen ein, die sie über die Smartphone-Kamera bekommt. Von Google werden bei der Entwicklerkonferenz am 14. Mai 2024 ebenfalls Neuerungen bei KI-Assistenten erwartet.

Daten lagern nicht in Europa

Anthropic verwies darauf, dass Claude auch lange Texte zusammenfassen und Fragen dazu beantworten kann. Damit könne die Software besonders nützlich unter anderem für Rechtsexperten sowie in der Medizin und Finanzbranche sein, betonte Mitgründer Jared Kaplan. Die Firma sieht bislang keine Datenspeicherung in Europa vor, sei aber offen dafür, wenn Kundinnen und Kunden sich das wünschen sollten. Zugleich seien Kundendaten stets verschlüsselt und damit nur für sie zugänglich.

Entwickler reduziert "Halluzinationen"

Anthropic sei auch erfolgreich damit gewesen, sogenannte "Halluzinationen" zu reduzieren, bei denen die Software falsche Angaben macht, sagte Kaplan. Die "Halluzinationen" sind ein grundsätzliches Problem von KI-Programmen, die mit ihrer Funktionsweise zusammenhängen. Die Software wird mit riesigen Mengen an Informationen angelernt. Beim Formulieren von Texten entscheidet sie Wort für Wort, wie ein Satz wahrscheinlich weitergehen soll. Dabei können völlig falsche Angaben herauskommen, selbst wenn die KI-Modelle nur mit korrekten Informationen gefüttert wurden. Anthropic versucht bei Claude, solche Fehler durch den Abgleich mit Fakten zu minimieren. Auf ähnliche Weise wird auch mit Grundsatz-Regeln abgeglichen, um Beleidigungen oder Diskriminierung zu verhindern. (Mit Material der dpa.)