„Her“: Sam Altman hat seinen Lieblingsfilm zum Leben erweckt

OpenAI, das neue Flaggschiffmodell der künstlichen Intelligenz, das in Echtzeit zwischen Sprache, Bild und Text schlussfolgern kann GPT-4o Er hat es erst vor kurzem angekündigt. Auch wenn erst Stunden vergangen sind, ist die Leistung des neuen Modells ziemlich schockierend. Nach Angaben des Unternehmens kann GPT-4o, das Ihre Gesichtsausdrücke lesen und die gesprochene Sprache in Echtzeit übersetzen kann, auch verschiedene Arten von Emotionen imitieren. Kino-Gurus interpretierten diese Aussagen schnell als „Der Film“ von Spike Jonze. Jede„ kann mit dem Film in Verbindung gebracht werden. Denn genau das ist der Fall.

Für diejenigen, die es nicht wissen, Spike Jonze’s Produktion 2013 Jedeim Kino Joaquin Phoenix, Scarlett Johanssongeäußert von Samantha Er spielt einen Mann mit gebrochenem Herzen, der sich scheiden lässt und sich in einen virtuellen Assistenten mit künstlicher Intelligenz namens „Herman“ verliebt. OpenAI-CEO gegen Ende 2023 Sam Altmanbei einer Veranstaltung, an der er teilnahm einer deiner Lieblingsfilmedass jemand sie ist, dass die Leute es lieben, wie sie künstliche Intelligenz nutzen, und dass das Kino das Letzte ist sehr vorausschauendEr sagte, es sei so.

Jedes Kino ist jetzt real

Während OpenAI gestern Abend GPT-4o in einer Live-Übertragung vorstellte, Eine Geschichte über Roboter und Liebe Geschichte Sie wollen, dass er es erzählt. GPT-4o bittet die OpenAI-Ingenieure und CTO Mira Murati, ihr Talent einzusetzen, um sie von der Tribüne aus zu unterbrechen und die Geschichte in verschiedenen Tönen zu erzählen. Die künstliche Intelligenz machte weiter, was sie gerade tat, als wäre sie jemand im Raum.

Interessanterweise verfasste Sam Altman nach der Veranstaltung einen Beitrag auf X und schrieb nur: „Sie“. Natürlich ist GPT-4o in seiner aktuellen Form nicht so leistungsfähig und fortschrittlich wie die Samantha in den Filmen, aber es kommt ihm ziemlich nahe. Wenn wir uns andererseits die eigene Entwicklung von OpenAI ansehen, verstehen wir das Ausmaß des mit GPT-4o unternommenen Schritts besser.

Wie wir in unserem Inhalt gesagt haben, wo wir oben die Details von GPT-4o erwähnt haben, ist GPT-4o Es ähnelt nicht den anderen Modellen des Unternehmens . Alle bisherigen GPT-Modelle arbeiteten mit mehreren unterschiedlichen Modellen. Beispielsweise wurden drei Modelle für eine Stimmanalyse verwendet. Aber mit GPT-4o alles in einem Modell Es kommt zusammen. Audio-, Text- und visuelle Informationen werden von einem einzigen Modell analysiert und in eine Ausgabe umgewandelt. Dies führt zu einem schnelleren und professionelleren Modell.

Beispielsweise gab es in der Vorgängerversion einen Sprachmodus, aber wenn man etwas von ihm wollte, musste man warten, bis er zu Ende gesprochen hatte. Aber in GPT-4o können Sie ihn jetzt unterbrechen, während er spricht, und eine neue Weiterleitung vornehmen. Darüber hinaus kann es jetzt die Welt durch Ihre Kamera sehen und Ihnen das, was es sieht, mit gestochen scharfer Genauigkeit vermitteln.

Die neuen Funktionen werden in den kommenden Wochen in einer begrenzten „Alpha“-Version verfügbar sein und zunächst für ChatGPT Plus-Abonnenten verfügbar sein, sobald die breitere Einführung beginnt. Ab heute wurden auch einige erweiterte Funktionen zur kostenlosen Version und anderen Preisstufen hinzugefügt.

Beenden wir den letzten Teil unseres Inhalts mit den Sätzen aus Sam Altmans gestern veröffentlichtem Blogbeitrag: „ Der neue Audio- (und Video-)Modus ist die reibungsloseste Computerschnittstelle, die ich je verwendet habe. Wie künstliche Intelligenz im Film es fühlt; und real sein Für mich ist es immer noch ein wenig überraschend . „Reaktionszeiten und verbale Kraft auf menschlichem Niveau zu erreichen, scheint eine große Veränderung zu sein.“

Ähnliche Beiträge

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert