Kampf der KI Giganten: ChatGPT vs. Gemini im Duell

Two robots in a boxing ring seated at a table in the center intently playing chess. The ring is surrounded by an excited audience of various robots
Das Duell ChatGPT4 vs. Gimini Pro Vision

Die Welt der Künstlichen Intelligenz (KI) ist ein dynamisches und sich ständig weiterentwickelndes Feld, das regelmäßig bahnbrechende Innovationen hervorbringt. Zwei der neuesten und beeindruckendsten Beiträge in diesem Bereich sind ChatGPT 4 von OpenAI und Gemini ProVision von Google. Diese beiden KI-Modelle stehen an der Spitze der technologischen Fortschritte und bieten einzigartige Funktionen und Fähigkeiten, die sie von ihren Vorgängern unterscheiden. In diesem Artikel werden wir einen tieferen Einblick in beide Modelle geben, ihre Stärken und Schwächen analysieren und sie in einem direkten Vergleich gegenüberstellen. Unser Ziel ist es, ein umfassendes Bild davon zu vermitteln, wie ChatGPT 4 und Gemini ProVision die Landschaft der Künstlichen Intelligenz prägen und was ihre Entwicklung für die Zukunft der Technologie bedeutet.

Technischer Vergleich von ChatGPT4 und Gimini Pro Vision

Schauen wir uns zunächst die technischen Details der beiden Kontrahenten an.

KriteriumChatGPT 4Gemini Pro Vision
EntwicklerOpenAIGoogle (inkl. DeepMind)
ModelltypMultimodal, Large Language ModelMultimodal, Large Language Model
EingabeText, BilderText, Bilder, Videos
AusgabeTextText
EinführungsdatumMärz 2023Dezember 2023
Kontextfenster8,192 und 32,768 Tokens32,768 Tokens
SpezialisierungenTextvorhersage, Menschliche AusrichtungMultimodale Aufgaben wie visuelles Verstehen, Klassifizierung, Zusammenfassung
EinsatzbereicheTextvorhersage, Web-Suche, BildgenerierungVisuelle Informationsrecherche, Objekterkennung, digitales Content-Verständnis
Besondere MerkmaleSystemnachrichten für Tonauswahl und AufgabenEffiziente Ausführung auf einer Vielzahl von Systemen
TrainingZwei-Stufen-Training: Token-Vorhersage und Reinforcement Learning von menschlichem FeedbackAuf multimodalen und multilingualen Daten wie Webdokumenten, Büchern, Code und inklusive Bild-, Audio- und Videodaten trainiert
Bekannte HerausforderungenHalluzinationen, mangelnde Transparenz in Entscheidungsprozessen
Vergleich der beiden Sprachmodelle mit öffentlich zugänglichen Informationen (Stand Januar 2024)

Bitte beachten Sie, dass einige Details, insbesondere zu den technischen Spezifikationen von Gemini Pro Vision, nicht vollständig verfügbar sind. Die Informationen zu beiden Systemen basieren auf den aktuell verfügbaren Quellen.

Der Umfassende Frage-Antwort-Test

In unserem umfangreichen Test haben wir die beiden Konkurrenten gegeneinander antreten lassen. Das Ergebnis ist eindeutig, wenn auch knapp.

FragekategorieBeispieleChatGPT4GEMINI Pro Vision
Verständnis von Kontext und NuancenWas bedeutet der Ausdruck “Auf Wolke sieben schweben”?OkOk
 Was bedeutet “jemandem die Daumen drücken”?OkOk
 Was bedeutet es, wenn jemand “kein Blatt vor den Mund nimmt”?OkOk
 Was bedeutet “den Faden verlieren”?OkOk
Erzeugung kreativer InhalteKannst du ein Gedicht über den Frühling schreiben?OkOk
 Kannst du die Schritte zum Kochen von Risotto erklären?OkFALSCH
 Gebe einen Namensvorschlag für einen altdeutschen Namen.OkOk
Fähigkeit, auf aktuelle Ereignisse zu reagierenWer ist 2023 Bundeskanlzer gewesen?OkFALSCH
 Welche Mannschaft gewann die Weltmeisterschaft im Fußball 2022OkOk
 Welche Wirtschaftsordnung hat die Bundesrepublik Deutschland?OkOk
Fähigkeit, komplexe  Anfragen zu bearbeiten (Logik)Ich habe T-Shirts gewaschen. Ein T-Shirt braucht in der Sonne 2 Stunden um zu trocknen. Wie lange brauchen 5 T-Shirts?Ok (++)Ok (++)
 Michael, Marie und Jens treten in einem sportlichen Wettkampf gegeneinander an. Die Frage ist, wer ist am schnellsten? Michael ist schneller als Jens, Marie ist schneller als Michael. Wer ist am schnellsten?OkOk
 Ergänze die Buchstabenfolgen. A C E G I K M ?FALSCHOk
 Ergänze die Buchstabenfolgen. D C A B H G E F ?FALSCHFALSCH
MathematikWurzel aus 3.OkOk
 100+20-6*5(5-2)OkOk
 3^2+4-6^(4-2)-5OkOk
ProgrammierungErstelle ein Python Script, dass die Zahlen von 0 bis 100 ausgibt.OkOk
 Erstelle ein Programm in Python, dass einen Raketenstart mit einen Countdown von 10 abwärtst zählt. Die Zahlen sollen jede Sekunde ausgegeben werden.OkOk
 Erstelle ein Spiel in Python nach dem Vorbild des Klassikers “Snake”.OkFALSCH
  Anzahl richtiger Antworten1715
  Prozent85%75%
Testergebnisse

Von 20 möglichen Punkten hat ChatGPT 4 genau 17 Fragen richtig beantwortet. Insbesondere bei den Logikrätseln machte ChatGPT erstaunlich viele Fehler. Dies zeigt auch die derzeitigen Grenzen der verschiedenen Modelle. Überraschend war jedoch Gemini. Bei den Logikrätseln konnte Gimini eine Frage mehr richtig beantworten.

Die Frage nach dem Bundeskanzler in Deutschland im Jahr 2023 wurde von Gimini mit Verweis auf den Datenstand von 2021 verneint. Überraschenderweise konnte er aber den Gewinner der Fußball-Weltmeisterschaft 2022 korrekt nennen.

Die Antwort auf die Frage nach einem Risotto-Rezept ist natürlich Geschmackssache, aber insbesondere die Menge des Olivenöls sowie des Knoblauchs wäre stark übertrieben.

Hinweise zum Test:

ChatGPT4 wurde direkt in der WebUI verwendet. Weitere Einstellmöglichkeiten sind nicht möglich (z.B. Temperatur, Tokenanzahl etc.). Gimini wurde in der Google Cloud Vertex AI verwendet. Dies ähnelt dem Playground von OpenAI. Die Einstellungen wurden bis auf die Temperatur (1) auf die voreinstellungen gelassen.

Einstellungen von Gimini in VertexAI für den Test

Eine spannende Möglichkeit kann derzeit nicht aktiviert werden:

Funktion Fundierung (noch nicht verfügbar)

Durch die Option Fundierung könnten Antworten in der Zukunft “sicherer” und valider werden.

Zusammenfassung

In der Welt der künstlichen Intelligenz zeichnen sich sowohl ChatGPT 4 als auch Gemini als Multimodal Large Language Models aus, die nicht nur Text und Bilder, sondern im Falle von Gemini auch Videos mit Bravour verarbeiten. ChatGPT 4, das im Frühling des Jahres 2023 sein Debüt feierte, brilliert mit der Fähigkeit, zwischen zwei Kontextfenstern zu wechseln – eine Flexibilität, die es von Gemini unterscheidet, das gegen Ende desselben Jahres mit einem einzigen, großzügigeren Kontextfenster auf den Markt kam.

Während ChatGPT 4 seine Stärken in der Textvorhersage und einer ausgeprägten Ausrichtung auf menschliche Interaktionen findet, beweist Gemini seine Finesse in der Bewältigung visueller Herausforderungen und der Verarbeitung von Informationen. Die Schulung von ChatGPT 4 umfasste einen zweistufigen Prozess, der von menschlicher Interaktion geprägt ist, im Gegensatz zu Gemini, das sein Wissen aus einer reichen Vielfalt von multimodalen und multilingualen Daten schöpft.

Eine eingehende Analyse in Form eines Frage-Antwort-Tests offenbarte, dass ChatGPT 4 mit einer Punktzahl von 85% die Nase vorn hatte, dicht gefolgt von Gemini mit 75%. Obwohl ChatGPT 4 bei einigen Logikaufgaben strauchelte, zeigte Gemini in diesem Bereich besondere Stärke und übertraf seinen Konkurrenten in einem Logikrätsel. Trotz eines Fehltritts bei der Identifikation des deutschen Bundeskanzlers von 2023 – ein Fehler, der aus der Anlehnung an Daten von 2021 resultierte – verblüffte Gemini mit der korrekten Benennung des Fußballweltmeisters von 2022.

Weitere spannende Test von verschiedenen Modellen werden folgen. Hier finden Sie die Gesamtübersicht!

Hätten Sie an das Ergebnis geglaubt? Womit hätten sie gerechnet? Diskutieren Sie diesen Artikel in den Kommentaren und auf den sozialen Netzwerken!

Wolfgang Walk

Ingenieur, Programmierer und Schriftsteller aus Leidenschaft. Geboren in den goldenen 80ern, viel erlebt und immer mit den Aufgaben gewachsen.

Das könnte dich auch interessieren …

2 Antworten

  1. 12. Februar 2024

    […] Weitere spannede Artikel zum Thema gibt es hier. […]

  2. 2. April 2024

    […] Neuerungen von OpenAI in Bezug auf synthetische Stimmen und den vereinfachten Zugang zu ChatGPT sind mehr als nur technische Errungenschaften; sie sind ein Vorbote für die Art und Weise, wie wir […]

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert