Erfahren Sie mehr über die Claude 3 Modelle, detaillierte Leistungsbenchmarks und wie Sie darauf zugreifen können. Entdecken Sie außerdem die neue Claude 3 Python-API zum Generieren von Text, Zugreifen auf Vision-Funktionen und Streaming.
Der KI-Krieg ist noch in vollem Gange. Googles Gemini und Gemma haben in letzter Zeit für Aufsehen gesorgt, doch nun hat sich Anthropics Claude 3 als starker Konkurrent herauskristallisiert und übertrifft GPT-4 und Gemini Ultra in allen Benchmarks.
In diesem Tutorial werden wir Claude 3-Modelle, Leistungsbenchmarks und den Zugriff darauf untersuchen. Wir werden Claude 3 auch mit seinem Vorgänger Claude 2.1 und ChatGPT vergleichen. Schließlich werden wir die Python-API von Claude 3 kennenlernen, mit der Sie Text generieren, auf Vision-Funktionen zugreifen, Antworten streamen und sie asynchron verwenden können.
Was ist Claude 3?
Anthropic hat kürzlich eine neue Familie von KI-Modellen namens Claude 3 eingeführt. Diese Modelle setzen in verschiedenen kognitiven Aufgaben Branchenmaßstäbe. Die Claude 3-Modelle umfassen drei hochmoderne Modelle: Haiku, Sonnet und Opus. Diese Modelle können Echtzeit-Kundenchats, automatische Vervollständigungen und Datenextraktionsaufgaben unterstützen.
Derzeit sind Opus und Sonnet für claude.ai und die Claude-API verfügbar, während das kleinere Modell Haiku bald veröffentlicht wird. Die Claude-3-Modelle sind besser darin, komplexe, mehrstufige Anweisungen zu befolgen, Markenstimme und -antwortrichtlinien einzuhalten und strukturierte Ausgaben in Formaten wie JSON zu generieren.
Im Vergleich zu früheren Claude-Modellen zeigen diese neuen Modelle ein verbessertes Kontextverständnis, was zu weniger unnötigen Ablehnungen führt.
Sie bieten ein Kontextfenster von 200 K, können aber Eingaben von über 1 Million Token verarbeiten. Insbesondere Claude 3 Opus erreichte eine nahezu perfekte Trefferquote und übertraf damit die 99%-Grenze.
Um die Vertrauenswürdigkeit der Modelle sicherzustellen, verfügt Anthropic über spezielle Teams, die ein breites Spektrum an Risiken verfolgen und mindern.
Modelldetails
Claude 3 bietet drei Modelle mit einem ausgewogenen Verhältnis von Intelligenz, Geschwindigkeit und Kosten für verschiedene Anwendungen.
Claude 3 Opus
Opus ist für komplexe, hochintelligente Aufgaben konzipiert und zeichnet sich durch die Lösung offener Probleme und strategische Analysen aus. Seine erweiterten Fähigkeiten spiegeln sich in einem großen Kontextfenster und höheren Kosten wider.
Preis: Eingabe-Token zu 15 USD pro Million und Ausgabe-Token zu 75 USD pro Million.
Claude 3 Sonett
Sonnet bietet ein optimales Gleichgewicht zwischen Leistung und Kosten und ist ideal für Unternehmensarbeitslasten mit Datenverarbeitung, Verkaufsoptimierung und skalierbaren KI-Bereitstellungen. Es ist erschwinglich und verfügt über ein großes Kontextfenster.
Preis: Eingabe-Token zu 3 USD pro Million und Ausgabe-Token zu 15 USD pro Million.
Claude 3 Haiku
Haiku zeichnet sich durch seine Geschwindigkeit und Effizienz aus und erfüllt die Anforderungen an Echtzeit-Reaktionen im Kundenservice, bei der Inhaltsmoderation und bei kostensparenden Aufgaben. Damit ist es das kostengünstigste und reaktionsschnellste Modell der Suite.
Preis: Eingabe-Token zu 0,25 USD pro Million und Ausgabe-Token zu 1,25 USD pro Million.
So greifen Sie auf Claude 3 zu
Es gibt drei Möglichkeiten, auf die Claude 3-Modelle zuzugreifen.
Claude Chat
Wenn Sie nach einer einfachen und kostenlosen Möglichkeit suchen, die Claude AI-Modelle auszuprobieren, können Sie sich für claude.ai/chats anmelden , das ChatGPT ähnelt. Die Chat-Oberfläche ist interaktiv und einfach zu verwenden.
Derzeit bieten sie „Claude 3 Sonnet“ kostenlos an, aber um auf „Claude 3 Opus“ zuzugreifen, müssen Sie ein monatliches Abonnement von „Claude Pro“ erwerben.
Werkbank
Um kostenlos auf Claude 3 Opus zuzugreifen, müssen Sie sich für die Anthropic API anmelden: console.anthropic.com .
Befolgen Sie die einfachen Schritte zur kostenlosen Anmeldung und beginnen Sie mit der Nutzung des Opus-Modells, indem Sie auf die Registerkarte „Workbench“ klicken und das Modell „claude-3-opus-20240229“ auswählen.
API und SDK
Die dritte Möglichkeit, auf die Claude 3-Modelle zuzugreifen, ist über die API. Antropic bietet Client-Software Development Kits (SDKs) für Python und Typescript an. Sie können auch über die REST-API auf das Modell zugreifen, indem Sie den curlBefehl im Terminal verwenden.
Ein Blick auf Benchmarks
Die Claude 3-Modelle wurden mit den leistungsstärksten großen Sprachmodellen (LLMs) verglichen und zeigten in verschiedenen Tests deutliche Verbesserungen.
Insbesondere Claude 3 Opus hat GPT-4 und Gemini Ultra bei einigen der gängigsten Bewertungsbenchmarks, darunter MMLU, GPQA und GSM8K, übertroffen. Es weist bei komplexen Aufgaben ein nahezu menschliches Verständnis und eine flüssige Beherrschung auf und ist damit der erste Schritt zur Erlangung allgemeiner Intelligenz.
Entdecken Sie das hochmoderne LLM von OpenAI, indem Sie DataCamps Artikel „ Was ist GPT-4 und warum ist es wichtig?“ lesen. Informieren Sie sich außerdem über Googles ChatGPT-Konkurrenten Google Gemini, indem Sie „Was ist Google Gemini? Alles, was Sie darüber wissen müssen“ lesen .
Wie aus den folgenden Benchmark-Daten hervorgeht, sind die Modelle von Claude 3 bei der Analyse und Prognose, der Codegenerierung und der Generierung von Antworten in anderen Sprachen als Englisch besser geworden:
Die visuellen Fähigkeiten des Modells Claude 3 wurden deutlich verbessert, sodass es nun auch komplexe Fotos, Diagramme und Tabellen erfassen kann. Von dieser Weiterentwicklung profitieren Unternehmen mit Wissensdatenbanken in verschiedenen Formaten wie PDFs, Flussdiagrammen und Präsentationsfolien.
Auch hinsichtlich der Reduzierung unnötiger Fehler und der Genauigkeit wurden bei den Claude 3-Modellen im Vergleich zu früheren Modellgenerationen deutliche Verbesserungen erzielt.
Schließlich können wir feststellen, dass die Claude 3-Modelle im Vergleich zu Claude 2.1 eine doppelt so hohe Genauigkeit bei offenen Fragen aufweisen. Darüber hinaus weisen die neuen Modelle weniger falsche Antworten auf.
Claude 3 Opus gegen Claude 2.1
In diesem Abschnitt vergleichen wir die Antworten von Claude 3 Opus und Claude 2.1 auf drei gängige Aufgaben, um ihre jeweiligen Leistungen zu verstehen.
Fragen und Antworten
Aufforderung: Ich spreche ohne Mund und höre ohne Ohren. Ich habe keinen Körper, aber ich werde durch den Wind lebendig. Was bin ich?
Claude 2.1 weigerte sich, die Frage zu beantworten, da der Inhalt nicht ausreichte. Der Benutzer stellte jedoch ein Rätsel und Claude Opus lieferte die richtige Antwort.
Code generieren
Eingabeaufforderung: Erstellen Sie eine FastAPI-Webanwendung für ein einfaches Scikit-Learn-Klassifizierungsmodell.
Der Code von Claude 2.1 schien zunächst zu funktionieren, aber nach der Eingabe der Beispielwerte trat ein Fehler auf. Bei der Untersuchung stellten wir fest, dass der Code nicht optimiert ist und die Inferenzfunktion einige Fehler aufweist.
Andererseits stellten wir beim Vergleich mit dem Claude 3 Opus fest, dass der Code reibungslos lief und genaue Vorhersagen lieferte, wie unten gezeigt.
Komplexes Problem
Eingabeaufforderung: Wie schneidet ein neuronales Netzwerk mit einer Schicht und einem Input und Output im Vergleich zu einer logistischen Regression ab?
Beide Modelle lieferten ähnliche Antworten, aber die Antwort von Claude 3 Opus war detaillierter und leichter lesbar.
Claude 3 Opus gegen ChatGPT 4
Vergleichen wir Claude 3 Opus und ChatGPT 4 anhand ähnlicher Aufgaben wie oben, um zu zeigen, dass Claude 3 dem GPT-4-Modell einen kleinen Vorsprung hat.
Fragen und Antworten
Aufforderung: Wie viele Monde hat Jupiter?
Beide Aussagen sind falsch. Am 5. Februar 2024 hat Jupiter 95 Monde. Diese Eingabeaufforderung ist hilfreich, um die Sperrfrist für Datensätze zu verstehen. Es scheint, dass Claude 3 Opus mit einem älteren Datensatz aus dem Jahr 2021 trainiert wurde, während ChatGPT zuletzt im April 2023 aktualisiert wurde.
Code generieren
Eingabeaufforderung: Erstellen einer Gradio-Webanwendung für ein einfaches Scikit-Learn-Klassifizierungsmodell.
Der vom Modell Claude 3 generierte Code lief reibungslos, aber der von GPT-4 generierte Code konnte aufgrund zahlreicher Fehler und Wahnvorstellungen nicht ausgeführt werden.
Komplexes Problem
Aufforderung: In einem Aufzug befinden sich vier Personen und in einem Gebäude gibt es vier Stockwerke. Wie hoch ist die Wahrscheinlichkeit, dass jede Person auf einem anderen Stockwerk aussteigt?
Beide Modelle lieferten die richtige Antwort auf die berühmte Wahrscheinlichkeitsfrage. Eines lieferte die mathematische Arbeit, und das andere generierte und führte Python-Code aus, um dieselbe Antwort anzuzeigen. In diesem Fall gewinnen beide.
Claude 3 Python SDK
In diesem Teil erfahren wir mehr über das Claude 3 Python SDK und wie wir es verwenden können, um benutzerdefinierte Antworten zu generieren.
Erste Schritte
1. Installieren Sie das anthropicPython-Paket mit PIP.
2. Bevor wir das Python-Paket installieren, müssen wir zu https://console.anthropic.com/dashboard gehen und den API-Schlüssel abrufen.
3. Legen Sie die ANTHROPIC_API_KEYUmgebungsvariable fest und geben Sie den Wert mit dem API-Schlüssel an. Das Einrichten und Zugreifen auf die Umgebungsvariable ist in DataLab , dem KI-fähigen Datennotizbuch von DataCamp, ganz einfach.
4. Erstellen Sie das Client-Objekt mit dem API-Schlüssel. Wir werden diesen Client für die Textgenerierung, den Zugriff auf Vision-Funktionen und das Streaming verwenden.
Claude 2 Vervollständigungen API
Es ist wichtig zu beachten, dass das neuere Claude 3-Modell die Completion API nicht verwendet. Wenn Sie versuchen, diese API für die Claude 3-Modelle zu verwenden, tritt ein Fehler auf und Sie werden aufgefordert, stattdessen die Messages API zu verwenden.
Wenn Sie mehr über die günstigere Claude Python API erfahren möchten, lesen Sie Erste Schritte mit der Claude 2- und Anthropic-API .
Claude 3 Nachrichten API
Zur Verdeutlichung werden wir die Anthropic Messages API für das Claude 3 Opus-Modell testen. Diese API ähnelt der Completion API, erfordert jedoch als messagesArgument eine Liste von Wörterbüchern, die die Rolle und den Inhalt enthalten.
Wenn Sie IPython Markdown verwenden, wird die Antwort im Markdown-Format angezeigt. Das bedeutet, dass Aufzählungspunkte, Codeblöcke, Überschriften und Links übersichtlich dargestellt werden.
Der Code funktioniert einwandfrei und die Erklärung ist klar genug, damit jeder versteht, was vor sich geht logistic regression.
Hinzufügen einer Systemaufforderung
Wir können die Antwort anpassen, indem wir die Systemaufforderung bereitstellen. Wir haben darum gebeten, alle Antworten ins Schwedische zu konvertieren.
Es wurde ein perfekter Bericht zum Klimawandel auf Schwedisch erstellt.
Claude 3 Sichtblock
Die Messages API umfasst Bildverarbeitungsfunktionen. In diesem Abschnitt verwenden wir zwei Fotos von Pexels.com, um eine Antwort zu generieren.
- Bild 1: Foto von Debayan Chakraborty: https://www.pexels.com/photo/indian-blue-jay-20433278/
- Bild 2: Foto von Rachel Xiao: https://www.pexels.com/photo/brown-pendant-lamp-hanging-on-tree-near-river-772429/
Wir werden die Bilder mithilfe des httpxPakets laden und in die Base64-Kodierung konvertieren.
Sehen mit einem einzigen Bild
Um die Bilder abzufragen, müssen wir der Claude 3 API Bilddaten, Kodierungstyp und Medientyp bereitstellen. Sowohl das Bild als auch die Eingabeaufforderung sind Teil des Inhaltswörterbuchs für das Nachrichtenargument.
Sehen mit mehreren Bildern
Das Hinzufügen mehrerer Bilder kann komplex sein, aber wenn Sie dem Codemuster im Codebeispiel folgen, werden Sie verstehen, wie es funktioniert.
Wir müssen lediglich einen Text erstellen, der auf Bild 1 und Bild 2 hinweist, und dann Fragen zu diesen beiden Bildern stellen.
Perfekt. Beide Bilder zeigen Vögel.
Claudes 3 Streaming API
Unter Streaming versteht man den Prozess der kontinuierlichen Generierung von Textausgaben, anstatt zu warten, bis die gesamte Sequenz generiert wurde, bevor eine Ausgabe zurückgegeben wird. Bei dieser Technik wird die Ausgabe Token für Token generiert, wodurch die wahrgenommene Latenz minimiert wird.
Stattdessen createverwenden wir die Stream-Funktion, um die Streaming-Antwort zu generieren.
Um die Ergebnisse anzuzeigen, verwenden wir withdie Syntax und for loopdrucken das Token aus, sobald es verfügbar ist.
Claudes 3 Async API
Synchrone APIs führen Anfragen sequenziell aus und blockieren sie, bis eine Antwort eingeht, bevor der nächste Aufruf initiiert wird. Asynchrone APIs hingegen erlauben mehrere gleichzeitige Anfragen ohne Blockierung, was sie effizienter und skalierbarer macht.
Wir initialisieren den asynchronen Client mithilfe von AsyncAnthropic. Anschließend erstellen wir die mainFunktion mithilfe des asyncSchlüsselworts und führen die Funktion mithilfe der asyncio.runFunktion aus.
Hinweis: Wenn Sie async im Jupyter-Notebook verwenden, versuchen Sie es mit await main(), statt asyncio.run(main()).
Kombinieren von Streaming mit Async-API
Wir können Streaming problemlos mit asynchronen Methoden kombinieren, indem wir die Stream-Funktion des asynchronen Clients verwenden. Auf diese Weise können wir mehrere Anfragen empfangen und die Antworten streamen, wodurch die KI-Anwendung skalierbar und robust wird.
Wenn Sie Probleme beim Ausführen des Codes haben, können Sie auf diese DataLab-Arbeitsmappe zugreifen , in der Sie den Code selbst anzeigen und ausführen können (nachdem Sie eine Kopie erstellt haben).
Erfahren Sie, wie Sie auf die großen Sprachmodelle von OpenAI zugreifen, indem Sie dem Tutorial zur Verwendung von GPT-3.5 und GPT-4 über die OpenAI-API in Python folgen .
Abschließende Gedanken
Anthropic ist jetzt ein öffentliches und unternehmensorientiertes Unternehmen, ähnlich wie OpenAI. Es bietet jedem Zugriff auf seine Modelle, in einigen Fällen sogar kostenlos. Sie können auf das leistungsstärkste LLM Claudes 3 Opus entweder über ein Pro-Abonnement oder API-Zugriff zugreifen. Anthropic verfügt jedoch nicht über das Ökosystem von OpenAI, da ihm Einbettungsmodelle, Bild- und Videogenerierung, Text-to-Speech und Spracherkennung fehlen. Es fehlen auch die Kernfunktionen, die die OpenAI API bietet.
Sie können das neue Text-zu-Video-Modell von OpenAI, das die sozialen Medien im Sturm erobert hat, entdecken, indem Sie „ Was ist Sora von Open AI? Funktionsweise, Anwendungsfälle, Alternativen und mehr“ lesen .
In diesem Tutorial haben wir das Claudes 3-Modell kennengelernt, das in der Welt der KI viel Aufsehen erregt. Wir haben es in verschiedenen Aufgaben mit Claude 2.1 und GPT-4 verglichen. Schließlich haben wir das Anthropic Python SDK verwendet, um Text zu generieren, auf Vision-Funktionen zuzugreifen, die Antwort Token für Token zu streamen und die API asynchron zu verwenden.
Wenn Sie neu in der KI sind und die Funktionsweise modernster LLMs verstehen möchten, sollten Sie den Skill Track „AI Fundamentals“ in Betracht ziehen . Er vermittelt Ihnen praktisches Wissen zu beliebten KI-Themen wie ChatGPT, großen Sprachmodellen, generativer KI und vielem mehr.