Techno

Meta veröffentlicht Llama 3.2: Ein multimodales KI-Modell, das Bilder verstehen kann

Meta, die Muttergesellschaft von Facebook, Instagram und WhatsApp, hat auf der Meta Connect-Veranstaltung sein neuestes großes Sprachmodell (LLM), Llama 3.2, veröffentlicht. Das KI-Modell ist ein Konkurrent zu OpenAIs GPT-4o Mini, das im Juli veröffentlicht wurde.

Metas Sprung in die Multimodale KI

Mark Zuckerberg, CEO von Meta, erklärte, dass Llama 3.2 seit 2023 erhebliche Fortschritte gemacht hat und in Bezug auf die Fähigkeit, Bilder zu erkennen und visuelles Material zu verstehen, mit GPT-4o Mini vergleichbar sei. Er betonte auch, dass Llama 3.2 anderen Open-Source-KI-Modellen wie Gemmas von Google und Phi 3.5-mini von Microsoft in verschiedenen Bereichen überlegen sei, darunter das Befolgen von Anweisungen, das Zusammenfassen, die Verwendung von Werkzeugen und das Umformulieren von Befehlen.

"Llama entwickelt sich schnell weiter und eröffnet viele Möglichkeiten", sagte Zuckerberg.

Llama 3.2: Metas erstes multimodales KI-Modell

Als multimodales Modell, das Bilder und Text verstehen kann, eröffnet Llama 3.2 neue Möglichkeiten für verschiedene Anwendungen, die visuelles Verständnis erfordern. "Llama 3.2 ist unser erstes Open-Source-Multimodal-Modell", sagte Zuckerberg in seiner Eröffnungsrede auf der Meta Connect.

Mit der Einführung von Llama 3.2 scheint Meta im Rennen um die globale KI aufzuholen. Denn andere KI-Entwickler wie OpenAI und Google haben bereits im letzten Jahr multimodale KI-Modelle veröffentlicht.

Wichtige Funktionen von Llama 3.2

Was ist Llama 3.2?

Llama 3.2 ist ein großes Sprachmodell (LLM), das von Meta, der Muttergesellschaft von Facebook, Instagram und WhatsApp, entwickelt wurde.

Was sind die wichtigsten Funktionen von Llama 3.2?

Llama 3.2 ist ein Open-Source-Modell, das in zwei Versionen erhältlich ist: ein kleines Modell mit 11 Milliarden Parametern und ein mittleres Modell mit 90 Milliarden Parametern. Es hat eine Kontextlänge von 128.000 Token und kann Bilder verstehen.

Was ist das Besondere an Llama 3.2?

Llama 3.2 ist Metas erstes multimodales KI-Modell. Das bedeutet, dass es sowohl Bilder als auch Text verstehen kann.

Wie unterscheidet sich Llama 3.2 von anderen KI-Modellen?

Zuckerberg behauptet, dass Llama 3.2 in verschiedenen Bereichen anderen Open-Source-KI-Modellen wie Gemmas von Google und Phi 3.5-mini von Microsoft überlegen ist, darunter das Befolgen von Anweisungen, das Zusammenfassen, die Verwendung von Werkzeugen und das Umformulieren von Befehlen.

Wo kann ich Llama 3.2 herunterladen?

Das Llama 3.2-Modell steht zum Download auf llama.com, Hugging Face und den Plattformen von Meta-Partnern zur Verfügung.

Zugänglichkeit

Das Llama 3.2-Modell steht zum Download auf llama.com, Hugging Face und den Plattformen von Meta-Partnern zur Verfügung.