{"id":4722,"date":"2024-04-18T22:49:14","date_gmt":"2024-04-18T22:49:14","guid":{"rendered":"https:\/\/game.intel.com\/?p=4722"},"modified":"2024-05-29T21:16:37","modified_gmt":"2024-05-29T21:16:37","slug":"wield-the-power-of-llms-on-intel-arc-gpus","status":"publish","type":"post","link":"https:\/\/game.intel.com\/de\/stories\/wield-the-power-of-llms-on-intel-arc-gpus\/","title":{"rendered":"Nutzen Sie die Leistung von LLMs auf Intel\u00ae Arc\u2122 GPUs"},"content":{"rendered":"<blockquote class=\"wp-block-quote is-layout-flow wp-block-quote-is-layout-flow\">\n<h3 class=\"wp-block-heading\">Einfache lokale Ausf\u00fchrung einer Vielzahl von LLMs mit Intel\u00ae Arc\u2122 GPUs<\/h3>\n<\/blockquote>\n\n\n\n<p>Generative KI hat die Landschaft der M\u00f6glichkeiten f\u00fcr die Erstellung von Inhalten ver\u00e4ndert. Diese Technologie hat das Potenzial, bisher ungeahnte Bilder, Videos und Texte zu liefern. Gro\u00dfe Sprachmodelle (LLMs) haben im Zeitalter der KI f\u00fcr Schlagzeilen gesorgt. Sie erm\u00f6glichen es jedem, mit Hilfe von Souffleuren Songtexte zu erstellen, Antworten auf komplexe physikalische Fragen zu erhalten oder eine Gliederung f\u00fcr eine Folienpr\u00e4sentation zu entwerfen. Und diese KI-Funktionen m\u00fcssen nicht mehr mit einer Cloud oder einem Abonnementdienst verbunden sein. Sie k\u00f6nnen lokal auf Ihrem eigenen PC ausgef\u00fchrt werden, wo Sie die volle Kontrolle \u00fcber das Modell haben, um seine Ausgabe anzupassen.<\/p>\n\n\n\n<p>In diesem Artikel zeigen wir Ihnen, wie Sie beliebte gro\u00dfe Sprachmodelle (LLMs) auf einem PC mit der Intel\u00ae Arc\u2122 A770 16GB Grafikkarte einrichten und damit experimentieren k\u00f6nnen. In diesem Tutorial wird zwar das Mistral-7B-Instruct LLM verwendet, aber dieselben Schritte k\u00f6nnen auch mit einem PyTorch LLM Ihrer Wahl wie Phi2, Llama2, etc. durchgef\u00fchrt werden. Und ja, auch mit dem neuesten Llama3-Modell!<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">IPEX-LLM<\/h2>\n\n\n\n<p>Der Grund daf\u00fcr, dass wir eine Vielzahl von Modellen mit der gleichen Basisinstallation betreiben k\u00f6nnen, ist <a href=\"https:\/\/github.com\/intel-analytics\/ipex-llm\">IPEX-LLM<\/a>eine LLM-Bibliothek f\u00fcr PyTorch. Sie ist auf der Grundlage von <a href=\"https:\/\/github.com\/intel\/intel-extension-for-pytorch\">Intel\u00ae-Erweiterung f\u00fcr PyTorch<\/a> und enth\u00e4lt modernste LLM-Optimierungen und Low-Bit (INT4\/FP4\/INT8\/FP8)-Gewichtskompression - mit allen aktuellen Leistungsoptimierungen f\u00fcr Intel-Hardware. IPEX-LLM nutzt die Vorteile des X<sup>e<\/sup>-cores XMX AI-Beschleunigung auf diskreten Intel-GPUs wie Grafikkarten der Arc A-Serie f\u00fcr eine verbesserte Leistung. Es unterst\u00fctzt Intel Arc A-Serien-Grafikkarten auf Windows Subsystem f\u00fcr Linux Version 2, native Windows-Umgebungen und natives Linux.<\/p>\n\n\n\n<p>Und da es sich dabei um natives PyTorch handelt, k\u00f6nnen Sie die PyTorch-Modelle und Eingabedaten problemlos austauschen, um sie auf einem Intel Arc-Grafikprozessor mit hoher Leistungsbeschleunigung auszuf\u00fchren. Dieses Experiment w\u00e4re ohne einen Leistungsvergleich nicht vollst\u00e4ndig gewesen. Anhand der nachstehenden Anleitungen f\u00fcr Intel Arc und der allgemein verf\u00fcgbaren Anleitungen f\u00fcr die Konkurrenz haben wir zwei diskrete GPUs in einem \u00e4hnlichen Preissegment untersucht.<\/p>\n\n\n\n<figure data-wp-context=\"{&quot;imageId&quot;:&quot;69e13d517d72c&quot;}\" data-wp-interactive=\"core\/image\" data-wp-key=\"69e13d517d72c\" class=\"wp-block-image size-full wp-lightbox-container\"><img fetchpriority=\"high\" width=\"1280\" height=\"720\" data-wp-class--hide=\"state.isContentHidden\" data-wp-class--show=\"state.isContentVisible\" data-wp-init=\"callbacks.setButtonStyles\" data-wp-on--click=\"actions.showLightbox\" data-wp-on--load=\"callbacks.setButtonStyles\" data-wp-on-window--resize=\"callbacks.setButtonStyles\" src=\"https:\/\/game.intel.com\/wp-content\/uploads\/2024\/04\/LLM-Blog-041824-LLM-Execution-on-Arc-A770-2.png\" alt=\"\" class=\"wp-image-4782\"><button\n\t\t\tclass=\"lightbox-trigger\"\n\t\t\ttype=\"button\"\n\t\t\taria-haspopup=\"dialog\"\n\t\t\taria-label=\"Vergr\u00f6\u00dfern\"\n\t\t\tdata-wp-init=\"callbacks.initTriggerButton\"\n\t\t\tdata-wp-on--click=\"actions.showLightbox\"\n\t\t\tdata-wp-style--right=\"state.imageButtonRight\"\n\t\t\tdata-wp-style--top=\"state.imageButtonTop\"\n\t\t>\n\t\t\t<svg xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"12\" height=\"12\" fill=\"none\" viewbox=\"0 0 12 12\">\n\t\t\t\t<path fill=\"#fff\" d=\"M2 0a2 2 0 0 0-2 2v2h1.5V2a.5.5 0 0 1 .5-.5h2V0H2Zm2 10.5H2a.5.5 0 0 1-.5-.5V8H0v2a2 2 0 0 0 2 2h2v-1.5ZM8 12v-1.5h2a.5.5 0 0 0 .5-.5V8H12v2a2 2 0 0 1-2 2H8Zm2-12a2 2 0 0 1 2 2v2h-1.5V2a.5.5 0 0 0-.5-.5H8V0h2Z\" \/>\n\t\t\t<\/svg>\n\t\t<\/button><\/figure>\n\n\n\n<p>Wenn beispielsweise das Modell Mistral 7B mit der IPEX-LLM-Bibliothek ausgef\u00fchrt wird, kann die Arc A770-Grafikkarte mit 16 GB 70 Token pro Sekunde (TPS) verarbeiten, d. h. 70% mehr TPS als die GeForce RTX 4060 mit 8 GB und CUDA. Was bedeutet das? Eine allgemeine Faustregel besagt, dass 1 Token 0,75 eines Wortes entspricht, und ein guter Vergleich ist die <a href=\"https:\/\/wordsrated.com\/speed-reading-statistics\/\">durchschnittliche menschliche Lesegeschwindigkeit von 4 W\u00f6rtern pro Sekunde<\/a> oder 5,3 TPS. Die Arc A770 16GB Grafikkarte kann W\u00f6rter viel schneller erzeugen, als der Durchschnittsmensch sie lesen kann!<\/p>\n\n\n\n<p>Unsere internen Tests zeigen, dass die Arc A770-Grafikkarte mit 16 GB diese F\u00e4higkeit und eine im Vergleich zur RTX 4060 konkurrenzf\u00e4hige oder f\u00fchrende Leistung \u00fcber eine breite Palette von Modellen bieten kann, was die Intel Arc-Grafikkarte zu einer hervorragenden Wahl f\u00fcr die lokale LLM-Ausf\u00fchrung macht.<\/p>\n\n\n\n<p>Kommen wir nun zu den Einrichtungsanweisungen, die Ihnen den Einstieg in die LLMs auf Ihrer Arc A-Series GPU erleichtern.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Einbauanleitung<\/h2>\n\n\n\n<p>Wir k\u00f6nnen auch auf diese Seite verweisen, um die Umgebung einzurichten: <a href=\"https:\/\/ipex-llm.readthedocs.io\/en\/latest\/doc\/LLM\/Quickstart\/install_windows_gpu.html\">IPEX-LLM unter Windows mit Intel GPU installieren - IPEX-LLM aktuelle Dokumentation<\/a><\/p>\n\n\n\n<p>1. Deaktivieren Sie den integrierten Grafikprozessor im Ger\u00e4temanager.<\/p>\n\n\n\n<p>2. Herunterladen und installieren <a href=\"https:\/\/www.anaconda.com\/download\">Anakonda<\/a>.<\/p>\n\n\n\n<p>3. Nach Abschluss der Installation \u00f6ffnen Sie das Startmen\u00fc, suchen Sie nach Anaconda Prompt, f\u00fchren Sie es als Administrator aus und erstellen Sie eine virtuelle Umgebung mit den folgenden Befehlen. Geben Sie jeden Befehl einzeln ein:<\/p>\n\n\n\n<pre class=\"wp-block-code\"><code>conda create -n llm python=3.10.6\n\nconda llm aktivieren\n\nconda install libuv\n\npip install dpcpp-cpp-rt==2024.0.2 mkl-dpcpp==2024.0.0 onednn==2024.0.0 gradio\n\npip install --pre --upgrade ipex-llm[xpu] --extra-index-url https:\/\/pytorch-extension.intel.com\/release-whl\/stable\/xpu\/us\/\n\npip install transformers==4.38.0<\/code><\/pre>\n\n\n\n<p>4. Erstellen Sie ein Textdokument mit dem Namen demo.py und speichern Sie es unter C:\\Benutzer\\Ihr_Benutzername\\Dokumente oder in einem Verzeichnis Ihrer Wahl.<\/p>\n\n\n\n<p>5. \u00d6ffnen Sie demo.py mit Ihrem Lieblingseditor und kopieren Sie das folgende Codebeispiel hinein:<\/p>\n\n\n\n<pre class=\"wp-block-code\"><code>from transformers import AutoTokenizer\nvon ipex_llm.transformers importieren AutoModelForCausalLM\nimportieren torch\nimportieren intel_erweiterung_f\u00fcr_pytorch\n\ndevice = \"xpu\" # das Ger\u00e4t, in das das Modell geladen wird\n\nmodel_id = \"mistralai\/Mistral-7B-Instruct-v0.2\" # Umarmungsgesicht-Modell-ID\n\ntokenizer = AutoTokenizer.from_pretrained(model_id)\nmodel = AutoModelForCausalLM.from_pretrained(model_id, load_in_4bit=True, torch_dtype=torch.float16)\nmodel = model.to(device)\n\nmessages = [\n    {\"role\": \"user\", \"content\": \"Was ist Ihr Lieblingsgew\u00fcrz?\"},\n    {\"Rolle\": \"assistant\", \"content\": \"Nun, ich habe eine Vorliebe f\u00fcr einen guten Spritzer frischen Zitronensaft. Er verleiht allem, was ich in der K\u00fcche zubereite, genau die richtige Menge an pikantem Geschmack!\"},\n    {\"role\": \"user\", \"content\": \"Habt ihr Mayonnaise-Rezepte?\"}\n]\n\nencodeds = tokenizer.apply_chat_template(messages, return_tensors=\"pt\")\n\nmodel_inputs = encodeds.to(device)\nmodel.to(ger\u00e4t)\n\ngenerated_ids = model.generate(model_inputs, max_new_tokens=1000, do_sample=True)\ndecoded = tokenizer.batch_decode(generated_ids)\nprint(decoded[0])<\/code><\/pre>\n\n\n\n<p class=\"has-small-font-size\"><em>Aus dem Beispielcode erstellter Code <a href=\"https:\/\/huggingface.co\/mistralai\/Mistral-7B-Instruct-v0.2\">in diesem Repository<\/a>.<\/em><\/p>\n\n\n\n<p>6. Speichern Sie demo.py. Wechseln Sie in Anaconda mit dem cd-Befehl in das Verzeichnis, in dem sich demo.py befindet, und f\u00fchren Sie in der Anaconda-Eingabeaufforderung den folgenden Befehl aus:<\/p>\n\n\n\n<pre class=\"wp-block-code\"><code>python demo.py<\/code><\/pre>\n\n\n\n<p>Jetzt k\u00f6nnen Sie ein sch\u00f6nes Rezept f\u00fcr Mayonnaise bekommen!<\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><img fetchpriority=\"high\" width=\"1024\" height=\"213\" src=\"https:\/\/game.intel.com\/wp-content\/uploads\/2024\/04\/LLM-Blog-041824-mayo-recipe-1024x213.png\" alt=\"\" class=\"wp-image-4746\"><\/figure>\n\n\n\n<h2 class=\"wp-block-heading\">Wechselnde Modelle<\/h2>\n\n\n\n<p>Mit der gleichen Umgebung, die wir oben eingerichtet haben, k\u00f6nnen Sie mit anderen beliebten Modellen von Hugging Face experimentieren, wie z.B. llama2-7B-chat-hf, llama3-8B-it, phi-2, gemma-7B-i und stablelm2, indem Sie das Hugging Face-Modell id oben in demo.py ersetzen.<\/p>\n\n\n\n<pre class=\"wp-block-code\"><code>model_id = \"mistralai\/Mistral-7B-Instruct-v0.2\" # huggingface model id\n\nan\n\nmodel_id = \"stabilityai\/stablelm-2-zephyr-1_6b\" # Umarmungsgesicht model id<\/code><\/pre>\n\n\n\n<p>Wenn Sie beim Starten von demo.py auf Fehler sto\u00dfen, befolgen Sie die folgenden Schritte, um ein Upgrade\/Downgrade von transformers durchzuf\u00fchren:<\/p>\n\n\n\n<ol class=\"wp-block-list\">\n<li>Anaconda-Eingabeaufforderung \u00f6ffnen<\/li>\n\n\n\n<li>conda aktiviert llm<\/li>\n\n\n\n<li>pip install transformers==4.37.0<\/li>\n<\/ol>\n\n\n\n<p><strong>Gepr\u00fcfte Versionen von Transformatoren:<\/strong><\/p>\n\n\n\n<figure class=\"wp-block-table is-style-regular\"><table class=\"has-fixed-layout\"><thead><tr><th class=\"has-text-align-center\" data-align=\"center\">Modell-ID<\/th><th class=\"has-text-align-center\" data-align=\"center\">Transformatoren-Paketversionen<\/th><\/tr><\/thead><tbody><tr><td class=\"has-text-align-center\" data-align=\"center\">meta-llama\/Llama-2-7b-chat-hf<\/td><td class=\"has-text-align-center\" data-align=\"center\">4.37.0<\/td><\/tr><tr><td class=\"has-text-align-center\" data-align=\"center\">meta-llama\/Meta-Llama-3-8B-Instruct<\/td><td class=\"has-text-align-center\" data-align=\"center\">4.37.0<\/td><\/tr><tr><td class=\"has-text-align-center\" data-align=\"center\">stabilit\u00e4tai\/stabillm-2-zephyr-1_6b<\/td><td class=\"has-text-align-center\" data-align=\"center\">4.38.0<\/td><\/tr><tr><td class=\"has-text-align-center\" data-align=\"center\">mistralai\/Mistral-7B-Anleitung-v0.2<\/td><td class=\"has-text-align-center\" data-align=\"center\">4.38.0<\/td><\/tr><tr><td class=\"has-text-align-center\" data-align=\"center\">microsoft\/phi-2<\/td><td class=\"has-text-align-center\" data-align=\"center\">4.38.0<\/td><\/tr><tr><td class=\"has-text-align-center\" data-align=\"center\">google\/gemma-7b-it<\/td><td class=\"has-text-align-center\" data-align=\"center\">4.38.1<\/td><\/tr><tr><td class=\"has-text-align-center\" data-align=\"center\">THUDM\/chatglm3-6b<\/td><td class=\"has-text-align-center\" data-align=\"center\">4.38.0<\/td><\/tr><\/tbody><\/table><\/figure>\n\n\n\n<p>Die Speicheranforderungen k\u00f6nnen je nach Modell und Framework variieren. F\u00fcr den Intel Arc A750 8GB, der mit IPEX-LLM l\u00e4uft, empfehlen wir die Verwendung von Llama-2-7B-chat-hf, Mistral-7B-Instruct-v0.2, phi-2 oder chatglm3-6B.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Implementierung einer ChatBot-WebUI<\/h2>\n\n\n\n<p>Lassen Sie uns nun zur Implementierung eines Gradio Chatbot-Webui \u00fcbergehen, um eine bessere Erfahrung mit Ihrem Webbrowser zu machen. Weitere Informationen zur Implementierung eines interaktiven Chatbots mit LLMs finden Sie unter <a href=\"https:\/\/www.gradio.app\/guides\/creating-a-chatbot-fast\">https:\/\/www.gradio.app\/guides\/creating-a-chatbot-fast<\/a><\/p>\n\n\n\n<p>1. Erstellen Sie ein Dokument namens chatbot_gradio.py in einem Texteditor Ihrer Wahl.<\/p>\n\n\n\n<p>2. Kopiere den folgenden Codeschnipsel und f\u00fcge ihn in chatbot_gradio.py ein:<\/p>\n\n\n\n<pre class=\"wp-block-code\"><code>importiere gradio als gr\nimportieren torch\nimportiere intel_erweiterung_f\u00fcr_pytorch\nvon ipex_llm.transformers importieren AutoModelForCausalLM\nfrom transformers import AutoTokenizer, StoppingCriteria, StoppingCriteriaList, TextIteratorStreamer\nfrom threading import Thread\n\nmodel_id = \"mistralai\/Mistral-7B-Instruct-v0.2\"\n\ntokenizer = AutoTokenizer.from_pretrained(model_id, trust_remote_code=True)\nmodel = AutoModelForCausalLM.from_pretrained(model_id, trust_remote_code=True, optimize_model=True, load_in_4bit=True, torch_dtype=torch.float16)\nmodel = model.half()\nmodel = model.to(\"xpu\")\nclass StopOnTokens(StoppingCriteria):\n    def __call__(self, input_ids: torch.LongTensor, scores: torch.FloatTensor, **kwargs) -&gt; bool:\n        stop_ids = [29, 0]\n        for stop_id in stop_ids:\n            if input_ids[0][-1] == stop_id:\n                return True\n        return False\n\ndef predict(message, history):\n    stop = StopOnTokens()\n    history_format = []\n    for human, assistant in history:\n        history_format.append({\"role\": \"user\", \"content\": human })\n        history_format.append({\"Rolle\": \"Assistent\", \"Inhalt\":Assistent})\n    history_format.append({\"Rolle\": \"Benutzer\", \"Inhalt\": Nachricht})\n\n    prompt = tokenizer.apply_chat_template(history_format, tokenize=False, add_generation_prompt=True)\n    model_inputs = tokenizer(prompt, return_tensors=\"pt\").to(\"xpu\")\n    streamer = TextIteratorStreamer(tokenizer, skip_prompt=True, skip_special_tokens=True)\n    generate_kwargs = dict(\n        model_inputs,\n        streamer=streamer,\n        max_new_tokens=300,\n        do_sample=True,\n        top_p=0,95,\n        top_k=20,\n        Temperatur=0,8,\n        num_beams=1,\n        pad_token_id=tokenizer.eos_token_id,\n        stoppen_kriterien=StoppkriterienListe([stoppen])\n        )\n    t = Thread(target=model.generate, kwargs=generate_kwargs)\n    t.start()\n\n    partial_message = \"\"\n    for new_token in streamer:\n        if new_token != '&lt;&#039;:\n            partial_message += new_token\n            yield partial_message\n\ngr.ChatInterface(predict).launch()<\/code><\/pre>\n\n\n\n<p>3. \u00d6ffnen Sie eine neue Anaconda-Eingabeaufforderung und geben Sie die folgenden Befehle ein:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>pip install gradio<\/li>\n\n\n\n<li>conda aktiviert llm<\/li>\n\n\n\n<li>cd in das Verzeichnis, in dem sich chat_gradio.py befindet<\/li>\n\n\n\n<li>python chatbot_gradio.py<\/li>\n<\/ul>\n\n\n\n<p>4. \u00d6ffnen Sie Ihren Webbrowser und navigieren Sie zu 127.0.0.1:7860. Sie sollten einen Chatbot sehen, der mit dem Sprachmodell mistral-7b-instruct-v0.2 eingerichtet ist! Du hast nun ein schickes Webui f\u00fcr deinen Chatbot.<\/p>\n\n\n\n<p>5. Stellen Sie eine Frage, um ein Gespr\u00e4ch mit Ihrem Chatbot zu beginnen.<\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><img loading=\"lazy\" width=\"1469\" height=\"874\" src=\"https:\/\/game.intel.com\/wp-content\/uploads\/2024\/04\/LLM-Blog-041824-chatbot-Q-and-A.png\" alt=\"\" class=\"wp-image-4745\"><\/figure>\n\n\n\n<p><\/p>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity is-style-wide\"\/>\n\n\n\n<p><\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Hinweise und Haftungsausschl\u00fcsse<\/h3>\n\n\n\n<div class=\"wp-block-group is-layout-constrained wp-block-group-is-layout-constrained\">\n<p>Die Leistung variiert je nach Verwendung, Konfiguration und anderen Faktoren. Erfahren Sie mehr \u00fcber die <a href=\"https:\/\/edc.intel.com\/content\/www\/us\/en\/products\/performance\/benchmarks\/overview\/\">Performance Index Seite<\/a>.<\/p>\n\n\n\n<p>Die Leistungsergebnisse basieren auf Tests zu den in den Konfigurationen angegebenen Daten und spiegeln m\u00f6glicherweise nicht alle \u00f6ffentlich verf\u00fcgbaren Aktualisierungen wider. Einzelheiten zur Konfiguration finden Sie unter Backup. Kein Produkt und keine Komponente kann absolut sicher sein.<\/p>\n\n\n\n<p>Ergebnisse, die auf Vorseriensystemen und -komponenten beruhen, sowie Ergebnisse, die unter Verwendung einer Intel Referenzplattform (ein internes neues Beispielsystem), einer internen Intel Analyse oder einer Architektursimulation oder -modellierung gesch\u00e4tzt oder simuliert wurden, werden Ihnen nur zu Informationszwecken zur Verf\u00fcgung gestellt. Die Ergebnisse k\u00f6nnen aufgrund zuk\u00fcnftiger \u00c4nderungen an Systemen, Komponenten, Spezifikationen oder Konfigurationen abweichen.<\/p>\n\n\n\n<p>Ihre Kosten und Ergebnisse k\u00f6nnen variieren.<\/p>\n\n\n\n<p>Intel-Technologien erfordern m\u00f6glicherweise die Aktivierung von Hardware, Software oder Diensten.<\/p>\n\n\n\n<p>\u00a9 Intel Corporation. Intel, das Intel Logo, Arc und andere Intel Marken sind Marken der Intel Corporation oder ihrer Tochtergesellschaften.<\/p>\n\n\n\n<p>*Andere Namen und Marken k\u00f6nnen als Eigentum anderer beansprucht werden.<\/p>\n<\/div>\n\n\n\n<figure class=\"wp-block-image size-full\"><img loading=\"lazy\" width=\"1280\" height=\"720\" src=\"https:\/\/game.intel.com\/wp-content\/uploads\/2024\/04\/LLM-Blog-041824-System-Configuration-and-Workloads.png\" alt=\"\" class=\"wp-image-4739\" style=\"object-fit:cover\"><\/figure>","protected":false},"excerpt":{"rendered":"<p>Generative AI has changed the landscape of what\u2019s possible in content creation. This technology has the potential to deliver previously unimagined images, videos and writing. Learn how to set up and experiment with popular large language models (LLMs) from the AI community Huggingface on a PC with the Intel\u00ae Arc\u2122 A770 16GB graphics card. <\/p>","protected":false},"author":27,"featured_media":4738,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"inline_featured_image":false,"footnotes":""},"categories":[6],"tags":[45,48,49,14,47],"class_list":["post-4722","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-intel-arc","tag-ai","tag-generative-ai","tag-huggingface","tag-intel-arc-graphics","tag-llms"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v26.8 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Wield The Power of LLMs On Intel\u00ae Arc\u2122 GPUs | Intel Gaming Access<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/game.intel.com\/de\/stories\/wield-the-power-of-llms-on-intel-arc-gpus\/\" \/>\n<meta property=\"og:locale\" content=\"de_DE\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Wield The Power of LLMs On Intel\u00ae Arc\u2122 GPUs | Intel Gaming Access\" \/>\n<meta property=\"og:description\" content=\"Generative AI has changed the landscape of what\u2019s possible in content creation. This technology has the potential to deliver previously unimagined images, videos and writing. Learn how to set up and experiment with popular large language models (LLMs) from the AI community Huggingface on a PC with the Intel\u00ae Arc\u2122 A770 16GB graphics card.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/game.intel.com\/de\/stories\/wield-the-power-of-llms-on-intel-arc-gpus\/\" \/>\n<meta property=\"og:site_name\" content=\"Intel Gaming Access\" \/>\n<meta property=\"article:published_time\" content=\"2024-04-18T22:49:14+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2024-05-29T21:16:37+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/game.intel.com\/wp-content\/uploads\/2024\/04\/LLM-Blog-041824-llmA770-header.png\" \/>\n\t<meta property=\"og:image:width\" content=\"1280\" \/>\n\t<meta property=\"og:image:height\" content=\"768\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/png\" \/>\n<meta name=\"author\" content=\"Intel Gaming\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:creator\" content=\"@IntelGaming\" \/>\n<meta name=\"twitter:site\" content=\"@IntelGaming\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Intel Gaming\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"8\u00a0Minuten\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/game.intel.com\/it\/stories\/wield-the-power-of-llms-on-intel-arc-gpus\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/game.intel.com\/it\/stories\/wield-the-power-of-llms-on-intel-arc-gpus\/\"},\"author\":{\"name\":\"Intel Gaming\",\"@id\":\"https:\/\/game.intel.com\/us\/#\/schema\/person\/5a9260725321b6f9dc6b73c2048fb49e\"},\"headline\":\"Wield The Power of LLMs On Intel\u00ae Arc\u2122 GPUs\",\"datePublished\":\"2024-04-18T22:49:14+00:00\",\"dateModified\":\"2024-05-29T21:16:37+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/game.intel.com\/it\/stories\/wield-the-power-of-llms-on-intel-arc-gpus\/\"},\"wordCount\":1075,\"commentCount\":0,\"publisher\":{\"@id\":\"https:\/\/game.intel.com\/us\/#organization\"},\"image\":{\"@id\":\"https:\/\/game.intel.com\/it\/stories\/wield-the-power-of-llms-on-intel-arc-gpus\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/game.intel.com\/wp-content\/uploads\/2024\/04\/LLM-Blog-041824-llmA770-header.png\",\"keywords\":[\"AI\",\"Generative AI\",\"Huggingface\",\"intel arc graphics\",\"LLMs\"],\"articleSection\":[\"Intel\u00ae Arc\u2122 Graphics\"],\"inLanguage\":\"de\",\"potentialAction\":[{\"@type\":\"CommentAction\",\"name\":\"Comment\",\"target\":[\"https:\/\/game.intel.com\/it\/stories\/wield-the-power-of-llms-on-intel-arc-gpus\/#respond\"]}]},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/game.intel.com\/it\/stories\/wield-the-power-of-llms-on-intel-arc-gpus\/\",\"url\":\"https:\/\/game.intel.com\/it\/stories\/wield-the-power-of-llms-on-intel-arc-gpus\/\",\"name\":\"Wield The Power of LLMs On Intel\u00ae Arc\u2122 GPUs | Intel Gaming Access\",\"isPartOf\":{\"@id\":\"https:\/\/game.intel.com\/us\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/game.intel.com\/it\/stories\/wield-the-power-of-llms-on-intel-arc-gpus\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/game.intel.com\/it\/stories\/wield-the-power-of-llms-on-intel-arc-gpus\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/game.intel.com\/wp-content\/uploads\/2024\/04\/LLM-Blog-041824-llmA770-header.png\",\"datePublished\":\"2024-04-18T22:49:14+00:00\",\"dateModified\":\"2024-05-29T21:16:37+00:00\",\"breadcrumb\":{\"@id\":\"https:\/\/game.intel.com\/it\/stories\/wield-the-power-of-llms-on-intel-arc-gpus\/#breadcrumb\"},\"inLanguage\":\"de\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/game.intel.com\/it\/stories\/wield-the-power-of-llms-on-intel-arc-gpus\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"de\",\"@id\":\"https:\/\/game.intel.com\/it\/stories\/wield-the-power-of-llms-on-intel-arc-gpus\/#primaryimage\",\"url\":\"https:\/\/game.intel.com\/wp-content\/uploads\/2024\/04\/LLM-Blog-041824-llmA770-header.png\",\"contentUrl\":\"https:\/\/game.intel.com\/wp-content\/uploads\/2024\/04\/LLM-Blog-041824-llmA770-header.png\",\"width\":1280,\"height\":768},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/game.intel.com\/it\/stories\/wield-the-power-of-llms-on-intel-arc-gpus\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/game.intel.com\/ar\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Wield The Power of LLMs On Intel\u00ae Arc\u2122 GPUs\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/game.intel.com\/us\/#website\",\"url\":\"https:\/\/game.intel.com\/us\/\",\"name\":\"Intel Gaming Access\",\"description\":\"Made to Game. Ready for Anything.\",\"publisher\":{\"@id\":\"https:\/\/game.intel.com\/us\/#organization\"},\"alternateName\":\"game.intel.com\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/game.intel.com\/us\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"de\"},{\"@type\":\"Organization\",\"@id\":\"https:\/\/game.intel.com\/us\/#organization\",\"name\":\"Intel Gaming Access\",\"url\":\"https:\/\/game.intel.com\/us\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"de\",\"@id\":\"https:\/\/game.intel.com\/us\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/game.intel.com\/wp-content\/uploads\/2026\/01\/square-logo.png\",\"contentUrl\":\"https:\/\/game.intel.com\/wp-content\/uploads\/2026\/01\/square-logo.png\",\"width\":800,\"height\":800,\"caption\":\"Intel Gaming Access\"},\"image\":{\"@id\":\"https:\/\/game.intel.com\/us\/#\/schema\/logo\/image\/\"},\"sameAs\":[\"https:\/\/x.com\/IntelGaming\",\"https:\/\/www.instagram.com\/intelgaming\/\",\"https:\/\/discord.gg\/intel\",\"https:\/\/www.youtube.com\/@intelgaming\"]},{\"@type\":\"Person\",\"@id\":\"https:\/\/game.intel.com\/us\/#\/schema\/person\/5a9260725321b6f9dc6b73c2048fb49e\",\"name\":\"Intel Gaming\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"de\",\"@id\":\"https:\/\/game.intel.com\/us\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/secure.gravatar.com\/avatar\/d0fc339c682b4163337309e3b6555e83e4859911e42cdd1109d7b1ddb454cbfb?s=96&d=mm&r=g\",\"contentUrl\":\"https:\/\/secure.gravatar.com\/avatar\/d0fc339c682b4163337309e3b6555e83e4859911e42cdd1109d7b1ddb454cbfb?s=96&d=mm&r=g\",\"caption\":\"Intel Gaming\"},\"url\":\"https:\/\/game.intel.com\/de\/stories\/author\/caton-lai-intel\/\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Wield The Power of LLMs On Intel\u00ae Arc\u2122 GPUs | Intel Gaming Access","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/game.intel.com\/de\/stories\/wield-the-power-of-llms-on-intel-arc-gpus\/","og_locale":"de_DE","og_type":"article","og_title":"Wield The Power of LLMs On Intel\u00ae Arc\u2122 GPUs | Intel Gaming Access","og_description":"Generative AI has changed the landscape of what\u2019s possible in content creation. This technology has the potential to deliver previously unimagined images, videos and writing. Learn how to set up and experiment with popular large language models (LLMs) from the AI community Huggingface on a PC with the Intel\u00ae Arc\u2122 A770 16GB graphics card.","og_url":"https:\/\/game.intel.com\/de\/stories\/wield-the-power-of-llms-on-intel-arc-gpus\/","og_site_name":"Intel Gaming Access","article_published_time":"2024-04-18T22:49:14+00:00","article_modified_time":"2024-05-29T21:16:37+00:00","og_image":[{"width":1280,"height":768,"url":"https:\/\/game.intel.com\/wp-content\/uploads\/2024\/04\/LLM-Blog-041824-llmA770-header.png","type":"image\/png"}],"author":"Intel Gaming","twitter_card":"summary_large_image","twitter_creator":"@IntelGaming","twitter_site":"@IntelGaming","twitter_misc":{"Written by":"Intel Gaming","Est. reading time":"8\u00a0Minuten"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/game.intel.com\/it\/stories\/wield-the-power-of-llms-on-intel-arc-gpus\/#article","isPartOf":{"@id":"https:\/\/game.intel.com\/it\/stories\/wield-the-power-of-llms-on-intel-arc-gpus\/"},"author":{"name":"Intel Gaming","@id":"https:\/\/game.intel.com\/us\/#\/schema\/person\/5a9260725321b6f9dc6b73c2048fb49e"},"headline":"Wield The Power of LLMs On Intel\u00ae Arc\u2122 GPUs","datePublished":"2024-04-18T22:49:14+00:00","dateModified":"2024-05-29T21:16:37+00:00","mainEntityOfPage":{"@id":"https:\/\/game.intel.com\/it\/stories\/wield-the-power-of-llms-on-intel-arc-gpus\/"},"wordCount":1075,"commentCount":0,"publisher":{"@id":"https:\/\/game.intel.com\/us\/#organization"},"image":{"@id":"https:\/\/game.intel.com\/it\/stories\/wield-the-power-of-llms-on-intel-arc-gpus\/#primaryimage"},"thumbnailUrl":"https:\/\/game.intel.com\/wp-content\/uploads\/2024\/04\/LLM-Blog-041824-llmA770-header.png","keywords":["AI","Generative AI","Huggingface","intel arc graphics","LLMs"],"articleSection":["Intel\u00ae Arc\u2122 Graphics"],"inLanguage":"de","potentialAction":[{"@type":"CommentAction","name":"Comment","target":["https:\/\/game.intel.com\/it\/stories\/wield-the-power-of-llms-on-intel-arc-gpus\/#respond"]}]},{"@type":"WebPage","@id":"https:\/\/game.intel.com\/it\/stories\/wield-the-power-of-llms-on-intel-arc-gpus\/","url":"https:\/\/game.intel.com\/it\/stories\/wield-the-power-of-llms-on-intel-arc-gpus\/","name":"Wield The Power of LLMs On Intel\u00ae Arc\u2122 GPUs | Intel Gaming Access","isPartOf":{"@id":"https:\/\/game.intel.com\/us\/#website"},"primaryImageOfPage":{"@id":"https:\/\/game.intel.com\/it\/stories\/wield-the-power-of-llms-on-intel-arc-gpus\/#primaryimage"},"image":{"@id":"https:\/\/game.intel.com\/it\/stories\/wield-the-power-of-llms-on-intel-arc-gpus\/#primaryimage"},"thumbnailUrl":"https:\/\/game.intel.com\/wp-content\/uploads\/2024\/04\/LLM-Blog-041824-llmA770-header.png","datePublished":"2024-04-18T22:49:14+00:00","dateModified":"2024-05-29T21:16:37+00:00","breadcrumb":{"@id":"https:\/\/game.intel.com\/it\/stories\/wield-the-power-of-llms-on-intel-arc-gpus\/#breadcrumb"},"inLanguage":"de","potentialAction":[{"@type":"ReadAction","target":["https:\/\/game.intel.com\/it\/stories\/wield-the-power-of-llms-on-intel-arc-gpus\/"]}]},{"@type":"ImageObject","inLanguage":"de","@id":"https:\/\/game.intel.com\/it\/stories\/wield-the-power-of-llms-on-intel-arc-gpus\/#primaryimage","url":"https:\/\/game.intel.com\/wp-content\/uploads\/2024\/04\/LLM-Blog-041824-llmA770-header.png","contentUrl":"https:\/\/game.intel.com\/wp-content\/uploads\/2024\/04\/LLM-Blog-041824-llmA770-header.png","width":1280,"height":768},{"@type":"BreadcrumbList","@id":"https:\/\/game.intel.com\/it\/stories\/wield-the-power-of-llms-on-intel-arc-gpus\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/game.intel.com\/ar\/"},{"@type":"ListItem","position":2,"name":"Wield The Power of LLMs On Intel\u00ae Arc\u2122 GPUs"}]},{"@type":"WebSite","@id":"https:\/\/game.intel.com\/us\/#website","url":"https:\/\/game.intel.com\/us\/","name":"Intel Gaming Zugang","description":"Made to Game. Ready for Anything.","publisher":{"@id":"https:\/\/game.intel.com\/us\/#organization"},"alternateName":"game.intel.com","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/game.intel.com\/us\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"de"},{"@type":"Organization","@id":"https:\/\/game.intel.com\/us\/#organization","name":"Intel Gaming Zugang","url":"https:\/\/game.intel.com\/us\/","logo":{"@type":"ImageObject","inLanguage":"de","@id":"https:\/\/game.intel.com\/us\/#\/schema\/logo\/image\/","url":"https:\/\/game.intel.com\/wp-content\/uploads\/2026\/01\/square-logo.png","contentUrl":"https:\/\/game.intel.com\/wp-content\/uploads\/2026\/01\/square-logo.png","width":800,"height":800,"caption":"Intel Gaming Access"},"image":{"@id":"https:\/\/game.intel.com\/us\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/x.com\/IntelGaming","https:\/\/www.instagram.com\/intelgaming\/","https:\/\/discord.gg\/intel","https:\/\/www.youtube.com\/@intelgaming"]},{"@type":"Person","@id":"https:\/\/game.intel.com\/us\/#\/schema\/person\/5a9260725321b6f9dc6b73c2048fb49e","name":"Intel Gaming","image":{"@type":"ImageObject","inLanguage":"de","@id":"https:\/\/game.intel.com\/us\/#\/schema\/person\/image\/","url":"https:\/\/secure.gravatar.com\/avatar\/d0fc339c682b4163337309e3b6555e83e4859911e42cdd1109d7b1ddb454cbfb?s=96&d=mm&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/d0fc339c682b4163337309e3b6555e83e4859911e42cdd1109d7b1ddb454cbfb?s=96&d=mm&r=g","caption":"Intel Gaming"},"url":"https:\/\/game.intel.com\/de\/stories\/author\/caton-lai-intel\/"}]}},"_links":{"self":[{"href":"https:\/\/game.intel.com\/de\/wp-json\/wp\/v2\/posts\/4722","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/game.intel.com\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/game.intel.com\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/game.intel.com\/de\/wp-json\/wp\/v2\/users\/27"}],"replies":[{"embeddable":true,"href":"https:\/\/game.intel.com\/de\/wp-json\/wp\/v2\/comments?post=4722"}],"version-history":[{"count":0,"href":"https:\/\/game.intel.com\/de\/wp-json\/wp\/v2\/posts\/4722\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/game.intel.com\/de\/wp-json\/wp\/v2\/media\/4738"}],"wp:attachment":[{"href":"https:\/\/game.intel.com\/de\/wp-json\/wp\/v2\/media?parent=4722"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/game.intel.com\/de\/wp-json\/wp\/v2\/categories?post=4722"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/game.intel.com\/de\/wp-json\/wp\/v2\/tags?post=4722"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}