تقنية

تقدم Red Hat “LLM-D” لتشغيل الجيل القادم من الذكاء الاصطناعي


تم إطلاق Red Hat ، وهو رائد عالمي في برنامج مفتوح المصدر LLM-D، مشروع جديد مفتوح المصدر مصمم لحل تحد كبير في الذكاء الاصطناعى التوليدي ، وتشغيل نماذج AI كبيرة على نطاق واسع. من خلال الجمع بين تقنيات Kubernetes و VLLM ، LLM-D يتيح أداء AI سريعًا ومرنًا وفعالًا من حيث التكلفة عبر السحب والأجهزة المختلفة.

تقوم CoreWeave و Google Cloud و IBM Research و Nvidia بتأسيس مساهمين في LLM-D. شركاء مثل AMD ، Cisco ، Hugging Face ، Intel ، Lambda ، و Mistral AI على متن الطائرة. دعمت Top UC Berkeley وجامعة شيكاغو الباحثين هذا المشروع ، الذين طوروا VLLM و LMCACHE.

عصر جديد من الذكاء الاصطناعي المرن والقابل للتطوير

هدف ريد هات واضح. دع الشركات تدير أي نموذج من الذكاء الاصطناعي ، على أي أجهزة ، في أي سحابة دون أن تقفل في أنظمة باهظة الثمن أو معقدة. تمامًا مثل Red Hat ساعد في جعل Linux معيارًا للشركات ، فإنه يريد الآن جعل VLLM و LLM-D المعيار الجديد لتشغيل الذكاء الاصطناعي على نطاق واسع.

من خلال بناء مجتمع قوي ومفتوح ، يهدف Red Hat إلى جعل الذكاء الاصطناعى أسهل وأسرع وأكثر سهولة للجميع.

اقرأ أيضًا: kubectl-ai: منظمة العفو الدولية لـ Kubernetes CLI Management 2025

ما يجلبه LLM-D إلى الطاولة

LLM-D يقدم مجموعة من التقنيات الجديدة لتسريع وتبسيط أعباء عمل الذكاء الاصطناعي:

  • تكامل VLLM: خادم استدلال مفتوح المصدر تم اعتماده على نطاق واسع يعمل مع أحدث طرز الذكاء الاصطناعي والعديد من أنواع الأجهزة ، بما في ذلك Google Cloud TPUs.
  • تقسيم المعالجة (premill و decode): يكسر مهام النموذج إلى خطوتين يمكن أن تعمل على أجهزة مختلفة لتحسين الأداء.
  • استخدام ذاكرة أكثر ذكاءً (تفريغ ذاكرة التخزين المؤقت KV): يحفظ على ذاكرة GPU باهظة الثمن باستخدام وحدة المعالجة المركزية أرخص أو ذاكرة الشبكة ، مدعومة بواسطة LMCACHE.
  • إدارة الموارد الفعالة مع Kubernetes: أرصدة احتياجات الحوسبة والتخزين في الوقت الفعلي للحفاظ على الأمور بسرعة وسلسة.
  • توجيه AI-Awke: يرسل طلبات إلى الخوادم التي لديها بالفعل بيانات ذات صلة مؤقتة ، والتي تزيد من الاستجابات.
  • مشاركة البيانات أسرع بين الخوادم: يستخدم أدوات عالية السرعة مثل NVIDIA NIXL لنقل البيانات بسرعة بين الأنظمة.

Red Hat’s LLM-D هي منصة جديدة قوية لتشغيل نماذج AI الكبيرة بسرعة وكفاءة ، مما يساعد الشركات على استخدام الذكاء الاصطناعي على نطاق واسع دون تكاليف عالية أو تباطؤ.

خاتمة


إطلاق ريد هات ل LLM-D يمثل خطوة كبيرة إلى الأمام في جعل الذكاء الاصطناعي التوليدي عمليًا وقابل للتطوير للاستخدام في العالم الحقيقي. من خلال الجمع بين قوة kubernetes و VLLM واستراتيجيات البنية التحتية المتقدمة من الذكاء الاصطناعي ، تمكن LLM-D الشركات من تشغيل نماذج لغة كبيرة بشكل أكثر كفاءة ، عبر أي سحابة أو أجهزة أو بيئة. من خلال دعم الصناعة القوي والتركيز على التعاون المفتوح ، لا يحل Red Hat فقط الحواجز الفنية لاستدلال الذكاء الاصطناعى ولكن أيضًا وضع الأساس لمستقبل مرن وموحد وموحد.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى