AI لـ Kubernetes CLI Management 2025

أصبح Kubernetes أكثر ذكاءً. قام مهندسو Google ببناء أداة جديدة مفتوحة المصدر تسمى kubectl-ai الذي يجلب الذكاء الاصطناعي في سطر الأوامر. بدلاً من كتابة أوامر Kubernetes المعقدة ، يمكن الآن لفرد DevOps و SREs استخدام لغة طبيعية بسيطة لإدارة مجموعاتها. إنه مثل وجود مساعد AI لـ Kubernetes CLI.
دعونا نستكشف ماهية Kubectl-AAI ، وكيف يعمل ، ولماذا يمكن أن يكون مغير اللعبة لمستقبل العمليات السحابية الأصلية.
ما هو kubectl-ai؟
Kubectl-AA ، طورتها GooglecloudPlatform ، هي أداة مبتكرة تجلبها المساعدة التي تعمل بنيو ذكور الذكاء إلى Kubernetes الإدارة وتبسيط المهام مثل استكشاف الأخطاء وإصلاحها والتكوين والتعلم.
بدلاً من كتابة أوامر CLI المعقدة الطويلة أو إذا كنت تكافح لكتابة YAML صالحة ، فإنه يعزز منظمة العفو الدولية لتفسير أوامر اللغة الطبيعية. على سبيل المثال “عرض جميع القرون في مساحة اسم DEV” أو “إنشاء تكوين“ومن هنا يوفر مخرجات أو تفسيرات قابلة للتنفيذ مصممة خصيصًا لمجموعتك. تستخدم هذه الأداة AI توليني لفهم الطلب ثم يترجمه إلى أمر KUBECTL الصحيح. إنه يتصرف مثل المترجم بين الإنسان و Kubernetes ويجعل العمل مع Kubernetes أكثر ملائمة للمستخدم. إنه يشبه إجراء محادثة مع الكليف.
اقرأ أيضًا: Pod Kubectl Retart: طرق لإعادة تشغيل قرون Kubernetes بشكل فعال
متوفر على Github ، تم تصميمه للمستخدمين من جميع المستويات على سبيل المثال من المبتدئين الذين يبحثون عن وضوح على مفاهيم Kubernetes للخبراء الذين يتمثلون في سير العمل. بشكل افتراضي ، يستفسر عن الجوزاء ، ولكن يمكنه أيضًا الاستعلام عن Openai و Grok وحتى LLMs المحلية الخاصة بك.
ميزات مفتاح Kubectl-AI
- تحدث إلى Kubernetes مثلك تتحدث إلى الإنسان: لا تحتاج إلى تذكر الأوامر المعقدة بعد الآن. مع Kubectl-AAI ، يمكنك فقط كتابة شيء مثل “إظهار جميع القرون في مساحة اسم DEV” ، وهو يكتشف الأمر الدقيق لك.
- لا مزيد من أعلام kubectl googling: Kubectl-AAI يولد بسرعة الأمر الصحيح باستخدام الذكاء الاصطناعي. إنه مثالي عندما تنسى بناء الجملة الدقيق أو تريد تجنب الأخطاء المطبعية.
- تبقى في السيطرة: لا يتم تشغيل أوامر لك تلقائيًا. بدلاً من ذلك ، يوضح لك ما تعتقد أنه تريده ، وتقرر ما إذا كنت تريد نسخه وتشغيله. آمن وذكي.
- يعمل مع نماذج Openai أو AI المحلية: يمكنك توصيلها بموديلات GPT الخاصة بـ Openai ، أو تشغيلها بنموذج محلي مثل Ollama إذا كنت تفضل الحفاظ على كل شيء خاص وغير متصل.
- عظيم للخصوصية والأمن: إذا كان فريقك يتعامل مع البيانات الحساسة ، فيمكن أن يعمل Kubectl-AI بالكامل على جهازك المحلي دون إرسال أي شيء إلى السحابة.
- يساعدك عندما تكون عالقًا: يمكن لـ Kubectl-AAI اقتراح أوامر مفيدة أو تقديم إصلاحات عندما لا يعمل شيء ما. إنه مثل وجود صديق من ذوي الخبرة في الاستعداد.
- سهل الاستخدام في المحطة الخاصة بك: لا تحتاج إلى تعلم واجهة جديدة. يعمل Kubectl-AAI داخل المحطة التي تستخدمها بالفعل ، مع الحفاظ على الأمور بسيطة ومألوفة.
- مفتوح المصدر ويدعمه مهندسو Google: إنه مجاني ، مفتوح للجميع ، وقد صممه الناس في Google الذين يفهمون حقًا Kubernetes. يمكنك حتى المساهمة إذا كنت تريد.
المتطلبات الأساسية
- Kubernetes الكتلة.
- تم تثبيت KUBECTL وتكوينه للوصول إلى الكتلة.
- مفتاح API لنموذج الذكاء الاصطناعى المختار (على سبيل المثال ، الجوزاء ، Openai ، أو Grok) أو إعداد LLM المحلي مع Ollama.
كيف يعمل Kubectl-AAI
إليك كيفية عملها بشكل عام:
- قم بتثبيت البرنامج المساعد Kubectl-AI على جهازك المحلي
- باستخدام ثنائيات مسبقة (قم بتنزيل أحدث إصدار من Github)
- باستخدام البيرة (لماكوس)
Brew Tap Sozercan/Kubectl-Ai https://github.com/sozercan/kubectl-ai
مشروب تثبيت kubectl-ai
- قدم مفتاح API الخاص بك عبر متغير البيئة (Gemini ، Openai ، أو Grok) أو إعداد LLM المحلي مع Ollama)
export GEMINI_API_KEY=your_api_key_here
أو يمكنك أيضًا تحديد نماذج الجوزاء المختلفة:
kubectl-ai --model gemini-2.5-pro-exp-03-25# Using the faster 2.5 flash model
kubectl-ai --quiet --model gemini-2.5-flash-preview-04-17 "check logs for nginx app in hello namespace"
- باستخدام نماذج الذكاء الاصطناعى المحلي مع Ollama
# Assuming ollama is running and you've pulled the gemma3 model# ollama pull gemma3:12b-it-qat
kubectl-ai --llm-provider ollama --model gemma3:12b-it-qat --enable-tool-use-shim
export OPENAI_API_KEY=your_openai_api_key_here
kubectl-ai --llm-provider=openai --model=gpt-4.1
اقرأ المزيد: كيفية نسخ الملفات من القرون إلى الجهاز المحلي باستخدام KUBECTL CP؟
- عند استخدام أمر KUBECTL AI ، يتم إرسال المطالبة الخاصة بك إلى نموذج الجوزاء. بمجرد تثبيته وتكوينه ، يمكنك استخدام Kubectl-AI بعدة طرق:
ما عليك سوى تشغيل kubectl-ai دون حجج لإدخال قذيفة تفاعلية حيث يمكنك إجراء محادثة مع المساعد ، وطرح أسئلة متعددة مع الحفاظ على السياق.
يمكنك أيضًا تشغيل kubectl-ai بمهمة محددة:
kubectl-ai "fetch logs for nginx app in hello namespace"
kubectl-ai < query.txt
# OR
echo "list pods in the default namespace" | kubectl-ai
# OR
cat error.log | kubectl-ai "explain the error"
- يفسر النموذج طلبك ويعود:
- أمر CLI (مثل KUBECTL GET PODS – NAMESPACE = WEB)
- بيان يامل
- شرح أو مساعدة مساعدة
- أخيرًا ، تتم طباعة الاستجابة إلى المحطة الخاصة بك ، ويمكنك اختيار نسخها أو تشغيلها أو تحسينها.
يعمل المكون الإضافي كمساعد ذكي ، وليس مجرد مولد رمز. فيما يلي بعض الكلمات الرئيسية الخاصة المستخدمة:
- نموذج: لسرد النموذج المحدد الحالي.
- النماذج: لسرد جميع النماذج المتاحة.
- إصدار: لعرض إصدار Kubectl-AA.
- إعادة ضبط: لمسح سياق المحادثة.
- واضح: لمسح الشاشة الطرفية.
- الخروج أو التوقف: لإنهاء القشرة التفاعلية.
Kubectl-AA: تغيير لعبة لمستقبل العمليات السحابية الأصلية
تعيد Kubectl-AAI تحديد كيفية تفاعل فريق المطورين وفرق DevOps مع Kubernetes. من خلال السماح لك باستخدام اللغة الطبيعية بدلاً من حفظ الأوامر المعقدة ، فإنه يزيل احتكاك الأعلام ، وبناء الجملة ، ومسارات Yaml التي تجلب قوة الذكاء الاصطناعي مباشرة إلى المحطة. تم تصميمها من قبل مهندسي Google ، وهي أداة مفتوحة المصدر أكثر من مجرد اختصار. سواء كنت SRE محنك أو جديد على Kubernetes ، فإنه يجعل العمل مع مجموعات أسرع وأسهل وأكثر سهولة.