Khi môi trường Kubernetes ngày càng phức tạp, các nhà phát triển và vận hành thường xuyên phải đối mặt với tình trạng quá tải thông tin từ việc nhớ chính xác cú pháp lệnh kubectl
, cú pháp YAML cho đến quy trình xử lý sự cố. Vậy nếu bạn chỉ cần “nói chuyện” với Kubernetes bằng tiếng Anh đơn giản thì sao?

Giới thiệu
kubectl-ai một plugin CLI do Google Cloud phát triển, giúp bạn tích hợp AI vào quy trình làm việc với dòng lệnh Kubernetes. Điều tuyệt vời hơn nữa? Bạn có thể chạy nó cục bộ và riêng tư bằng cách sử dụng Ollama, một runtime mạnh mẽ hỗ trợ các mô hình mã nguồn mở như LLaMA, Mistral,…
Trong bài viết này, mình sẽ hướng dẫn bạn:
- kubectl-ai là gì
- Cách cài đặt nó
- Cách kết nối với mô hình local qua Ollama
- Một số ví dụ sử dụng thực tế
- Nhận xét cuối cùng về quyền riêng tư, hiệu năng và khả năng mở rộng
kubectl-ai là gì?
kubectl-ai là một plugin mở rộng cho kubectl, cho phép bạn tương tác với cụm Kubernetes bằng ngôn ngữ tự nhiên. Ví dụ:
- “Scale my frontend deployment to 5 replicas”
- “List all pods in crashloop”
- “Generate a deployment YAML for a Redis instance”
Plugin sẽ chuyển các câu lệnh này thành chính xác các lệnh kubectl
hoặc các manifest YAML tương ứng.
Theo mặc định, kubectl-ai
kết nối tới OpenAI API, nhưng bạn hoàn toàn có thể cấu hình nó với bất kỳ API nào tương thích với OpenAI và đó chính là lúc Ollama phát huy sức mạnh.
Tại sao nên dùng Ollama?
Ollama cho phép bạn chạy các mô hình ngôn ngữ lớn (LLMs) như LLaMA 3, Mistral, hoặc Phi-3 ngay trên máy tính cá nhân, với API tương thích OpenAI. Điều này đồng nghĩa với:
- Dữ liệu không rời khỏi máy của bạn
- Không tốn phí token
- Suy luận nhanh cục bộ (đặc biệt nếu có GPU)
Đây là lựa chọn thay thế hoàn hảo cho OpenAI nếu bạn ưu tiên quyền riêng tư, toàn quyền kiểm soát, và khả năng tùy biến.
Hướng dẫn từng bước: Cài đặt kubectl-ai với Ollama
Bước 1: Cài đặt kubectl-ai
Bạn có thể cài đặt plugin kubectl-ai
bằng cách sử dụng lệnh sau:
kubectl krew install ai
Nếu bạn chưa cài krew
(trình quản lý plugin cho kubectl
), hãy cài đặt trước bằng hướng dẫn chính thức tại: https://krew.sigs.k8s.io/docs/user-guide/setup/install/
Hoặc clone repo từ GitHub:
git clone https://github.com/GoogleCloudPlatform/kubectl-ai
cd kubectl-ai
make install
Bước 2: Cài và chạy Ollama
Với macOS:
brew install ollama
Sau đó tải và chạy model:
ollama run mistral
Lúc này Ollama sẽ mở API tương thích OpenAI tại: http://localhost:11434/v1
Bước 3: Cấu hình kubectl-ai dùng Ollama
Tạo hoặc chỉnh file ~/.kubectl-ai/config.yaml
:
model:
provider: openai
openai:
base_url: http://localhost:11434/v1
api_key: sk-ollama-does-not-need-this
model: mistral
(Lưu ý api_key
là chuỗi giả — Ollama không cần nhưng kubectl-ai
yêu cầu có trường này)
Ví dụ lệnh sử dụng:
-
Scale một deployment:
kubectl ai "Scale the auth service to 4 replicas"
-
Lấy pod lỗi:
kubectl ai "Get all pods in CrashLoopBackOff in kube-system"
-
Tạo YAML:
kubectl ai "Create a Kubernetes deployment for nginx with 3 replicas"
Mẹo dùng hiệu quả hơn:
- Viết prompt ngắn gọn, rõ ràng.
- Thử nhiều model khác như
llama3
,phi3
,codellama
. - Bật verbose để debug request/response.
- Tích hợp vào công cụ nội bộ giúp onboarding nhanh.
Kết luận
Với kubectl-ai
+ Ollama
, bạn có thể dùng ngôn ngữ tự nhiên để thao tác với Kubernetes hoàn toàn cục bộ, không cần gửi dữ liệu ra ngoài. Đây là bước tiến quan trọng trong DevOps hiện đại: CLI tích hợp AI, bảo mật riêng tư và tối ưu trải nghiệm.