May 20, 4:00 – 5:00 PM (UTC)
Cosa succede quando uniamo la potenza diagnostica di K8sGPT con l'efficienza di un modello LLM open-source come Gemma 3, eseguito interamente in locale tramite Ollama?
In questo talk scoprirai come potenziare l'observability e il troubleshooting dei cluster Kubernetes usando un assistente AI locale, privato e personalizzabile.
Insieme scopriremo:
✅ Cos'è K8sGPT: uno strumento open source che sfrutta l’intelligenza artificiale per analizzare eventi, errori, log ed errori nelle configurazioni dei cluster Kubernetes, offrendo suggerimenti chiari e azioni correttive
✅ Come eseguire K8sGPT con Gemma 3 via Ollama, per un'analisi AI senza necessità di cloud né connessioni esterne
✅ Architettura flessibile e utilizzo di modelli locali per garantire privacy, performance e controllo completo
✅ Casi d'uso reali: come automatizzare la diagnosi dei problemi più comuni nei cluster, anche senza essere un SRE esperto
🚀 Ideale per chi lavora con Kubernetes, ma anche per sviluppatori curiosi di esplorare l'uso pratico dei modelli linguistici nel mondo DevOps.
Over SPA
CTO
Tuesday, May 20, 2025
4:00 PM – 5:00 PM (UTC)
Over SpA
Tech Lead
CONTACT US