Obiettivi - Evitare i pericoli reali - Scaling e troubleshooting - Guardare al futuro post-OpenAI
Contenuti principali - Sicurezza: Docker sandbox, permission minime, spending limits, no root access - Problemi noti: prompt injection, agenti “ribelli” (articoli NYT/Wired feb 2026) - Casi studio: automazione business, coding 24/7, home assistant - Futuro: fondazione open-source + supporto OpenAI, multi-agente avanzato
Risorse - SECURITY.md su GitHub - Guida Microsoft sicurezza: cerca “Running OpenClaw safely Microsoft” - Community: https://discord.gg/clawd - Podcast Lex Fridman con Peter: cerca “Peter Steinberger Lex Fridman OpenClaw”
Esercizio finale Progetta un tuo caso d’uso reale (personale o lavorativo). Condividi nel gruppo del corso / Discord.
[Descrizione passo passo]
[Extra]