4. L’ottimizzazione dei costi AI diventerà una priorità assoluta
Con i carichi di lavoro AI destinati a crescere di
cinque volte entro il 2029, nel 2026 i CIO stanno concentrando sempre più l’attenzione sul “triangolo dell’AI”: costo, performance e accuratezza.
Sebbene i modelli frontier più recenti siano spesso molto più capaci (e molto più onerosi) dei loro predecessori, ciò non significa necessariamente che siano la scelta migliore per molte attività aziendali.
Un bot per lo screening delle candidature ha davvero bisogno della capacità di ragionamento (e del costo) di un modello a livello PhD? Probabilmente no.
Un modello più piccolo e specializzato è verosimilmente “abbastanza buono” per filtrare 500 candidati e ridurli a 10 sulla base di criteri imprescindibili, con un approvatore umano nel loop.
Massimizzare l’ROI significa quindi adottare capacità adeguate allo scopo, non scegliere sempre modelli con più parametri.
Questa esigenza di ottimizzare l’AI sta alimentando il crescente interesse verso gli Small Language Models (SLM), che richiedono meno risorse computazionali e, in molti casi, possono essere eseguiti su hardware locale come edge AI.
Ciò non solo riduce in modo significativo i costi cloud, ma risolve anche i problemi di data sovereignty, mantenendo i dati sensibili sul dispositivo.
Sebbene queste capacità siano ideali per attività basate su regole, ripetitive o sensibili, la potenza del cloud resterà indispensabile per casi d’uso complessi, data‑heavy o che richiedono risposte in tempo reale su larga scala (molti utenti in parallelo).
Per i CIO, l’obiettivo non è scegliere tra cloud ed edge, ma governare entrambi con la stessa disciplina finanziaria.
FinOps fornisce il modello operativo per farlo: una pratica cross‑functional che integra visibilità dei costi in tempo reale e accountability nelle decisioni tecnologiche, così che i team possano fare scelte esplicite tra costo, performance e accuratezza man mano che l’AI scala.