1 agosto 2024. Entra in vigore l’AI Act europeo. La prima legge al mondo sull’intelligenza artificiale. 111 articoli, classificazioni di rischio, obblighi di conformità, burocrazia a tonnellate.
Lo stesso giorno—e giuro che non se lo sono inventato—Meta rilascia Llama 3.1. 405 miliardi di parametri. Open source. Gratis. Scaricabile da chiunque.
Capisci l’ironia? L’Europa passa anni a scrivere regole su come limitare l’AI. Gli USA nel frattempo regalano al mondo il modello più potente mai creato.
L’AI Act finalmente operativo
Parliamoci chiaro: l’AI Act non è tutto sbagliato. Alcune cose hanno senso. Vietare il social scoring alla cinese. Vietare la manipolazione subliminale. Vietare sistemi che sfruttano le vulnerabilità delle persone.
Ma poi leggi i dettagli e capisci dove casca l’asino.
Sistemi ad alto rischio: se usi l’AI per HR, recruiting, valutazione performance, devi fare documentazione, valutazione rischi, supervisione umana, dataset certificati.
Tradotto? Burocrazia. Tanta. Costosa.
Obblighi di trasparenza: se generi contenuti con AI devi dichiararlo. Se un utente interagisce con un chatbot deve saperlo.
Giusto. Ma chi controlla? Come? Con quali sanzioni pratiche?
Il rischio vero è che l’AI Act diventi come il GDPR: uno strumento per avvocati e consulenti, non per innovazione.
Meta scarica una bomba atomica sul mercato
Mentre l’Europa scriveva articoli, Meta ha fatto una cosa pazzesca: ha rilasciato Llama 3.1 con 405 miliardi di parametri. Open source. Licenza permissiva. Gratis.
Context window da 128.000 token. Otto lingue supportate. Performance comparabili a GPT-4.
E non basta. Meta ha lanciato i Llama 3.1 Impact Grants: 2 milioni di dollari per finanziare progetti innovativi che usano Llama.
Tradotto in italiano? Mentre l’Europa ti dice “attento a come usi l’AI”, Meta ti dice “prendila gratis e facci quello che vuoi”.
Perché questo è un game changer
Llama 3.1 non è solo un altro modello. È strategia geopolitica.
Meta ha capito una cosa: non vincerà mai contro OpenAI vendendo API. Ma può vincere rendendo l’AI accessibile a tutti.
Risultato? Migliaia di sviluppatori scaricano Llama, lo integrano, lo ottimizzano, creano soluzioni. E tutte queste soluzioni girano su infrastruttura che—sorpresa—fa comodo a Meta.
Mentre OpenAI ti vende l’accesso, Meta ti regala lo strumento. E costruisce un ecosistema dove tutti dipendono dai suoi modelli.
Geniale. Machiavellico. E soprattutto: funziona.
Dove ti lascia tutto questo
Siamo ad agosto 2024. Hai davanti due strade.
Strada uno: aspettare che l’AI Act sia completamente implementato (2027), capire tutti gli obblighi, assumere consulenti GDPR versione AI, fare valutazioni di rischio, documentare tutto.
Strada due: scaricare Llama 3.1, installarlo sul tuo server (o usarlo tramite Meta AI), e iniziare a integrarlo nei processi aziendali oggi.
Indovina quale strada stanno prendendo le aziende americane? E quale stanno prendendo quelle europee?
Il solito discorso sulla sicurezza
Sai perché continuo a fare il paragone con la sicurezza informatica? Perché la dinamica è identica.
Azienda italiana: “Erik, il GDPR ci obbliga a fare X, Y, Z. Costa troppo. Non abbiamo tempo. Vediamo se possiamo rimandare”.
Poi arriva il ransomware. O l’ispezione del Garante. E sono lacrime.
Con l’AI Act sarà uguale. Aziende che aspettano, procrastinano, rimandano. Fino a quando qualcuno non fa un controllo o—peggio—i concorrenti hanno già automatizzato tutto e tu sei ancora fermo.
Ma l’open source è sicuro?
Domanda legittima. Llama 3.1 è open source. Significa che chiunque può prenderlo, modificarlo, usarlo come vuole.
Anche per scopi malevoli? Tecnicamente sì.
Ma sai cosa? Anche GPT-4 può essere usato per scopi malevoli. La differenza è che con Llama puoi almeno controllare cosa fa, modificarlo, adattarlo ai tuoi requisiti di sicurezza.
Con modelli chiusi dipendi da quello che decide OpenAI o Google. Con Llama decidi tu.
Per un’azienda che deve rispettare il GDPR—o peggio ancora l’AI Act—avere il controllo completo del modello è un vantaggio enorme.
Dove saranno i tuoi concorrenti tra 3 mesi
Solita storia. Facciamo un gioco.
Il tuo competitor principale—quello sveglio, quello che ti rompe le scatole—ha scaricato Llama 3.1 la prima settimana di agosto.
Ha iniziato a testarlo. Ha integrato qualche processo. Ha formato un paio di persone.
Tra 3 mesi—novembre 2024—avrà già automatizzato una parte significativa delle operazioni. Costi ridotti. Velocità aumentata. Margini migliorati.
E tu? Tu sarai ancora lì a leggere l’AI Act cercando di capire in quale categoria di rischio rientra il tuo caso d’uso?
Come sempre: chi agisce mangia. Chi aspetta guarda gli altri mangiare.
La vera lezione di agosto 2024
L’Europa ha fatto una scelta: regolare prima di innovare. Gli USA hanno fatto la scelta opposta: innovare e poi aggiustare.
Tra 5 anni vedremo chi aveva ragione. Ma io una scommessa la farei già ora.
E tu? Tu su chi scommetti? Sul continente che scrive regole o su quello che regala modelli da 405 miliardi di parametri?
Se vuoi capire come usare Llama 3.1—o qualsiasi altro strumento AI—nella tua azienda rispettando GDPR e AI Act senza diventare pazzo, sai dove trovarmi.
Ma se preferisci aspettare che “sia tutto più chiaro”, preparati a guardare i concorrenti prendere il mercato mentre tu studi i regolamenti.
L’innovazione non aspetta le autorizzazioni. O corri, o guardi gli altri correre.