Daniela Amodei di Anthropic racconta come continui a seguire la propria testa (e i propri principi) in piena frenesia mediatica per l'IA

Amodei resized

Amodei è cofondatrice di Anthropic insieme al fratello Dario. L'azienda vuole che gli esseri umani restino al centro della storia dell'intelligenza artificiale.

Per Daniela Amodei, cofondatrice e presidente dell'azienda di IA generativa Anthropic, l'improvvisa esplosione dell'interesse per il suo settore è stata un'occasione di riflessione. "Ci si può sentire sopraffatti pensando a come il mondo intero stia reagendo all'IA", ha detto Amodei. "Dobbiamo porci internamente la domanda: perché l'abbiamo fatto? Perché abbiamo fondato Anthropic? Perché vogliamo contribuire a rendere i sistemi di IA più sicuri fin dal primo giorno".

Già da febbraio Anthropic, registrata come società di pubblica utilità e specializzata nella sicurezza e nella ricerca sull'intelligenza artificiale, ha annunciato una partnership con Google, chiuso un round di finanziamento da 450 milioni di dollari e rilasciato il suo chatbot Claude (compreso il modello più recente, Claude 2, rilasciato ieri). I due anni precedenti sono stati una corsa alla creazione di un modello linguistico di grandi dimensioni in un'azienda in piena espansione, che sta anche pubblicando ricerche e conducendo la discussione sull'intelligenza artificiale nel mondo dei media, della politica e della tecnologia stessa. In questa fase di crescita, Anthropic ha scelto Stripe, confidando nel fatto che la scalabilità e l'orientamento internazionale della piattaforma di pagamenti di Stripe le consentiranno di servire un numero di clienti in forte crescita in tutto il mondo.

Amodei ha parlato con Stripe del motivo per cui ritiene che una missione di tale portata sia così cruciale e del perché pensa che un'azienda il cui scopo è quello di portare benefici all'umanità nel suo complesso possa avere successo in un mercato così affollato e competitivo.

Cosa c'è dietro il nome Anthropic? Perché avete scelto questo termine?

Uno dei motivi è che "antropico" significa relazionarsi con gli esseri umani e una parte davvero importante per noi, che lavoriamo a questi strumenti di IA generativa sempre più potenti che interagiscono con il mondo, è assicurarci che gli esseri umani restino sempre al centro di questa storia. Speriamo che le persone utilizzino Claude come un partner o un collaboratore che aiuti gli esseri umani a fare le cose che vogliono fare e a vivere la vita che vogliono vivere. Ci assicuriamo inoltre che gli esseri umani siano anche al centro del nostro processo, sia che si tratti dell'apprendimento per rinforzo dal feedback umano, o semplicemente di riflettere su quanto crescerà l'impatto dell'IA a livello globale.

Come avete fatto a concretizzare questa missione in una serie specifica di progetti su cui lavorare al momento del lancio?

Dopo aver lasciato OpenAI, abbiamo dovuto ricostruire da zero un modello linguistico generativo di grandi dimensioni. Nel primo anno, quindi, ci siamo occupati di avviare l'azienda, raccogliere fondi, curare tutti i dettagli, concentrandoci sull'addestramento di questo modello linguistico di grandi dimensioni.

Ma abbiamo anche svolto ricerche sulla sicurezza per cercare di renderlo il modello più sicuro disponibile sul mercato. Quando abbiamo iniziato avevamo qualcosa come sei team e la maggior parte di essi lavorava sulla sicurezza direttamente all'interno del modello o al livello superiore. Abbiamo sempre avuto l'intenzione di distribuire un prodotto, ma in realtà, fino a circa sei-nove mesi fa, eravamo solo un laboratorio di ricerca.

Qual è, secondo lei, il vantaggio di far lavorare i fisici su questi temi? È stata una scelta intenzionale?

Mio fratello Dario, che è il CEO, ha un dottorato di ricerca in fisica e lo stesso vale per il nostro Chief Science Officer, Jared Kaplan, che è anche uno dei nostri cofondatori. In parte, quindi, è stata una questione di networking. Ma credo anche che gran parte del lavoro per cui il nostro team era più conosciuto fosse svolto da persone con questo background. Probabilmente le due cose per cui eravamo più conosciuti erano essere il team che ha sviluppato GPT-3 ed essere il team che ha scritto l'articolo sulle leggi di scala, su come prevedere quando certe capacità si affermeranno nei sistemi di intelligenza artificiale generativa. Questa ricerca è nata dall'applicazione dei principi della fisica all'IA.

Lei lavora in questo campo da un po' di tempo, ma sembra che il resto del mondo lo stia scoprendo all'improvviso. Cosa significa aver fondato un'azienda nel bel mezzo di questo uragano?

Raccontavo a mio marito che a volte ci si sente un po' come quando si corre giù per le scale molto velocemente. Non puoi fermarti a pensare o rischi di cadere. Questo non vuol dire che non riflettiamo su ciò che facciamo, perché l'aspetto davvero importante per me è rimanere radicati ai nostri principi e fare la nostra parte. Ci si può sentire sopraffatti pensando a come il mondo intero sta reagendo all'IA, a come i diversi gruppi e stakeholder si relazionano a questa tecnologia. Dobbiamo quindi porci internamente la domanda: perché l'abbiamo fatto? Perché abbiamo fondato Anthropic? Perché vogliamo contribuire a rendere i sistemi di IA più sicuri fin dal primo giorno.

Come si fa a trasmettere a investitori e potenziali partner il valore della cautela e della massima attenzione?

Credo che fiducia e sicurezza siano le principali richieste del mercato. Pensiamo che si tratti di interventi corretti dal punto di vista morale, ma anche positivi per il business. Naturalmente possono verificarsi casi in cui questi due aspetti entrano in conflitto, ma nella nostra esperienza riteniamo che vadano abbastanza di pari passo.

Persone e aziende non vogliono modelli che producano risultati dannosi, disonesti o inutili. Se proponi: "Ehi, posso offrirti un modello linguistico? Ti mentirà circa la metà delle volte e probabilmente produrrà contenuti dannosi", nessun consumatore ti risponderà: "Sembra fantastico, sono felice di pagarti per questo". La gente ci chiede un tasso di falsi positivi molto più vicino allo zero di quello attualmente disponibile. Vogliono la versione più sicura del modello.

Come si svolgono le sue giornate?

Non sono un tipo mattiniero per natura, ma ho modificato i miei orari per diventarlo. Mi alleno quasi tutte le mattine, di buon'ora, e poi passo un po' di tempo con mio figlio Galileo e mio marito. Mi aiuta ad affrontare la giornata di buon umore.

Per quanto possibile, cerco di avere un paio d'ore libere all'inizio della giornata lavorativa per dedicarmi ai progetti più importanti e avere un po' di tempo libero per pensare. Il resto della mia giornata è legato alle riunioni: ho un programma più da manager che da progettista. Si tratta di una combinazione di incontri individuali, sincronizzazioni di team, eventi esterni, riunioni strategiche e decisionali, reclutamento e altro. Cerco sempre di ritagliarmi un po' di tempo per incontrare i nuovi assunti e conoscere la loro esperienza in Anthropic, anche se con la crescita dell'azienda diventa sempre più difficile!

Tyler Cowen ha scritto di recente su Bloomberg che l'IA potrebbe significare la fine delle grandi strutture aziendali come le conosciamo oggi, perché il prodotto è in grado di gestirsi da solo. Pensa che Anthropic avrà bisogno di personale?

L'unità di valore creata per ricercatore è probabilmente più alta di quella che può osservare in un'azienda tradizionale, ma è comunque necessario un certo numero di persone per vendere il prodotto e occuparsi dell'assistenza clienti e del controllo qualità. Quando abbiamo sviluppato Claude v1, eravamo circa 60 persone. Ora siamo vicini alle 140 persone e gran parte della crescita ha riguardato le attività commerciali e di prodotto, l'assistenza clienti, la fiducia e la sicurezza.