Daniela Amodei d'Anthropic explique comment garder son calme (et ses principes) malgré la frénésie médiatique autour de l'IA

Amodei resized

Daniela Amodei a fondé Anthropic avec son frère Dario. L'entreprise tient à placer l'humain au cœur de l'IA.

Pour Daniela Amodei, la cofondatrice et présidente de l'entreprise d'IA générative Anthropic, l'explosion de l'intérêt pour son domaine d'activité a été l'occasion d'ouvrir une vraie réflexion. « Le fait de réfléchir à l'accueil que le monde entier réserve à l'IA peut rapidement pousser à s'égarer. Pour garder le cap, nous devons nous demander : pourquoi avons-nous choisi cette voie ? Pourquoi avons-nous fondé Anthropic ? Et la réponse est simple : nous voulons sécuriser les systèmes basés sur l'IA dès leur conception. »

Depuis février, Anthropic, une entreprise d'intérêt public spécialisée dans la sécurité et la recherche en lien avec l'IA, a annoncé un partenariat avec Google, récolté 450 millions de dollars et lancé son chatbot Claude, puis son successeur, Claude 2, dévoilé hier. Les deux années précédentes ont été un combat de tous les instants : il lui a fallu créer un grand modèle de langage tout en développant une entreprise et en publiant des résultats de recherche. Anthropic est aussi l'organisation de référence en ce qui concerne l'utilisation de l'intelligence artificielle dans le monde des médias, de la politique et de la technologie. C'est pendant cette période qu'elle s'est tournée vers Stripe, persuadée que l'évolutivité et la présence mondiale de la plateforme de paiement lui permettraient de répondre aux besoins d'une clientèle internationale et toujours plus nombreuse.

Daniela Amodei a expliqué à Stripe pourquoi elle estime que cette vaste mission est indispensable et qu'une entreprise dont l'objectif est de servir la société dans son ensemble peut réussir dans un marché très concurrentiel.

Pour commencer, pourquoi avoir nommé votre entreprise « Anthropic » ?

Eh bien, l'adjectif « anthropique » désigne tous les phénomènes liés à l'activité humaine. Et ce qui est notamment très important pour nous dans notre travail sur cette IA générative toujours plus puissante, c'est de nous assurer que l'être humain reste au centre de son interaction avec le monde. Nous espérons que Claude deviendra un partenaire ou un collaborateur qui accompagne les êtres humains dans leurs activités et leurs vies. Nous veillons également à ce que l'être humain reste au centre de nos processus, qu'il s'agisse de renforcer l'apprentissage à partir de retours humains ou tout simplement de réfléchir à l'impact qu'aura l'IA plus largement dans le monde.

Comment êtes-vous parvenus à traduire ces grands objectifs en projets plus spécifiques lors de la création de l'entreprise ?

Lorsque nous avons quitté OpenAI, nous avons dû recréer un modèle génératif à partir de zéro. La première année a donc consisté à créer l'entreprise, lever des fonds, assurer l'aspect pratique et entraîner notre modèle.

Mais en parallèle, nous menions des recherches pour en faire le modèle le plus sûr du marché. Au départ, nous avions environ six équipes, et la majorité d'entre elles travaillait directement ou indirectement sur la sécurité du modèle. Notre objectif à terme était bien de déployer un produit, mais il y a encore six ou neuf mois, nous étions principalement un atelier de recherche.

Selon vous, quel est l'avantage de faire travailler des physiciens sur ces problématiques ? Est-ce un choix délibéré ?

Dario, mon frère, est le PDG de l'entreprise et détient un doctorat en physique, tout comme notre directeur de la recherche, Jared Kaplan, qui est aussi un de nos cofondateurs. C'est donc en partie une question de réseau. Mais je pense aussi que le travail qui nous a fait connaître a pour beaucoup été réalisé par des personnes qui ont ce type de parcours. Nous sommes principalement connus pour avoir mis au point GPT-3 et avoir rédigé un article sur les lois d'évolution, qui explique comment prédire à quel moment les systèmes d'IA générative seront capables de bénéficier de certaines fonctionnalités. Toute cette recherche est liée à l'application de principes physiques à l'IA.

Vous travaillez dans le domaine de l'IA générative depuis des années, mais le reste du monde vient finalement de la découvrir, assez abruptement d'ailleurs. Comment s'est passée la création de votre entreprise pendant cette période de turbulences ?

Comme je le disais à mon mari, ce travail c'est parfois comme de dévaler des escaliers : si on réfléchit trop, on risque de tomber. Évidemment, je prends le temps de faire mon introspection, car je tiens absolument à rester fidèle à mes principes et à les mettre en application. Mais le fait de réfléchir à l'accueil que le monde entier réserve à l'IA et aux interactions des divers groupes et parties prenantes avec elle peut rapidement pousser à s'égarer. Pour garder le cap, nous devons nous demander : pourquoi avons-nous choisi cette voie ? Pourquoi avons-nous fondé Anthropic ? Et la réponse est simple : nous voulons sécuriser les systèmes basés sur l'IA dès leur conception.

Comment convainquez-vous vos investisseurs et partenaires potentiels de la valeur de cette approche prudente et délibérée ?

Je pense que le marché est en demande de confiance et de sécurité. Pour nous, notre stratégie est la bonne du point de vue moral, mais aussi commercial. Bien entendu, ces deux aspects peuvent être incompatibles dans certains cas, mais d'après notre expérience, cela fonctionne généralement bien.

Les particuliers et les entreprises ne veulent pas de modèles qui génèrent des contenus dangereux, malhonnêtes ou contre-productifs. Si vous proposez un modèle de langage qui ment une fois sur deux et risque de produire du contenu toxique, aucun consommateur ne va se précipiter dessus. Le marché attend en réalité un taux de faux positifs bien plus proche de zéro que celui des modèles actuels. Il veut les versions les plus sûres.

À quoi ressemble une de vos journées types ?

Je ne suis pas vraiment du matin à la base, mais je m'y suis mise. Je fais du sport presque tous les matins, très tôt, et ensuite je passe du temps avec mon mari et mon fils, Galileo. Cette routine m'aide à démarrer ma journée du bon pied.

Dans la mesure du possible, j'essaie de libérer les deux premières heures de ma journée de travail pour me pencher sur de gros projets et réfléchir à notre stratégie. Le reste de ma journée est monopolisé par des réunions. Je suis plus dans la supervision que dans la production. J'enchaîne les entretiens individuels, les réunions d'équipe, les événements externes, les réunions stratégiques et décisionnelles, les entretiens d'embauche, etc. J'essaie toujours de garder du temps pour rencontrer nos nouvelles recrues et découvrir comment se déroule leur expérience chez Anthropic, même si c'est une habitude que j'ai du mal à conserver au vu de notre croissance !

Tyler Cowen a récemment écrit un article sur Bloomberg expliquant que l'IA pourrait signer la mort des grandes entreprises telles que nous les connaissons aujourd'hui, car le produit serait capable de s'autogérer. Pensez-vous qu'Anthropic continuera à recruter davantage ?

La valeur générée par chaque chercheur est probablement plus élevée que dans une entreprise classique, mais il faut toujours des gens pour vendre votre produit, assurer l'assistance client et gérer le contrôle qualité. Lorsque nous avons développé Claude v1, nous étions environ 60. Aujourd'hui, nous sommes environ 140, et la majorité de cette croissance est liée aux aspects produit et commercial, afin d'assister notre clientèle et de lui apporter confiance et sécurité.