Daniela Amodei de Anthropic, habla sobre cómo mantiene la cordura y sus principios en medio del frenesí mediático sobre la IA.

Amodei resized

Amodei fundó Anthropic junto con su hermano Dario. La empresa quiere contribuir a mantener al ser humano en el centro de la historia de la IA.

Para Daniela Amodei, cofundadora y presidenta de la empresa Anthropic, dedicada a la IA generativa, la repentina explosión de interés en su campo ha generado una oportunidad para reflexionar. «Puede resultar abrumador intentar pensar en cómo está reaccionando el mundo entero a la IA», comenta. «Tenemos que hacer una reflexión a nivel interno: "¿Por qué lo hicimos? ¿Por qué creamos Anthropic?" La respuesta es que queremos hacer que los sistemas de IA sean más seguros desde el primer día».

Desde febrero, Anthropic, que está registrada como corporación de utilidad pública y se especializa en seguridad e investigación de IA, ha anunciado una asociación con Google, cerró una ronda de financiación de 450 millones de dólares y sacó al mercado su chatbot Claude (incluido el nuevo modelo, Claude 2, que se lanzó ayer). Los dos años anteriores fueron una lucha por crear un modelo de lenguaje a gran escala y hacer crecer una empresa que también publica artículos de investigación y lidera el debate sobre la inteligencia artificial en los medios de comunicación, la política y la propia tecnología. En medio de este crecimiento, Anthropic ha recurrido a Stripe confiando en que la escalabilidad y el enfoque internacional de la plataforma de pagos de Stripe le permitan atender a un número de clientes en rápido crecimiento a nivel mundial.

Amodei explicó a Stripe por qué cree que una misión tan amplia es tan importante y por qué opina que una empresa cuya finalidad es beneficiar a la humanidad a gran escala puede tener éxito en un mercado abarrotado y competitivo.

¿Qué hay detrás del nombre «Anthropic»? ¿Por qué elegisteis esa palabra?

Un motivo es que la palabra «antrópico» significa «relativo al ser humano» y buena parte de lo que ha sido importante para nosotros es asegurarnos de que los seres humanos siguen siendo el centro de la historia, a medida que trabajamos en unas herramientas de IA generativa más potentes que nunca en su interacción con el mundo. Esperamos que la gente utilice Claude como socio o colaborador que ayude a las personas a hacer lo que quieren hacer y vivir las vidas que quieren vivir. También nos aseguramos de que las personas se encuentren en el centro de nuestro proceso, tanto si es para reforzar el aprendizaje a partir de los comentarios humanos o solo para reflexionar sobre cómo va a impactar la IA en el mundo en su conjunto.

¿Cómo conseguisteis acotar esa misión a un conjunto específico de proyectos en los que trabajar a la hora de lanzar el producto?

Cuando acabábamos de dejar OpenAI, tuvimos que volver a desarrollar un modelo de lenguaje generativo nuevo a gran escala desde cero. Por ello, nuestro primer año se centró en poner en marcha y dirigir una empresa, recaudar fondos y encargarnos de los entresijos, enfocados en entrenar este gran modelo de lenguaje.

Sin embargo, también estábamos realizando la investigación de seguridad para intentar convertirlo en el modelo más seguro disponible en el mercado. Cuando empezamos teníamos alrededor de seis equipos, y la mayoría de ellos trabajaban en la seguridad del modelo o directamente en este. Siempre tuvimos planes para implementar un producto, pero en realidad éramos una empresa de investigación entre los últimos seis a nueve meses.

¿Cuál crees que es la ventaja de que los físicos trabajen en estos temas? ¿Fue una elección intencional?

Mi hermano Dario, que es el CEO, tiene un doctorado en Física, al igual que nuestro director científico, Jared Kaplan, que también es uno de nuestros cofundadores. Así que parte de ello fue una cuestión de tener contactos, aunque también creo que gran parte del trabajo por el que nuestro equipo era más conocido fue realizado por profesionales con esa formación. Probablemente las dos cosas por las que más se nos conocía era por ser el equipo que desarrolló GPT-3 y el equipo que escribió este artículo sobre leyes de escalabilidad, sobre cómo predecir cuándo surgirán determinadas funcionalidades en los sistemas de IA generativa. Esa investigación procedía de aplicar principios físicos a la IA.

Llevas un tiempo trabajando en este campo, pero parece que el resto del mundo lo acaba de descubrir de repente. ¿Cómo es ser fundadora de una empresa en medio de este huracán?

Le estaba diciendo a mi marido que a veces se parece un poco a cuando bajas las escaleras corriendo muy rápido. No puedes pensar mucho en ello porque si no te vas a caer, pero eso no significa que no reflexionemos sobre nosotros mismos, ya que para mí es muy importante basarnos en nuestros principios y hacernos corresponsables. Puede resultar abrumador intentar pensar en cómo está reaccionando el mundo entero a la IA y cómo están interactuando con ella los distintos grupos. Por ello tenemos que hacer una reflexión a nivel interno: «¿Por qué lo hicimos?» «¿Por qué creamos Anthropic?» La respuesta es que queremos hacer que los sistemas de IA sean más seguros desde el primer día.

¿Cómo vendes a los inversores y posibles socios el valor de la cautela y la reflexión?

Creo que la confianza y la seguridad es algo que quiere el mercado. Pensamos que es lo correcto desde una perspectiva moral, pero que también es bueno para la empresa. Por supuesto, puede haber casos en las que ambas cosas entren en conflicto, pero desde nuestra experiencia hemos visto que pueden sincronizarse en buena medida.

Los particulares y empresas no quieren modelos que produzcan resultados dañinos, deshonestos ni poco útiles. Si dices «Hola, ¿quieres un modelo lingüístico? Te va a mentir la mitad del tiempo y seguramente generará contenido tóxico», ningún cliente te va a responder «Me parece estupendo, me encantaría pagarte por ello». La gente quiere que la tasa de falsos positivos esté mucho más cerca de cero de lo que está disponible en la actualidad. Quieren la versión más segura del modelo.

¿Cómo es tu día a día?

Por mi forma de ser no suelo ser una persona muy activa por las mañanas, pero he cambiado mi horario para que sea así. Trabajo casi todas las mañanas desde muy temprano y después paso tiempo con mi hijo, Galileo, y mi marido. Eso me ayuda a estar de buen humor durante el día.

Hago un gran esfuerzo por dejarme un par de horas libres nada más comenzar la jornada laboral para abordar grandes proyectos y tener algo de tiempo para reflexionar. El resto del día me lo paso en reuniones, tengo un horario más propio de una jefa que de una creadora. Es una combinación de reuniones individuales, sincronizaciones de equipo, eventos externos, reuniones de estrategia y de toma de decisiones y contratación, entre otras cosas. Siempre intento dejar algo de tiempo para reunirme con los nuevos empleados y que me hablen de su experiencia en Anthropic, aunque se está volviendo más difícil a medida que crece la empresa.

Tyler Cowen escribió hace poco en Bloomberg que las IA podrían significar el fin de las grandes estructuras corporativas tal y como las conocemos, porque el producto se gestiona a sí mismo. ¿Crees que en algún momento Anthropic tendrá que ampliar su plantilla?

La unidad de valor creada por investigador probablemente sea superior a la que se pueda ver en una empresa tradicional, pero se sigue necesitando un determinado número de personas para vender el producto, ofrecer el servicio de atención al cliente y realizar el control de calidad. Cuando desarrollamos Claude v1, éramos cerca de 60 personas; ahora somos aproximadamente 140 y la mayor parte de nuestro crecimiento ha sido en el lado empresarial y del producto, ofreciendo un buen servicio de atención al cliente, confianza y seguridad.