Artificial Intelligence (IA) est de plus en plus considérée comme un ingrédient crucial du succès dans le monde des affaires. Ce n'est pas une surpriserise que les entreprises injectent des milliards dans des outils et des solutions basés sur l'IA.
Le mois dernier, Microsoft a annoncé un investissement de plusieurs milliards de dollars dans la société de recherche en intelligence artificielle OpenAI dans le cadre de la troisième phase du partenariat.
Et maintenant, Google a investi environ 400 millions de dollars (environ 370 millions d'euros) dans Anthropic, une société de sécurité et de recherche sur l'IA, développant un ChatGPT rival, rapports Bloomberg. Cependant, les deux sociétés ont refusé de commenter les chiffres exacts des investissements.
Anthropic a également annoncé avoir choisi Google Cloud comme fournisseur cloud préféré pour co-développer des systèmes d'IA fiables et dignes de confiance.
La société d'intelligence artificielle affirme qu'elle tirera parti des clusters GPU et TPU de pointe de Google Cloud pour former, mettre à l'échelle et déployer ses systèmes d'intelligence artificielle.
"Nous nous associons à Google Cloud pour prendre en charge la prochaine phase d'Anthropic, où nous allons déployer nos systèmes d'IA auprès d'un plus grand nombre de personnes", déclare le PDG d'Anthropic, Dario Amodei. "Ce partenariat nous donne les performances et l'échelle d'infrastructure cloud dont nous avons besoin."
Anthropic affirme qu'il bénéficiera de l'expertise approfondie de Google dans les systèmes à grande échelle pour l'apprentissage automatique et des valeurs partagées autour du développement sûr et bénéfique de l'IA.
"Chez Google, nous pensons qu'il est impératif de poursuivre l'IA avec audace et responsabilité", déclare James Manyika, vice-président senior de la technologie et de la société chez Google.
«Nous nous engageons à développer et à fournir des applications bénéfiques, à appliquer des principes responsables fondés sur les valeurs humaines et la sécurité, et à faire évoluer nos approches à mesure que nous apprenons de la recherche, de l'expérience, des utilisateurs et de la communauté au sens large. Notre partenariat avec Anthropic s'inscrit dans cette philosophie », ajoute Manyika.
"L'IA a évolué à partir de la recherche universitaire pour devenir l'un des principaux moteurs du changement technologique, créant de nouvelles opportunités de croissance et des services améliorés dans tous les secteurs", déclare Thomas Kurian, PDG de Google Cloud.
Kurian ajoute : "Google Cloud fournit une infrastructure ouverte pour la prochaine génération d'IA startups, et notre partenariat avec Anthropic est un excellent exemple de la façon dont nous aidons les utilisateurs et les entreprises à exploiter la puissance d'une IA fiable et responsable.
Fondé par d'anciens dirigeants d'OpenAI
Basé à San Francisco, Anthropique a été fondée en 2021 par d'anciens dirigeants d'OpenAI Inc., dont les frères et sœurs Daniela (présidente) et Dario Amodei (PDG), en tant que société d'utilité publique.
L'entreprise travaille à la construction de systèmes d'IA fiables, interprétables et orientables.
Avant Anthropic, le team a travaillé sur GPT-3, l'interprétabilité basée sur les circuits, les neurones multimodaux, les lois d'échelle, l'IA et le calcul, les problèmes concrets de sécurité de l'IA et l'apprentissage des préférences humaines.
Dans quel but Anthropic travaille-t-il ?
Actuellement, les grands systèmes généraux présentent de nombreux avantages. Cependant, ils peuvent être imprévisibles, peu fiables et opaques. C'est ce à quoi Anthropic vise à répondre - des systèmes d'IA fiables et dignes de confiance.
« Pour l'instant, nous nous concentrons principalement sur la recherche vers ces objectifs ; sur la route, nous prévoyons de nombreuses opportunités pour notre travail de créer de la valeur commerciale et pour le bien public », déclare l'entreprise.
Recherche d'intérêts
Les intérêts de recherche d'Anthropic couvrent plusieurs domaines tels que le langage naturel, la rétroaction humaine, les lois d'échelle, l'apprentissage par renforcement, la génération de code et l'interprétabilité.
Depuis sa création, Anthropic a mené des recherches pour rendre les systèmes plus orientables, robustes et interprétables.
Par conséquent, l'entreprise se concentre principalement sur le développement de Claude, un assistant IA basé sur les recherches de l'entreprise sur la construction d'une IA sûre et orientable.
De plus, la société américaine a développé des techniques de sécurité comme IA constitutionnelle pour concevoir des technologies d'IA plus faciles à utiliser et à comprendre.
Selon Anthropic, l'IA constitutionnelle peut apprendre à suivre un ensemble de principes de langage simple et naturel via l'auto-amélioration, et peut être utilisée comme une nouvelle méthode pour former un assistant plus inoffensif.
Anthropic affirme que le but de cette recherche est de développer les composants techniques nécessaires pour construire des modèles à grande échelle, qui ont de meilleures garanties implicites et nécessitent moins d'interventions après la formation.
En outre, la recherche aidera également à développer les outils nécessaires pour approfondir l'examen de ces modèles afin de s'assurer que les garanties fonctionnent.
L'entreprise construit également teams et partenariats dédiés à l'exploration des impacts politiques et sociétaux de ces modèles.
À ce jour, Anthropic a publié 14 articles de recherche montrant comment construire des modèles de langage fiables et contrôlables.
Financement et investisseurs
Anthropic a levé environ 1 milliard de dollars de financement à ce jour (124 millions de dollars en série A, 580 millions de dollars en série B et 400 millions de dollars de Google) auprès de divers investisseurs tels que Jaan Tallinn, Sam Bankman-Fried, James McClave, Dustin Moskovitz, le Centre pour la recherche sur les risques émergents (CRR), Eric Schmidt, Caroline Ellison, Jim McClave, Nishad Singh, autres.
Anthropic est maintenant en croissance team de plus de 40 personnes basées dans un bureau rempli d'usines à San Francisco, en Californie.