Elon Musk a témoigné devant un tribunal fédéral de Californie que sa startup d’intelligence artificielle, xAI, avait utilisé la technologie OpenAI pour créer son chatbot, Grok. Au cours du procès, Musk a confirmé que xAI utilisait une « distillation de modèles », un processus dans lequel une version plus petite de l’IA apprend des résultats d’un « enseignant » plus grand et plus structuré. Bien que l’industrie technologique soit sceptique quant au fait que les laboratoires américains utilisent ces méthodes pour rester compétitifs, l’acceptation de Musk montre la confirmation publique de cette pratique parmi les principaux concurrents.
Le témoignage a eu lieu dans le cadre du procès en cours contre Musk, le PDG d’OpenAI, Sam Altman, et Greg Brockman. Musk affirme que l’organisation a violé sa mission initiale à but non lucratif en passant à un modèle à but lucratif. Lorsqu’on lui a demandé si xAI avait perturbé la technologie d’OpenAI, Musk l’a d’abord qualifié de « tendance » parmi toutes les entreprises d’IA avant d’admettre que xAI « avait fait » cela. xAI rattrapera cette année et battra toutes les autres sociétés de loin : Elon Musk.
Comprendre la distillation des modèles et les normes industrielles pour l’IA
Le raffinement du modèle est une technique de formation dans laquelle le modèle « apprenant » est affiné en fonction des réponses et des hypothèses du modèle « limite ». Bien que les laboratoires pionniers sous-traitent souvent leurs principales marques pour produire des marques plus petites et plus efficaces pour leurs clients, utiliser la marque d’un concurrent pour combler l’écart est une stratégie très controversée. Musk a défendu le processus dans son témoignage en déclarant : « C’est une pratique courante d’utiliser d’autres IA pour valider votre IA. »
Cette approche permet aux nouvelles entreprises de devenir plus efficaces sans les milliards de dollars en puissance de calcul nécessaires pour former un modèle à partir de zéro. En demandant une API établie, les startups peuvent « télécharger » les informations du leader du marché à une fraction du prix. Bien que la légalité de la distillation reste une sorte de « zone grise », de nombreux grands laboratoires d’IA incluent dans leurs termes de référence des clauses interdisant l’utilisation de leur production pour former des concurrents.
Préoccupations croissantes concernant le vol de propriété intellectuelle et les attaques par distillation
L’approbation intervient à un moment critique pour l’industrie de l’IA. Des entreprises de premier plan telles qu’OpenAI, Anthropic et Google ont récemment développé des stratégies via le Frontier Model Forum pour lutter contre ce qu’elles décrivent comme des « attaques par distillation ». Une grande partie de cela s’est concentrée sur les entreprises chinoises, qui ont été accusées d’examiner les modèles américains pour créer des alternatives open source qui rivalisent avec la technologie américaine.
Google et Anthropic ont démontré l’utilisation illégale de leurs modèles éducatifs comme une forme de vol de propriété intellectuelle. Ces entreprises utilisent désormais des mesures de sécurité pour détecter et bloquer les « requêtes suspectes » qui semblent être formées par l’exemple plutôt que par des personnes ordinaires. La confirmation par Musk qu’un laboratoire américain bien connu mène des procédures similaires ajoute à la complexité du débat sur l’utilisation équitable et l’éthique des entreprises.
Le paysage concurrentiel du développement mondial de l’IA
Bien qu’il ait utilisé des techniques de distillation, Musk a fourni dans son témoignage une évaluation réaliste de la domination actuelle de l’IA. Ils ont sélectionné les leaders du marché, plaçant Anthropic en première position, suivi d’OpenAI et de Google. Il a également vu le grand potentiel des modèles ouverts chinois, qu’il a mis au premier plan de son travail.
Musk a décrit xAI comme un concurrent plus petit, employant quelques centaines de personnes par rapport aux milliers d’ingénieurs avec lesquels il est en concurrence. Il a précédemment déclaré que xAI séduirait presque toutes les entreprises du secteur, mais ce qu’il a dit devant le tribunal a donné une vision similaire des défis liés à la recherche de dirigeants de premier plan possédant une solide expérience dans les données et les ressources informatiques.
Implications juridiques des poursuites contre OpenAI
Accepter l’utilisation des données OpenAI pour former Grok pourrait affecter le cours de la bataille juridique de Musk. Alors que Musk critique OpenAI pour avoir abandonné ses racines à but lucratif, l’équipe juridique d’OpenAI peut utiliser ses preuves pour affirmer que xAI a bénéficié directement des activités lucratives critiquées par Musk. xAI d’Elon Musk va lancer les nouvelles « COMPÉTENCES » de Grok, des modifications permettant aux utilisateurs de créer des actions personnalisées et des instructions d’IA personnalisées
L’essai devrait se poursuivre avec d’autres témoignages de leaders technologiques, mettant davantage en lumière les méthodes de formation secrètes qui définissent la concurrence actuelle pour les outils d’IA. Pour l’instant, l’industrie cherche encore à définir la limite entre l’acquisition « légalement acceptable » et l’acquisition illégale de propriétaires d’IA.
(L’article ci-dessus est apparu pour la première fois sur NEWLY le 1er mai 2026 à 07h09 IST. Pour plus d’informations sur la politique, le monde, les sports, le divertissement et le style de vie, visitez notre site Web Latestly.com).