DeepSeek, une start-up chinoise, vient de mettre à disposition un modèle d’IA (pour Intelligence Artificielle) directement concurrent de ChatGPT, offrant des performantes équivalentes à celles du chatbot de la firme américaine OpenAI mais à un coût de revient de développement bien moindre. Les répercussions sur le Nasdaq ont été immédiates. La seule société Nvidia, fabricante de puces, a perdu 590 milliards de dollars de capitalisation en un seul jour ! De manière plus symbolique, et politique, la Chine a infligé à la fierté américaine une claque comparable à celle que la défunte Union Soviétique lui avait infligée au début de la conquête de l’Espace.
On peut voir dans cet évènement plusieurs avantages : d’une part un monopole est remis en cause, d’autre part une économie de coûts d’entrainement par renforcement du modèle – les quantités de calcul nécessaires – se traduisant par une réduction de la consommation d’énergie, enfin une accélération dans la course au développement de l’IA que cette double économie financière et énergétique favorise. En somme, l’émergence de DeepSeek devrait stimuler le développement de l’IA et de ses utilisations, notamment dans l’économie. Comme dans le cas de révolutions technologiques antérieures, les effets à terme de ce coup d’accélérateur sur l’emploi, qui sont déjà en cours, devraient être doubles : négatifs avec la destruction d’emplois ou dégradation de leurs contenus et positifs avec l’apparition de nouveaux emplois. Des activités et des professions, notamment celles de cols blancs, devront s’adapter. On le constate d’ores et déjà dans les services, l’éducation, la santé… Certains sachants de la matière prédisent un âge d’or, d’autres, plus pessimistes, avancent que si une IA générale venait à vraiment émerger à long terme, les conséquences seraient catastrophiques pour l’humanité. Ils expriment la crainte déjà ancienne d’une IA malveillante qui pourrait acquérir la capacité d’agir de manière indépendante et, via les réseaux sociaux notamment, prendre le contrôle des humains.
Ce dernier débat portant sur un futur lointain, il serait hasardeux de trop s’avancer mais un certain nombre de points d’interrogation et surtout de surveillance sont à considérer à court terme.
Tout d’abord, actuellement, il parait un peu excessif de regarder l’IA comme ayant acquis le niveau d’une intelligence humaine. Il arrive à ChatGPT d’halluciner, c’est-à-dire de produire des réponses grammaticalement correctes mais sans aucun fondement réel ; il lui arrive aussi de commettre des erreurs de raisonnement. Ce n’est après tout, qu’un modèle de langue, un outil, certes performant et sophistiqué, de prédiction de la probabilité du mot ou du token suivant en fonction des précédents et de son apprentissage. Il n’a pas d’expérience du monde réel. Il est dénué d’humour, incapable de réelle créativité et, au surplus, il reste bloqué aux connaissances apprises à la date de son dernier entraînement. Ainsi à la question que je lui ai posée sur ce qu’il pense de son tout nouveau concurrent, il m’a répondu : « Je ne dispose pas d’informations spécifiques sur DeepSeek, car mes données s’arrêtent en octobre 2023…». Quant à DeepSeek-R1 lui-même, un peu moins rapide que son homologue, il aurait comme celui-ci tendance à halluciner et, en outre, soumis à la censure chinoise, à botter en touche en suggérant de « parler d’autre chose » lorsqu’on lui pose des questions sur la politique chinoise.
Plus préoccupant est que l’économie actuelle de l’IA est fondée sur l’exploitation de systèmes de recommandation algorithmique, notamment des réseaux sociaux. C’est une activité qui présente nombre de dangers et produit des effets négatifs aujourd’hui bien identifiés : en particulier l’orientation de l’attention des internautes sur des contenus polarisants et addictifs, les biais algorithmiques stéréotypés, la manipulation d’opinion qui peut s’ensuivre – voir ce qu’est devenu X dans les mains de Elon Musk – la non transparence des modèles, le transfert et l’appropriation des données personnelles non consentis, l’exploitation des travailleurs du clic participant à l’entraînement des modèles, l’empreinte carbone et la concentration du pouvoir technologique des entreprises de la tech. Or, c’est cette activité qui génère l’essentiel du chiffre d’affaires publicitaire et des bénéfices des GAFAM et conforte leur position hégémonique mondiale dans le numérique.
L’émergence de DeepSeek-R1 porte plusieurs novations intéressantes. Ce modèle se distingue de son concurrent par son accessibilité: il est largement disponible en open source. Et, comme il a déjà été dit, il annonce une réduction des coûts d’entrainement et de l’empreinte carbone associée. Il remet enfin en cause le monopole américain que le lancement du gigantesque programme de data centers stargate par l’administration Trump visait à renforcer. Pour le surplus, cette émergence ne devrait pas fondamentalement modifier la situation ci-dessus évoquée, notamment en termes de captation des données personnelles et de dépendance des utilisateurs.
Et l’Europe dans tout ça ? Elle reste assez largement en marge de l’essor de l’IA, dépourvue de champion du numérique à l’échelle mondiale, plus suiveuse que leader dans la course engagée alors même que la percée chinoise montre qu’elle aurait pu faire de même pour des coûts supportables et avec une technologie à sa portée.
Il reste à l’Europe ses initiatives réglementaires avec l’adoption du règlement européen sur l’intelligence artificielle (AI Act) du 13 juin 2024 relatif aux obligations incombant aux créateurs de modèles fondateurs et l’organisation d’un Sommet pour l’action sur l’IA à Paris les 10 et 11 février prochains.
Au nombre des obligations édictées par le règlement figurent l’enregistrement du modèle dans une base de données européennes indiquant la source et dans la mesure du possible une description des données utilisées, l’évaluation des biais dans les données d’entrainement, l’interdiction de certaines pratiques comme le recours à des techniques subliminales au-dessous du seuil de conscience d’une personne pour altérer substantiellement son comportement et lui causer un préjudice physique ou psychologique et celle de l’établissement d’un classement de la fiabilité d’une personne en fonction de son comportement social ou de caractéristiques personnelles… C’est bien mais cet acte juridique n’est adossée à aucune stratégie technologique et industrielle proprement européenne.
Quant au sommet de Paris de février, il devrait porter sur une gouvernance mondiale de l’IA regardée comme un bien commun. On peut s’interroger sur la sensibilité de l’Amérique de Trump et de la Chine de Xi à cette noble ambition …
JGC



Laisser un commentaire