L’observation de Vladimir Lénine selon laquelle «il y a des décennies où rien ne se passe, et il y a des semaines où des décennies se produisent» décrit bien notre moment actuel dans le développement de l’intelligence artificielle. La libération de Deepseek R1, développée en Chine à une fraction du coût des modèles comparables, représente plus que l’avancement technologique. Il marque un changement fondamental dans qui peut développer et déployer des systèmes d’IA. Cette démocratisation de la technologie de l’IA présentera des défis aux législateurs à tous les niveaux du gouvernement.
Qu’est-ce que Deepseek?
Deepseek R1 est un chatbot AI, un peu comme le chatppt d’Open AI. Mais Deepseek R1 a plusieurs différences par rapport à Chatgpt. Tout d’abord, le code du modèle de raisonnement de Deepseek est open source, ce qui facilite tout développeur en herbe d’IA à télécharger et à créer des applications. Étant donné que Deepseek a publié gratuitement le code, contrairement aux modèles de grandes entreprises technologiques américaines, il existe une barrière de coût moindre pour accéder à ce modèle.
En outre, les fondateurs de Deepseek ont annoncé que le modèle avait été construit pour moins de 6 millions de dollars, une affirmation qui a effrayé les marchés boursiers américains parce que les sociétés technologiques américaines dépensent des centaines de millions de personnes sur leurs modèles. Certains observateurs doutent que Deepseek rapporte avec précision ses véritables frais de formation, un rapport de recherche indépendant estimant que le coût réel était de plus de 500 millions de dollars. En tout cas, il est clair que le développement de l’IA ne se limite plus à une poignée d’entreprises technologiques américaines; Deepseek est peut-être le premier modèle de raisonnement sur l’IA open source bon marché, mais ce n’est pas le dernier. La dure réalité est que le développement de l’IA ne peut plus être contenu dans les murs d’entreprises technologiques bien ressourcées, représentant une épée à double tranchant pour le progrès social.
Les avantages de la démocratisation de l’IA
La démocratisation de l’IA pourrait faire des modèles open source comme Deepseek un «cadeau profond au monde», comme l’a proclamé Marc Andreessen, investisseur technologique. En effet, Deepseek promet de niveler les règles du jeu en permettant aux petites entreprises et aux nations en développement de rivaliser dans le développement de l’IA sans infrastructure informatique massive.
Par exemple, les petites et moyennes entreprises n’auront plus besoin de créer leurs propres modèles informatiques ou d’acheter des licences auprès de grandes entreprises technologiques. Ces économies de coûts donneront un large accès à l’informatique avancée aux entreprises et aux particuliers, tout en forçant probablement d’autres entreprises d’IA à réduire les coûts. Plus de personnes pourront concevoir des applications sur mesure de l’IA pour leurs entreprises; Comme l’a noté le géant de la technologie IBM, cette accessibilité fera avancer l’innovation. De cette façon, la démocratisation pourrait favoriser une concurrence et une innovation saines qui profitent à la fois aux entreprises et aux consommateurs.
De plus, le développement de l’IA est actuellement concentré dans une «poignée de méga-sociétés technologiques». Une étude de 2017 a révélé que «seulement environ 10 000 personnes dans environ sept pays [were] Écrire le code pour toute l’IA. » Une récente étude de Stanford a révélé que les développeurs américains ont produit 61 modèles en 2023, tandis que l’UE a créé 21 et que la Chine n’a produit que 15. Par conséquent, la plupart du monde est exclu de l’opportunité de participer au développement de l’IA, un problème que cet auteur connaît de première main Participation au groupe de discussion du programme des Nations Unies sur l’IA et le développement en Amérique latine et dans les Caraïbes. L’arrivée de Deepseek perturbe cette concentration.
La démocratisation de l’IA créera des obstacles réduits à l’entrée et ajoutera des voix et des solutions plus uniques à l’écosystème de l’IA. Les développeurs locaux gagneront la capacité d’adapter la technologie pour répondre aux besoins régionaux spécifiques. Une accessibilité plus large conduira à des applications d’IA plus localisées et culturellement pertinentes. Il réduira également les biais algorithmiques, car un ensemble plus diversifié de développeurs peut identifier et corriger les biais qui pourraient autrement passer inaperçus.
Enfin, les modèles open source peuvent être généralement considérés comme plus fiables que les modèles d’entreprise. Le Forum économique mondial note que l’offre des utilisateurs la possibilité de «interroger les données de formation» engendre plus de confiance. La transparence permet aux développeurs de se réunir pour examiner les méthodologies et aborder les défauts de sécurité dans la conception et l’application de logiciels open source. Cependant, bien que l’augmentation de la transparence et de l’accessibilité stimule l’innovation, ils créent également de nouveaux risques à mesure que les outils de développement de l’IA deviennent disponibles pour ceux qui peuvent les utiliser de manière irresponsable ou malicieusement.
Les inconvénients de la démocratisation de l’IA
La démocratisation soulève des préoccupations importantes concernant le développement et la surveillance responsables de l’IA. Bien que des joueurs établis comme Microsoft AI et Anthropic aient démontré l’engagement envers la responsabilité sociale et l’atténuation des risques, les petits acteurs et les entreprises dans des régions avec des cadres réglementaires limités peuvent ne pas respecter les mêmes normes.
Un problème majeur est la confidentialité des données. Il s’agit déjà d’un problème pour les avocats, qui doivent être soucieux de télécharger des informations confidentielles sur n’importe quel outil d’IA. Mais les chatbots AI open-source présentent une préoccupation SUI Generis: que se passe-t-il aux utilisateurs d’informations propriétaires téléchargés sur un chatbot? Comment, le cas échéant, les propres données d’un utilisateur sont-elles protégées? Les problèmes de confidentialité des données ont déjà conduit plusieurs gouvernements à interdire Deepseek, notamment l’Australie et l’Italie. La législation est actuellement en suspens à la Chambre des représentants des États-Unis pour interdire Deepseek sur les appareils gouvernementaux, et les États individuels (y compris New York) empêchent également les responsables gouvernementaux de télécharger Deepseek sur leurs appareils de travail.
La confidentialité des données n’est pas la seule préoccupation. Les chatbots IA open-source entre les mains de mauvais acteurs peuvent créer des scénarios effrayants, tels que le développement de armes de biow, la promotion de l’automutilation parmi les adolescents et la facilitation de la propagation de la mauvaise et de la désinformation. Des risques environnementaux sont également présents, car les défis du suivi de la consommation d’énergie et de la prévention des abus de mauvais acteurs deviennent plus complexes à mesure que le développement de l’IA devient plus distribué. Ces risques exigent des réponses réglementaires réfléchies.
Que doit faire un législateur?
Plutôt que de poursuivre des interdictions pur et simple, qui peuvent simplement pousser le développement sous terre et au-delà de la surveillance, les décideurs devraient considérer des approches plus nuancées. Il y a quelques étapes que les gouvernements et les entreprises peuvent prendre dès maintenant pour atténuer les risques des modèles d’IA open source.
Premièrement, les décideurs doivent commencer par s’éduquer de manière neutre sur cet environnement en évolution rapide. Le monde universitaire devrait jouer un rôle; Cet auteur a formé plus de 1 000 responsables gouvernementaux sur la technologie émergente et les questions juridiques connexes par le biais du Centre de droit, de technologie et de bien social de l’USF Law.
Une fois qu’ils ont compris les problèmes, les gouvernements fédéraux, étatiques et locaux devraient établir des directives claires pour la confidentialité et la sécurité des données. Par exemple, la nouvelle lois sur la vie privée liée à l’IA en Californie est un bon début. Les législateurs peuvent également créer des structures incitatives qui récompensent l’innovation responsable, telles que le soutien financier pour les petites entreprises pour développer des applications d’IA responsables.
Ces efforts sont les plus susceptibles de commencer localement, car la coopération mondiale pour répondre rapidement à ces préoccupations semble tirée par les cheveux pour le moment. Les incitations éducatives pour étendre l’alphabétisation de l’IA dans le monde pourraient finalement profiter aux développeurs de modèles d’IA, en particulier en cultivant l’accès à des marchés plus larges et en montrant comment les modèles peuvent être utilisés dans une grande variété de cas d’utilisation. Cela servirait également à réduire les inégalités d’opportunités dans le monde. Cependant, le manque de coopération lors du sommet de l’action de l’IA de Paris 2025 indique que les normes internationales de développement et de déploiement de l’IA sont toujours dans les années.
Par conséquent, cette situation offre également une opportunité cruciale pour la communauté des investissements de jouer un rôle vital. En dirigeant des capitaux vers des entreprises engagées dans le développement d’IA éthique, les investisseurs peuvent s’assurer que la démocratisation et l’innovation responsable avancent main dans la main. Des recherches récentes de Ventureesg soulignent comment les stratégies d’investissement ciblées peuvent promouvoir à la fois l’innovation de l’IA et les pratiques de développement responsables.
En tant que professeur de droit commercial et technologique étudiant l’intersection des technologies et de la réglementation émergentes, je vois des parallèles frappants entre le paysage de l’IA d’aujourd’hui et les premiers jours de la technologie de la blockchain. Tout comme la nature décentralisée de la blockchain a perturbé les systèmes financiers traditionnels, l’approche à faible coût de Deepseek remet en question la concentration du développement de l’IA parmi une poignée de grandes sociétés technologiques. Bien que ce changement promet d’étendre l’accès aux capacités de l’IA, elle soulève également des questions critiques sur la sécurité, la responsabilité et le développement responsable. Pour répondre correctement à ces préoccupations, les législateurs doivent commencer par s’éduquer sur les opportunités et les risques inhérents à ce moment pivot.