Nick Srnicek, professeur au Département des humanités numériques du King’s College de Londres, sera au Portugal le 1er juin à « Human Entities 2022 : Culture in the age of artificial intelligence », pour parler de l’économie politique de l’IA, en Lisbonne.

A la veille d’être conférencier au Portugal, le professeur d’économie numérique explique l’importance de commencer à discuter de l’économie politique de l’intelligence artificielle.

« L’IA est une technologie qui sous-tend une grande partie de l’économie du 21e siècle, elle sera au cœur des entreprises, des utilisateurs, des consommateurs, des gouvernements », commence par dire Srnicek.

« Et en ce moment, l’IA appartient à cinq ou six entreprises dans le monde, ce qui signifie beaucoup de pouvoir et beaucoup de capacité à extraire de plus en plus d’argent des gens, des gouvernements, des entreprises », ce qui « conduit à une économie et une société est largement déséquilibré », souligne l’universitaire.

Bref, l’IA favorise la concentration du capital, mais il n’y a pas beaucoup de débat sur le sujet.

« On se concentre beaucoup sur l’impact de l’IA sur la façon dont elle peut automatiser les emplois, les types d’emplois qui seront nécessaires et l’impact qu’elle pourrait avoir sur les inégalités », entre autres, « il existe également un bon nombre d’études sur entreprises qui peuvent utiliser » cette technologie , précise-t-il.

Mais, « il n’y a pas beaucoup d’études sur qui fournit des services » d’intelligence artificielle et, « lorsque vous approfondissez cela », il devient clair qu' »ils ont tendance à être les mêmes » big tech  » [gigantes tecnológicas] qui a dominé le monde de la technologie ces dix dernières années », précise-t-il.

Parmi les « big tech », on trouve Amazon, Google, Microsoft, Facebook, entre autres.

« Ce sont ces grandes entreprises qui développent effectivement des services d’intelligence artificielle, ce sont elles qui entraînent les modèles dans leurs grands ‘centres de données’ [centros de dados]qui « chasse » tout ce talent qui peut faire fonctionner et entraîner les modèles d’IA », dit-il, ajoutant que « ce sont eux qui louent ces modèles de données à d’autres entreprises ».

Les technologies sophistiquées comme l’IA « nécessitent une énorme quantité de puissance de calcul qui est contrôlée » par les géants de la technologie.

« Le type émergent de modèle d’IA que nous semblons avoir est que les » grandes technologies « possèdent les modèles et le » matériel « qui les exécutent, puis les louent à d’autres », ce qui se traduit par une « concentration de tout ce type de richesse et de puissance ce que cela implique », souligne Nick Srnicek.

Pour la plupart, « à moins que vous ne soyez vraiment impliqué dans le monde de l’IA, en construisant des modèles d’IA, je ne pense pas qu’il y ait beaucoup de discussions à ce sujet » et c’est « l’une des choses que j’essaie d’apporter éclairer sur le terrain. « Ma recherche, qui consiste à pointer la domination persistante des « big tech » » dans le monde de l’intelligence artificielle, poursuit le professeur d’économie numérique.

L’intelligence artificielle « nécessite d’énormes quantités d’investissements et de puissance de calcul qui ne sont vraiment réalisables que par les » grandes technologies « aujourd’hui », bien sûr « cela peut changer, nous pouvons développer différentes approches de l’IA », mais, « pour le moment, je ne » Je ne pense pas qu’il y ait un changement fondamental dans le capitalisme », qui continue d’être « la concentration des richesses et la recherche du profit », souligne-t-il.

Interrogé sur les risques, Srnicek en a souligné trois, dont l’un passe par les grands modèles de langage d’IA et leur biais inhérent.

« Par exemple, l’automatisation des systèmes de reconnaissance faciale et de surveillance, l’automatisation de l’aide sociale aux personnes par le biais de l’État-providence, ce genre de choses a un biais intégré et nous devons vraiment être conscients de ce potentiel », c’est l’un des les risques, points.

Un autre risque est la « dépendance que nous construisons vis-à-vis des ‘big tech’, c’est déjà le cas de la dépendance vis-à-vis d’Amazon, de Google comme moteur de recherche, de Facebook pour les réseaux sociaux, précise-t-il.

« La pandémie a considérablement accéléré cela et en particulier lorsque nous examinons des choses comme le » cloud computing  » [computação na nuvem]», qui fournit l’infrastructure et le « logiciel » qui « comprennent la plupart des entreprises » à l’échelle mondiale.

« Nous ne parlons pas seulement de petites entreprises, nous parlons de Zoom, Netflix, Twitter, ils sont tous dans l’unité » cloud « d’Amazon Web Services. Ce sont donc de grandes entreprises technologiques qui dépendent d’entreprises technologiques encore plus grandes », souligne-t-il.

Et cette dépendance à l’égard de toutes « ses infrastructures gérées par une autre entreprise a des implications sur le type de rente économique qui peut être extraite des plus petites entreprises, mais elle a aussi un impact politique », explique le professeur.

« Par exemple, les gouvernements dépendent d’Amazon Web Services » [por isso] Les régulateurs sont moins disposés à « marcher sur les pieds d’Amazon » s’ils savent que ses services gouvernementaux et de sécurité, comme le montre l’affaire NSA, dépendent du « cloud » de la technologie, estime-t-il.

Dès lors, « il y a l’aspect économique, la dépendance politique dans laquelle ils ne veulent pas réglementer et les préjugés », résume-t-il, soulignant que ce sont des questions essentielles.

Dans son récent livre « Plataform Capitalism », Nick Srnicek défend l’existence de plateformes publiques, ce qui ne veut pas dire qu’elles appartiennent nécessairement à l’État.

Elles peuvent être détenues « par la municipalité ou tout autre type d’organisme public », précise-t-il, garantissant que cette idée ne signifie pas s’occuper de Google ou d’Amazon.

Quand on parle de « cloud computing », de moteurs de recherche ou de réseaux sociaux, « peut-être voulons-nous que le public ait la propriété et la responsabilité » et quelque chose à dire sur ces plateformes, argumente-t-il.

Actuellement, l’Union européenne se prépare à lancer la loi sur les marchés numériques (« loi sur les marchés numériques ») et la loi sur les services numériques (« loi sur les services numériques »).

« D’après ce que j’ai lu sur son contenu, il ne parle pas de ‘cloud computing’ et il ne parle pas d’intelligence artificielle », souligne-t-il.

Mais il existe une autre loi « autour de l’IA aussi, qui est largement axée, pour autant que je sache, sur l’éthique et l’application de l’IA, plutôt que sur l’économie de l’IA », déplore Srnicek.

« Mon inquiétude est la dépendance croissante vis-à-vis de ces entreprises, il n’est jamais impossible de défaire cette dépendance, mais cela devient plus difficile » plus le temps passe, conclut-il.

ALU // CSJ