Numérique et société | Intelligence artificielle (IA) | 15/02/2023Intelligence artificielle (IA) et 5G



DB Fev23

-

Robin des Toits participe aux travaux du réseau national stop-Linky-5G. Nous avons notamment pris part à un groupe de travail, coordonné par Denis Nicolier (https://halteaucontrolenumerique.fr; ce groupe a produit la note ci-dessous concernant l’intelligence artificielle et son lien avec la 5G. (Octobre 2022).

-

L’intelligence artificielle désigne le travail effectué par des ordinateurs ou tout autre outil digital consistant à extraire de l’information d’une très grande masse de données. Cette information peut se situer sur le plan scientifique, sociologique ou répondre à tout besoin opérationnel, de la part d’entreprises, d’administrations, de services de sécurité ou de police.

-

En fait, ce travail se faisait déjà avant que n’apparaisse l’appellation « intelligence artificielle » ou « IA ». Cette appellation provient du fait que les résultats obtenus dans cette activité ont fait un bond énorme depuis grosso modo quinze ans et continuent à le faire de plus en plus vite. Ceci est dû, d’une part aux progrès des capacités de stockage et de traitement de l’information par des ordinateurs et d’autre part,  par la multiplication des données collectées sur toute sorte de choses et sur les individus, notamment via les divers usages du numérique. C’est là qu’intervient le lien avec la développement des transmissions émettrices de champs électro-magnétiques.

-

Dans le discours des pouvoirs publics, des industriels et de « l’élite », le développement de l’IA est un but en soi : c’est une compétence que nous devons avoir pour ne pas être asservis par ceux qui la maîtriseront. En même temps, c’est un outil, permettant de développer la société numérique et connectée vers laquelle nous nous dirigeons. Dans tous les cas, le résultat est le même : la 5G aujourd’hui, la 6G demain sont indispensables...

-

Il serait vain de critiquer cette intelligence artificielle dans l’absolu, comme méthode d’acquisition des connaissance.

Elle pose cependant de sérieux problèmes que nous résumons ici qui ont trait au contexte actuel et aux buts dans lesquels elle est utilisée., notamment via certaines de ses applications sensibles : reconnaissance faciale, identification biométrique, fichage et profilage des individus.

La question écologique

La collecte, le stockage et le traitement d’une masse de plus en plus énorme de données consomme beaucoup d’énergie. La part du numérique dans la consommation mondiale ne fait que croître à l’heure où il faudrait la réduire. Les ressources en minerais, nécessaires à cette activité vont constituer un problème de plus en plus pressant. La croissance infinie des connaissances est souhaitable mais elle ne peut reposer sur des technologies qui, elles, ont des limites matérielles. Même si des progrès sont faits pour réduire les besoins en énergie et en matériaux par bit d’information, ces limites demeurent.

La question démocratique

Contrairement à ce qu'on va nous vendre, l'IA n'est pas une sorte d'oracle neutre  délivrant la vérité. Même si ce sont des ordinateurs qui travaillent, ce sont des gens qui les programment et, surtout, qui leur choisissent des tâches à faire. Et ce sont des humains qui financent. L'IA coûte cher. Imagine-t-on un travail de l'IA financé par Big Pharma et qui conclurait qu'il faut moins consommer de médicaments, ou financé par des fabricants de chaussures qui conclurait qu'il vaut mieux marche pieds nus ? Face à cette immensité de données, l'IA va travailler à partir de questions qu'on va lui poser, de données qu'on lui aura données et aucun de ces choix n'est neutre, ne serait-ce même, si on exclut les intentions mercantiles, que quant aux partis pris idéologiques inconscients des ingénieurs.
Nous donnons en annexe quelques exemples tirés de cas précis et actuels.


Ensuite, une question majeure est le rôle de l'IA. Soit elle est une aide à la décision pour des  professionnels humains, soit elle décide à leur place. Le plus grand danger est dans cette deuxième option. Elle nous amène tout droit vers un monde robotisé, aseptisé d'où disparaît la relation humaine, notamment en médecine, un monde où même les travailleurs très qualifiés se contentent d'appliquer des "protocoles", un monde d’exécutants où le taylorisme a envahit toutes les activités humaines... et où il y a de plus en plus de chômeurs. Et aussi où la connaissance, le pouvoir deviennent de plus en plus concentrées dans quelques mains.

La reconnaissance faciale et autres identifications biométriques, les techniques de profilage des individus et de prédiction de leurs opinions ou comportements, figurent parmi les applications de l’IA qui concernent le plus directement la vie quotidienne des citoyens et qui constituent des menaces directes pour une société démocratique.

Actions et revendications

La lutte contre le déploiement de la 5G est un élément clé pour limiter les usages délétères du tout « connecté » et donc de l’IA.
La refus, individuel et collectif, des connexions, en particulier de celles qui nous sont imposées dans les administrations et ailleurs, est également essentiel : défendre le droit à la non-connexion.

Ensuite, viennent des revendications plus directement liées à l’IA. Certaines ont déjà été élaborées par des associations spécialistes du sujet. Ici sont résumées celles de l’EDRI : https://halteaucontrolenumerique.fr/?p=1120
Figurent dans ces revendications le refus ou la stricte limitation dub rôle décisionnaire de l’IA. Nous y ajoutons :
      - le renforcement du RGPD pour renforcer le cloisonnement entre les fichiers de données et le renforcement des protections contre les exports de données vers les USA ou autres.
      - la transparence quant au financement des outils de l'IA
      - la transparence des algorithmes, pour qu'au moins des "résistants" compétents puissent y mettre leur nez, pour que cet outil soit un bien commun, à la manière des logiciels libres, et non une marchandise et un outil pour multinationales.


Quelques cas


CAF
Dans les Caisses d’allocations familiales (CAF), qui versent notamment le RSA, ont été déployé des systèmes utilisant l’intelligence artificielle. Officiellement, Il s’agit de débusquer les fraudeurs [1], mais l’objectif réel est plus de limiter les dépenses publiques en direction des plus pauvres. Ainsi, la convention pluriannuelle entre l’État et la CNAF fixe des « objectifs » de fraude (380 millions d’€ à « atteindre » en 2022. Les allocataires sanctionnés se voient privés pendant plusieurs mois voire années de la totalité des prestations, d’autant qu’ils sont peu armés face aux demandes, ne sollicitent pas d’avocat…
Auparavant, les politiques sociales se fondaient sur une approche collective, fixant la norme et ce qui s’en éloigne. Désormais [2], "l’unité de base n’est plus la population mais les comportements individuels qu’on cherche à prédire. Le risque n’est plus la maladie, la vieillesse ou la mort, mais la morale personnelle", en scrutant à la loupe le mode de vie des allocataires.
Des algorithmes compilent pas moins de mille données différentes par allocataire, de l’état civil aux habitudes de consommation. Ces CAF peuvent s’appuyer sur quantité de bases de données qui n’ont pas grand-chose à envier à la police. Dans un tel système, plus de place pour l’erreur ou l’oubli, seulement pour la surveillance et la punition.
Ces données sont ensuite croisées de façon discrétionnaire pour classer les individus (scoring), permettant de cibler ceux susceptibles de frauder. Certains sont plus visés que d’autres : ainsi, une circulaire de 2012 de la CAF recommandait de cibler les personnes nées hors de l’Union européenne lors des contrôles.
Pour le défenseur des droits, "Les ciblages discriminatoires, quelle que soit la technologie employée, ne font que relayer préjugés et stéréotypes, conduisant à une surreprésentation de ces populations parmi les fraudeurs." Vincent Dubois le confirme : "L’usage des technologies de statistique prédictive conduit à intensifier le ciblage intrusif des populations les plus précaires. L’informatisation produit non seulement un effet de déshumanisation, mais aussi de déréalisation" car "Les situations personnelles n’existent plus que sous une forme abstraite, sans tenir compte des réalités sociales ou humaines."
De quoi creuser inexorablement les inégalités. "Seuls les pauvres sont placés sous le microscope de la clarté scientifique" [3], ce qui conduit à la création d’"hospices digitaux" qui mettent les plus démunis au ban de la société. Les outils utilisés par les CAF auraient ainsi un impact sur la vie de près de 13 millions de foyers, soittrente millions de personnes (près d’un Français sur deux).
La fraude sociale par les allocataires est pourtant estimée à deux milliards d’euros, donc bien inférieure à l’évasion fiscale des plus riches, évaluée entre 80 et 100 milliards d’euros par an, au non versement de cotisations par les employeurs... Mais ces derniers ne sont pas suspectés d’abuser de la générosité publique.
[1] Rapport d'octobre 2019, Lutter contre les fraudes aux prestations sociales, un levier de justice sociale pour une juste prestation, par Carole Grandjean et Nathalie Goulet
[2]d’après le sociologue Vincent Dubois, auteur du livre Contrôler les assistés, genèses et usages d’un mot d’ordre
[3] selon la politologue américaine Virginia Eubanks dans Automating Inequality, How High-tech Tools Profile, Police, and Punish the Poor, St. Martin’s Press, 2018

Migrants
L’UE, Frontex comme les Etats membres, déploient diverses technologies pilotées par l’intelligence artificielle |1]) pour surveiller, contrôler et suivre [2] les migrants : reconnaissance faciale, des émotions, drones, capteurs de CO2, de battements cardiaques mais aussi de « robots tueurs » [3]… « Ils sont omniprésents à l’échelle européenne », d’après Caterina Rodelli, de l’ONG Access Now.
Un rapport de Frontex préconisait d’employer l’intelligence artificielle pour « remplacer les douaniers humains, accélérer le passage aux frontières et mieux contrôler les entrées dans l’UE ». C’est notamment l’objectif d’Itflows [4], une intelligence artificielle capable de compiler des milliers de données afin de prédire des flux migratoires et d’identifier les risques de tensions liées à l’arrivée de réfugiés aux frontières de l’Europe.
Ce recueil des données biométriques, leur conservation (durée, conditions d’accès…), leur traitement se font sans aucune transparence, au mépris des propres règles de l’UE (RGPD). Cela conduit à la politique meurtrière (en 2021, 3 231 personnes ont été déclarées décédées ou portées disparues en mer en Méditerranée et dans le nord-ouest de l’Atlantique [5]) de blocage de l’accès aux côtes de l’UE, au mépris des accords internationaux.
Mais aussi aux reconduites massives au frontières. L’objectif est de créer un système global de détection, de surveillance et de suivi des mouvements de réfugiés à l’échelle européenne pour faciliter leur détention et leur expulsion. Cela contribue à créer une nouvelle forme d’« apartheid » car les personnes migrantes peuvent difficilement faire valoir leurs droits. Pour la seule France, l’État aura dépensé pour les migrants 85 % pour leur répression, 15 % pour leur accueil [6], ceci illustrant le parti pris ségrégatif.
Les entreprises européennes de sécurité et d’armement qui exportent des armes et des technologies de surveillance partout dans le monde, notamment dans des pays en guerre ou avec des régimes autoritaires, sont aussi celles qui fournissent ces outils pour la surveillance des frontières de l’Europe. C’est une manière profondément cynique de profiter, deux fois, de la misère d’une même population.
[1] depuis 2007, l’Union européenne a dépensé 341 millions d’€ dans des projets liés à l’intelligence artificielle aux frontières
[2] un rapport de la RAND (institut américain qui vise à « améliorer la politique et le processus décisionnel par la recherche appliquée et l'analyse stratégique », notamment en matière de défense et de sécurité) a inventorié les usages potentiels de l’intelligence artificielle (IA) aux frontières européennes, notamment en se basant sur des données spatiales. L’idée est de générer des analyses prédictives des trajets que pourraient emprunter les réfugié·es qui tentent de traverser les frontières
[3] https://www.hrw.org/fr/report/2020/08/26/stopper-les-robots-tueurs/positions-des-pays-sur-linterdiction-des-armes
[4] Itflows, pour « outils et méthodes informatiques de gestion des flux migratoires ». Voir ici
https://frontex.europa.eu/assets/Publications/Research/Frontex_AI_Research_Study_2020_final_report.pdf
[5]https://www.unhcr.org/fr/news/briefing/2022/6/62a36b14a/statistiques-hcr-traversees-mediterranee-revelent-nombre-croissant-morts.html
[6]rapport de la commission d’enquête parlementaire sur les migrations, paru en novembre 2021.

Parcoursup
Depuis 2018, Parcoursup, plateforme numérique d’affectation dans l’enseignement supérieur, enregistre les vœux de poursuite d’étude des lycéens, puis les affecte à un établissement selon des critères d’admission [1] supposés « égalitaires et socialement justes » intégrés dans l’algorithme de la plateforme.
Mais cette plateforme entraîne, année après année, des listes d’attente considérables, une désorganisation du secondaire et des coûts massifs [2] pour des résultats peu satisfaisants. Il apparaît clairement que certains profils sont désavantagés (par ex les bacs pro), mais les chiffres importants des non-affectés tard dans l’été conduisent aussi à des renoncements car il est alors trop tard pour trouver un logement, pour s’organiser. Selon Julien Gossa [3],c’est un outil conçu « pour fluidifier l’abandon d’une partie de la jeunesse ».
D’autant que, si l’on considère d’autres dispositifs, Affelnet (qui gère l’orientation entre le Collège et le Lycée) ainsi que le renforcement de la sélection en Master, on voit bien qu’il s’agit d’une politique globale visant à réduire l’offre éducative. Derrière la « liberté de choix » promise aux étudiants et à leurs familles se cache un dispositif directement piloté par l’offre : les places dans les établissements sont discrètement définies par les rectorats, et c’est L’État qui définit des quotas, donc le profil de celles et ceux qui auront chaque diplôme, à tous les niveaux et dans tous les domaines de la formation. Par ailleurs il fixe les quotas de boursiers qui permettent de fixer les limites de la mobilité sociale, et les quotas de secteur pour la mobilité géographique [4].
On est donc bien là aussi dans une politique de réduction des dépenses publiques au détriment des plus pauvres, avec l’aide d’un outil numérique qui déhumanise toute relation à l’administration, dépossède les enseignants et leurs établissements de toute écoute des attentes et souhaits de leurs étudiants au profit d’une logique de tri ultralibérale qui avantage l’offre de formation privée.
[1] https://www.cairn.info/revue-l-annee-sociologique-2020-2-page-337.htm
[2] https://basta.media/combien-coute-parcoursup-100-millions-d-euros-pour-des-listes-d-attente
[3] Julien Gossa, maître de conférences à Strasbourg : analyse de Parcoursup https://blog.educpros.fr/julien-gossa/2021/06/23/parcoursup-un-outil-pedagogique-pour-fluidifier-labandon-dune-partie-de-la-jeunesse/
[4] https://nosservicespublics.fr/parcoursup



Partager cet article sur les réseaux :
 



Sur le même sujetArticles similaires

Press ESC to close