top of page

Revue de presse IA de mai 2022

  • Photo du rédacteur: AI for Citizen
    AI for Citizen
  • 18 mai 2022
  • 4 min de lecture




Une série « IA Colonialism » pour alerter sur l’impact socio-économique de l’IA

Récemment, le célébre magasine du MIT Technology Review a publié une série d’articles, intitulée « IA Colonialism », prenant le parti d’un intitulé volontairement polémique pour alerter sur l’impact socio-économique de l’IA.


Le terme est parti d’une nouvelle génération d'universitaires qui défend une "IA non coloniale" pour redonner le pouvoir du Nord au Sud, de la Silicon Valley au peuple. Cette série engagée se présente aussi comme une invitation à s’orienter vers une société plus égalitaire et épanouie à travers un véritable voyage initiatique au cœur des sociétés. Le risque dystopique d’inégalités amplifiées par une technologie dont une vision globale de son impact sur les enjeux économique et sociétaux serait totalement oubliée au profit d’une infime minorité semble réel.

L’auteur explore les parallèles entre le développement de l'IA et le passé colonial en examinant plusieurs communautés à travers le monde, au travers de ses propres expériences et observations.

La première partie nous amène en Afrique du Sud, où les outils de surveillance basés sur l'IA, basés sur l'extraction de données sur les comportements et visages des personnes, réenracinent les hiérarchies raciales et alimentent un apartheid numérique. (« Contrôle racial », article ici)

Nous nous rendons ensuite au Venezuela, où les entreprises captent les données de l'IA pour trouver des travailleurs bon marché et désespérés au milieu d'une crise économique dévastatrice, créant un nouveau modèle d'exploitation du travail. La série examine également les moyens de freiner ces dynamiques. (« Exploitation », article ici)

Dans la troisième saison, nous rendons visite à des chauffeurs en Indonésie qui, en renforçant le pouvoir de la communauté, apprennent à lutter contre le contrôle algorithmique et la fragmentation. (« Résistance », article ici)

Au travers du quatrième et ultime article, nous partons à la rencontre d’Aotearoa, le nom maori de Nouvelle-Zélande, où un couple indigène reprend le contrôle des données de sa communauté pour faire revivre leur langue. (« Libération », article ici)


Ensemble, les histoires, contées par Karen Hao (rédactrice en chef de l'IA au MIT Technology Review), révèlent comment l'IA appauvrit les communautés et les pays qui n'ont pas leur mot à dire dans son développement - les mêmes communautés et nations déjà appauvries par les anciens empires coloniaux. Elles suggèrent également comment l'IA pourrait être plus que cela - un moyen pour les individus de réaffirmer leur culture, leur voix et le droit de déterminer leur propre avenir.


C'est finalement le but de cette série : élargir l’horizons des possibles, du meilleur au pire, sur l'impact de l'IA sur la société pour commencer à comprendre comment les choses pourraient être différentes. Impossible de parler d'"IA pour tout le monde" (rhétorique de Google), "d'IA responsable" (Facebook), ou de « progrès pour tous » (OpenAI) sans prendre conscience des risques et obstacles de cette révolution en cours.

 

RGPD, quatre ans après, enfin l’acte II La nouvelle publication « RGPD, acte II : la maîtrise collective de nos données comme impératif » de Julia Roussoulières et Jean Rérolle pointe du doigt l’ineffectivité de nombreux droits conférés par le RGPD et les lacunes d’une approche reposant uniquement sur le consentement individuel. Ils expliquent que « le rapport de force était totalement déséquilibré́ entre l'individu et les entreprises demandant le consentement. L'asymétrie face aux géants numériques et l'opacité entretenue par certains acteurs comme ceux de la publicité en ligne, entravant la bonne exécution du droit. » Trois axes de propositions ont été formulés afin d’atténuer ces dysfonctionnements :

  • Mieux articuler le consentement et les droits individuels avec les choix politiques et les actions collectives (ex. en donnant davantage de place à la société civile dans la gouvernance des plateformes structurantes)

  • Améliorer l'effectivité des droits (ex. en mettant fin au statut de co-traitants pour la publicité en ligne)

  • Rendre le consentement véritablement libre et éclairé (ex. en régulant davantage le design et interdisant le cookie wall)

Ces propositions visent à assurer la sécurité du partage de données par le citoyen, en lui accordant une liberté́ de choix, des usages transparents et en mettant le sujet au cœur du débat démocratique.


(La Tribune, 13/05/22)



SystemX créé les « Tech Labs @SystemX » pour accélérer la valorisation et le transfert technologique de ses actifs avec de l’IA

Dans un contexte où de nombreuses industries technologiques et de rupture ont des difficultés de plus en plus importantes à passer leurs technologies à l’échelle, à l’instar de la blockchain qui développe des protocoles de plus en plus matures mais insuffisamment interopérables entre eux, l’IA peut être mise au service de projets de Research & Technology (R&T). A la différence des projets de Recherche & Développement (R&D), ces projets se concentrent sur les premières phases nécessaires au lancement d’un projet, soit la conception de briques matures indispensables à son lancement. Depuis sa création, 53 projets de Research & Technology (R&T) ont été mené dans le cadre de la démarche partenariale de de l’Institut de Recherche Technologique (IRT) pour développer des briques technologiques susceptibles d’accélérer la mise en œuvre de projets industriels. Si SystemX donne accès à ses technologies et ses équipes, les partenaires experts fournissent des technologies clé en main, pour résoudre les problématiques encore trop nombreuses de passage à l’échelle des projets industriels.


(ActuIA 18/05/22)


Des sénateurs proposent de contrôler la fiabilité des algorithmes de reconnaissance faciale

Trois sénateurs ont présenté le 11 mai les résultats d'un rapport sur le recours à la reconnaissance biométrique dans l'espace public. Ils proposent ainsi de mettre en place une autorité européenne chargée de vérifier la fiabilité des algorithmes de reconnaissance faciale. Concrètement, ils comptent élaborer un cadre incluant "des lignes rouges" permettant d'écarter le risque de surveillance de masse. Quatre interdictions devraient ainsi être instaurées :

  • La notation sociale

  • La catégorisation d'individus (en fonction de l'origine ethnique, du sexe ou de l'orientation sexuelle sauf dans le cadre de la recherche scientifique)

  • L'analyse des émotions (sauf à des fins de santé et de recherche)

  • La surveillance biométrique à distance en temps réel dans l'espace public (sauf pour les forces de sécurité dans des cas très limités)

De plus, pour les rapporteurs, la souveraineté technologique doit être au cœur de la réflexion autour de la reconnaissance faciale. En effet, "l'usage d'algorithmes développés en Europe, à partir de données traçables et hébergées sur notre sol est par exemple largement préférable au recours à des algorithmes étrangers dont l'on ne sait parfois rien des conditions de création et d'entraînement".


(Usine Digitale 13/05/22)




 
 
 

Comments


Post: Blog2_Post
  • Facebook
  • Twitter
  • LinkedIn

©2020 par AI for Citizen. Créé avec Wix.com

bottom of page