Revue de presse IA de juin 2022-2
- AI for Citizen
- 23 juin 2022
- 4 min de lecture
L'intelligence artificielle : risque ou opportunité pour les collectivités ?

Les collectivités produisent de très nombreuses données dans le cadre des services publics dont elles ont la charge : composition familiale, revenus fiscaux et charges, attribution des aides, services publics utilisés, etc. Cette production de données augmente significativement avec l'IoT et l’essor des villes intelligentes et durables. En effet, la majorité des activités étant informatisées, tous les services publics ont accès à des technologies d’IA. Or, pour alimenter ses algorithmes, l'IA a besoin d'une importante quantité de données mises à jour régulièrement, accessibles rapidement, complètes et structurées ainsi que d’une expertise forte pour manipuler les modèles. Pour répondre au déficit de compétences, d’expertise, d’outils et de méthodes, le gouvernement a lancé fin 2021, la 2nde phase de sa stratégie nationale pour l'IA, avec pour objectifs de former et d’accompagner les PME dans l'usage de l'IA, de soutenir les start-ups et de lancer des cas d’usage. De plus, dans le cadre du plan France 2030, 1,5 milliard d'euros sont destinés à créer un écosystème favorable au développement de compétences et d’entreprise de pointe dans ce domaine. Cependant, face aux difficultés des collectivités en matière de gestion de données, la création d’un écosystème vertueux en France se complexifie. Un indice sur la gouvernance des données fourni par l'observatoire Open data des territoires révèle un problème de démultiplication des plateformes, de formats, de la non-fraîcheur des données... Ainsi, les collectivités risquent de moins bien connaître les administrés que les géants du numérique. A titre d’exemple, Google avec des services comme Waze connaît mieux les routes (trafic, état, radars) que les collectivités. Des conventions de partenariat avec des universités seraient à mettre en place avec les collectivités puisque de nombreux chercheurs travaillant sur l'IA sont demandeurs de données pour travailler sur des cas réels... Pour aller plus loin : la Banque des territoires a publié un rapport concernant l'IA et les collectivités locales.
(La Gazette, 09/06/22)
3 actus #AIforCitizen de la semaine
La « conscience » d'une Intelligence artificielle provoque un scandale chez Google IA
Le chatbot de Google connu sous le nom de LaMDA (Language Model for Dialogue Applications) a suscité l’inquiétude chez l’ingénieur Blake Lemoine. Cette intelligence artificielle aurait selon lui atteint le niveau de la conscience : capacité de ressentir des émotions et consciente de sa propre condition. Lors de discussions, le chatbot aurait démontré avoir conscience de ses besoins en tant qu’IA et aurait évoqué la peur de se faire débrancher. Selon Lemoine, ces propos représentent la preuve irréfutable que LaMDA a développé sa propre conscience. Lemoine a présenté ses conclusions à ses supérieurs, Blaise Aguera y Arcas - vice-président de Google et à Jen Gennai - responsable de l'innovation responsable, mais cela n’a pas suffit à attirer leur attention. Peu de temps après cet échange, Lemoine a révélé être écarté et payé pour rester chez lui. Il affirme ne pas être le premier ingénieur mis à l’écart chez Google à cause du sujet de l’éthique liée aux intelligences artificielles. Jugeant ses conclusions trop importantes pour les garder secrètes, il publie un article dans le Washington Post.
(Futura, 14/06/2022)
Meta lance son académie du métavers
La maison mère de Facebook, s'associe à Simplon, un réseau qui forme aux nouveaux métiers du numérique, pour ouvrir à la rentrée 2022 une formation aux métiers du métavers. L'objectif, est de former une centaine d'apprenants pour la première année à deux métiers du 'métavers' : développeur spécialisé en technologies immersives et technicien support/assistance. Les formations seront axées autour de la 3D et des interactions dans les univers. Concernant les liens entre l’IA et le métavers, le PDG de Meta rappelle que l’intelligence artificielle est une composante essentielle au développement du métavers. Ainsi, la division spécialisée en IA travaille actuellement sur de nouvelles technologies qui permettront de construire le métavers. « Aujourd'hui, une grande partie de la recherche en IA est axée sur la compréhension du monde physique. Mais dans le métavers, nous aurons besoin d’une IA conçue pour aider les utilisateurs à naviguer dans les mondes virtuels ainsi que dans notre monde physique avec la réalité augmentée. Et comme ces mondes seront dynamiques et en constante évolution, l'IA devra être capable de comprendre le contexte et d'apprendre comme les humains le font ».
(Capital, 12/06/2022)
Débats et inquiétudes autour de l’utilisation de la reconnaissance faciale par la police irlandaise
En matière de sécurité, l’utilisation de l’intelligence artificielle dans l’analyse d’images de vidéosurveillance et d’enregistrements numériques de suspects de crimes graves permettrait aux policiers un gain de temps considérable et de meilleurs résultats dans leur travail. Voilà ce qu’avance Helen McEntee, Ministre irlandaise de la Justice, sur le point de présenter un projet de loi pour ouvrir la voie à l’utilisation de la technologie de reconnaissance faciale (i.e. accès à des flux de vidéosurveillance tiers, utilisation de caméras corporelles, reconnaissance automatique des plaques d’immatriculation, etc.) par la police nationale irlandaise, la Garda Siochana. Si la Ministre a déclaré que des garanties seraient mises en place sur l’utilisation de la technologie et qu’elle serait soumise à des règles strictes de protection des données, l’annonce de son projet de loi a relancé le débat en Irlande sur la menace que représente la quête de la sûreté publique sur le droit à la vie privée. Dans une lettre ouverte publiée dans l’Irish Times, 52 spécialistes, universitaires et membres d’ONG, ont exprimé leurs inquiétudes, demandant à la Ministre d’imposer un moratoire sur l’utilisation de la technologie de reconnaissance faciale par la police irlandaise. En outre, la question de l'efficacité de cette technologie est soulevée, depuis la publication en 2019 du Rapport de l’université d’Essex, montrant que, lors de tests de reconnaissance faciale effectués par la police métropolitaine de Londres (Met), une mauvaise personne avait été identifiée dans 81% des cas.
(Actu IA, 14/06/2022)
Comments