top of page

Revue de presse IA de mars 2021 - n°2

  • Photo du rédacteur: AI for Citizen
    AI for Citizen
  • 1 avr. 2021
  • 3 min de lecture

Comment hacker une voiture autonome sans savoir coder


Ce panneau de limite de vitesse vous semble étrange ? S’il vous est évident que la limite indiquée est 35 mph, le système de pilote autonome de Tesla lui lit 85 mph, soit 137 km/h. Ce simple morceau de ruban adhésif de 5 cm a donc poussé une voiture à un excès de vitesse de 80 km/h. Heureusement, ce test a été réalisé dans le cadre de recherche de failles. Mais la simplicité du hack repose la question de la maturité de la technologie qui est toujours à l’origine de décès routiers (Uber, Tesla)...

Retrouvez la vidéo ici (20/02/2020)



Le débat d’une IA éthique au coeur du futur cadre législatif européen


Dans le cadre du travail législatif de la Commission Européenne pour une IA fiable, la commission de la culture a proposé d’instaurer un cadre éthique clair pour garantir une diversité culturelle et linguistique, ainsi que prévenir les discriminations. Les algorithmes fondés sur l’intelligence artificielle pourraient se révéler biaisés du fait des recommandations de contenu et ne laisseraient plus place à une multiplicité de contenus proposés, voire écarteraient certains types de contenu.

La question de l’utilisation de l’IA se pose également dans le milieu scolaire, notamment pour la correction des copies voire même pour l’enseignement. Les députés de la commission maintiennent néanmoins que les enseignants resteront maîtres de leurs cours ainsi que des corrections, et qu’une fonctionnalité leur permettra de modifier les décisions prises par l’IA afin d’éviter tout type de discrimination, comme pour la correction des copies d’examen par exemple.

(Actu IA, 17/03/2021)



Le système d’IA qui détecte les erreurs lors de l'auto-administration de médicaments


Qu'il s'agisse d'avaler des pilules ou de s'injecter de l'insuline, les patients s'administrent fréquemment leurs propres médicaments, mais ne le font pas toujours correctement. Le non-respect des prescriptions des médecins est responsable de milliers de décès et de milliards de dollars de frais médicaux chaque année. Des chercheurs du MIT ont mis au point un système permettant de s’attaquer à ce problème mondial en signalant les erreurs potentielles dans la méthode d'auto-administration du patient.

La nouvelle technologie associe la détection sans fil à l'IA sur un patient en 3 étapes : la détection du patient dans un rayon de 10 mètres par ondes radio, puis la reconnaissance d’un comportement d’auto-administration (inhalateur, stylo à insuline), et enfin, l’envoi d’une alerte au patient ou son médecin lorsqu'il détecte une erreur dans l'auto-administration. Cela éviterait ainsi des séjours inutiles à l'hôpital.

(MIT News, 18/03/2021)



Construire une IA de confiance pour la sécurité


Les biais peuvent être à l'origine d'une perte de confiance envers les algorithmes. En effet, ils mettent souvent en lumière des bases de données non représentatives ou des déséquilibres bien réels en "amplifiant des biais humains". Là est le problème, lorsque la situation observée est naturellement biaisée, quelles actions pouvons-nous mettre en œuvre pour ne pas la répliquer ?

Consciente de ces difficultés, la Gendarmerie Nationale s'est "engagée à travers son plan stratégique Gend 20.24. dans une exploitation de l’IA raisonnée et progressive". Cependant, certaines applications, comme la délinquance prédictive, peuvent être source de craintes. En conséquence, sont présentés les leviers mis en œuvre pour lutter contre les biais et garantir l’éthique des solutions et préserver la confiance des citoyens. L’impératif de formation est mis en avant comme prérequis pour prendre des décisions en conscience enrichies par la puissance de l’IA.

In fine, l'objectif est de développer une IA "s'inscrivant en complémentarité de l’action humaine", car au final c'est à l'agent que revient la décision.


(Actu IA, 11/03/2021)


 
 
 

Comentarios


Post: Blog2_Post
  • Facebook
  • Twitter
  • LinkedIn

©2020 par AI for Citizen. Créé avec Wix.com

bottom of page