top of page

Revue de presse IA de avril 2023

  • Photo du rédacteur: AI for Citizen
    AI for Citizen
  • 5 avr. 2023
  • 4 min de lecture

>> édition spéciale Chat GPT <<

Les IA comme ChatGPT pourraient remplacer près de 300 millions d’emplois dans le monde, si elles sont à la hauteur de leurs promesses

Credits : AI image generator : artificial intelligence with human face.

ChatGPT, de quoi parle-t-on ? Il s’agit en fait d’un modèle de langage développé par OpenAI basé sur l'architecture GPT-3,5 (Generative Pre-trained Transformer, 3e génération). Il a été entrainé sur une quantité massive de données textuelles (570 Go de textes issus de livres, Wikipédia, articles de recherche, site web) afin de pouvoir produire des réponses pertinentes à une grande variété de questions et de tâches de traitement du langage naturel. ChatGPT fonctionne en utilisant un processus d'apprentissage par renforcement, ce qui signifie qu'il ajuste continuellement ses réponses en fonction des interactions avec son utilisateur. ChatGPT est utilisé dans de nombreux domaines, tels que la traduction automatique, l'assistance virtuelle, l'analyse de sentiment, et la génération de texte.

A propos de génération de texte, le précédent paragraphe a même été rédigé par ChatGPT après lui avoir demandé « pourrais-tu me rédiger une introduction en 5 lignes, expliquant ta génèse et ton fonctionnement de manière vulgarisée ? ». C’est dire la puissance du chatbot.

Dans la suite de l’article il s’agira de se poser 4 questions sur chatGPT et son impact dans l’éducation, la santé, la confiance que l’on peut lui accorder et ses limites.

4 questions que vous devez vous poser sur l'utilisation de chatGPT pour le secteur public


1. Les IA comme ChatGPT sont-elles bienvenues dans le domaine de l’éducation ?

Un article universitaire intitulé « Chatting and Cheating : Ensuring Academic Integrity in the Era of ChatGPT » a été publié pour décrire les défis soulevés par l’IA en ce qui concerne l’intégrité académique et le plagiat. Ce que les lecteurs ne savaient pas, c'est que l'article lui-même avait été rédigé par le chatbot d'IA ChatGPT. « Depuis des années, les universités tentent d'éradiquer le fléau des usines à dissertation qui vendent des dissertations et autres travaux universitaires prérédigés aux étudiants qui tentent de tromper le système ». Les efforts des universitaires deviennent d’autant plus compliqués qu’ils soupçonnent que même les usines à dissertations utilisent ChatGPT. Par ailleurs, la qualité de la grammaire est souvent meilleure que celle d'un étudiant. La dernière version GPT-4 est censée être capable d'écrire d'une manière encore plus réaliste en adaptant le vocabulaire à l’âge de l’étudiant.

Néanmoins, les universitaires peuvent toujours rechercher des indices montrant qu'un élève a utilisé ChatGPT : l’outil ne comprend pas correctement les références académiques - une partie essentielle du travail universitaire - et utilise souvent des références "suspectes" ou les invente complètement. « Au fur et à mesure que votre cours se spécialise, il devient de plus en plus difficile de confier le travail à une machine », déclare Thomas Lancaster, expert en plagiat à l'Imperial College de Londres.

L'université de Bristol est l'un des nombreux établissements universitaires à avoir publié de nouvelles directives sur la manière de détecter si un étudiant a utilisé ChatGPT pour tricher. En cas de triche, ces derniers peuvent même être expulsés. M. Glendinning, responsable de l'intégrité académique à l'université de Coventry, a exhorté les universitaires à être attentifs : « Si vous ne pouvez pas entendre la voix de votre étudiant, c'est un avertissement. ChatGPT se contente de beaucoup de faits et peu de critiques », a-t-elle déclaré.

(The Guardian, 10/03/2023)

2. ChatGPT est-elle une IA qui peut vous aider à améliorer votre santé ?

Le chatbot, a réussi l’examen permettant d’exercer la médecine aux Etats-Unis (United States Medical Licensing Examination) et son potentiel pour aider les étudiants à préparer les épreuves a aussi été constaté. ChatGPT serait capable de fournir des réponses généralisées à des questions de santé et ainsi devenir un conseiller médical selon son créateur, notamment pour les personnes n’ayant pas les moyens de se rendre chez le médecin.

Mais dans quelles mesures peut-on faire confiance à une IA lorsqu’il s’agit de nos données personnelles et de notre santé ?

Les risques liés à l’IA générative sont nombreux, selon Alan Peterson, professeur de sociologie à l’Université de Monash (Australie), et il n’est pas envisageable de pouvoir déléguer des fonctions exercées par des médecins à une IA. D’une part, car la pratique de la médecine repose en grande partie sur les interactions humaines et l’IA ne remplacera jamais les professionnels de santé sur ce point. D’autre part, d’après Leo Anthony Celi, directeur de recherche clinique au MIT, le problème de biais des données des LLM (large language models) empêche d’en tirer parti car les données utilisées par les LLM ne sont pas représentatives de la majeure partie du monde. Quand un médecin cherchera à trouver un remède personnalisé à votre maladie, une IA cherchera une solution adaptée à la majorité des malades similaires qui ont alimenté son apprentissage.

(Trustmyscience, 23/02/2023)

3. Ces limites seront-elles dépassées avec GPT-4 ?

GPT3,5 -le modèle sur lequel chatGPT fonctionne actuellement- impressionne par ses réponses, mais sera bientôt supplantée par son successeur GPT-4. Lorsque GPT-3,5 n’avait que qu’un score de 10% à l’examen d’entrée au barreau des Etats-Unis, GPT-4 s’en sort avec un score de 90%. En plus d’être plus fiable dans ses réponses, il serait multimodal : capable de comprendre des images, en plus du texte. Dans la présentation de GPT-4, OpenAI reconnait : « La différence apparaît quand la complexité de la tâche atteint un certain seuil. GPT-4 est plus fiable, créatif et capable de gérer des instructions plus nuancées que GPT-3,5. ». Le nouveau modèle serait non seulement plus fiable sur l’exactitude factuelle de ses réponses, mais aussi plus sécurisé en évitant de répondre à des requêtes interdites (de la blague raciste à la recette d’une bombe artisanale).

La version 4 serait donc plus fiable, mais au prix de la transparence : OpenAI a publié peu d’information sur son architecture, sa base d’apprentissage, la puissance de calcul et le hardware employé.

L’IA progresse, mais sera-t-il acceptable de lui faire confiance, quitte à se tromper seulement 10% du temps ? Même avec 1% d’erreur, il sera de mise de garder un esprit critique et une garantie humaine, surtout pour certaines applications à fort enjeu ou à risque.

 
 
 

Kommentare


Post: Blog2_Post
  • Facebook
  • Twitter
  • LinkedIn

©2020 par AI for Citizen. Créé avec Wix.com

bottom of page