Connectez-vous

Accueil

Région académique TNE La DRANE Collectivités territoriales Ressources et usages Intelligence artificielle Expérimenter / Innover Hybridation Offres de services Je suis ... Publications Protéger / Sécuriser / Responsabiliser Former / Accompagner

IA dans la classe

Publié le Apr 23, 2024 Modifié le : Jun 10, 2024

Écrire à l'auteur

Le  Tuesday, April 23, 2024

«IA et EMI : le retour de l’interprétation»

Une intervention de Divina Frau-Meigs, professeure de sociologie des médias et des TIC à l’Université Sorbonne Nouvelle, spécialiste des questions de réception et d’usage des technologies de l’information et de la communication

  • Divina Frau-Meigs

    Professeure émérite, titulaire d’une chaire Unesco,« Savoir Devenir à l’ère du développement numérique durable : articuler usages et apprentissages pour maîtriser les cultures de l’information », Mme Divina Frau-Meigs est intervenue sur «IA et EMI : le retour de l’interprétation» lors du séminaire national des IAN Lettres et Philosophie, le 28 mars dernier à Paris. (compte-rendu réalisé par Nathalie Perez, chargée de missions DRANE PACA, pôle Nice)

     

     

    L’information, un enjeu clé du XXième siècle

     
    L’Intelligence Artificielle (IA), notamment dans sa version Générative (GIA), exerce une influence notable sur l’interaction des individus avec l’information, la technologie numérique et les médias. Elle suscite des inquiétudes concernant la maîtrise de l’information, l’autonomie dans la prise de décision et la liberté en général. Avec la démocratisation de l’IA générative (qui a moins d’un an), on assiste à une perte de contrôle.

     

    Confronter les imaginaires et le fonctionnement réel de l’IA

     
    - A priori et mythes autour de l’IA

    L’IA est un sujet dont la plupart des gens ont entendu parler, mais souvent sans véritablement comprendre sa nature. Les représentations fictives dans la littérature, les films et les séries ont largement contribué à alimenter des fantasmes et des visions dystopiques. Ces récits ont façonné notre perception de l’Intelligence Artificielle, souvent en mettant en scène des scénarios où les machines se retournent contre l’humanité. La fiction agit comme un guide moral et sert de boussole éthique soulevant des questions de société que les corporations tendent à rendre invisibles.

     

    - La panique médiatique récente

    La panique médiatique récente a donné naissance à deux mythes plus récents concernant l’IA :

    • La croyance en une prétendue “intelligence” de l’IA, mettant en avant des termes comme “réseaux neuronaux”, “hallucinations” ou “conversations”, qui peuvent être mal interprétés comme des signes d’une intelligence comparable à celle humaine.
    • Les déclarations apocalyptiques qui évoquent une “course aux armements” dans le développement de l’IA, sa “prolifération” incontrôlée et les “risques existentiels” que cela pourrait engendrer.

     

    En réalité, l’IA a fait des progrès considérables, propulsée par le développement rapide de la recherche scientifique et l’exploitation croissante des données massives (big data) ; elle s’est enrichie de techniques algorithmiques de plus en plus poussées et de fonctions simili-cognitives.

     

    L’Éducation aux Médias et à l’Information (EMI) : une nécessité

    • Elle permet de combler le déficit de culture générale sur les questions numériques, y compris l’IA.

     

    • Elle favorise le développement d’une réflexion critique et créative sur la manière de mettre en œuvre les valeurs des droits de l’homme, telles que la liberté d’expression, la vie privée, la sécurité, la participation et l’inclusion, dans un contexte numérique en constante évolution.

     Concept de translittératie : croisement des compétences EMI et PIX

     
    En combinant ces deux approches, les individus peuvent acquérir les compétences nécessaires pour être actifs, critiques et responsables dans leur interaction avec les médias et les technologies numériques. Cela inclut la capacité à utiliser efficacement les outils numériques, à évaluer de manière critique l’information en ligne, à reconnaître les biais et les manipulations médiatiques, ainsi qu’à créer et partager du contenu de manière éthique et responsable.

     

     

    Translittératie  -les trois cultures de l’information

     

     Translittératie : les trois cultures de l’information (source : ANR TRANSLIT)

     

     Des compétences pour aiguiser l’esprit critique

     
    Ces compétences sont fondamentales pour permettre aux individus de faire preuve de discernement et faire un usage responsable et éthique de la technologie.

    1.Connaissances : comprendre le fonctionnement des algorithmes.

     

    2. Aptitudes :

    • Utiliser de manière responsable les outils d’IA.
    • Effectuer une navigation judicieuse sur les sites web et les bases de données de qualité.
    • Évaluer et comparer les moteurs de recherche pour en garantir la fiabilité.

     

    3. Attitudes :

    • Cultiver un esprit critique, en interprétant de manière à la fois critique et créative les données, leurs utilisations et les impacts des algorithmes.
    • Identifier et signaler les contenus nuisibles tels que la violence, les discours de haine, la pornographie et la désinformation.

     

    4. Valeurs :

    • Défendre activement la liberté d’expression et d’opinion.
    • Respecter et promouvoir la propriété intellectuelle et les droits d’auteur.

     

    Des éléments de design nouveaux : 3 considérations importantes

     Parmi les pistes d’action pour mieux accompagner les élèves, favoriser une meilleure compréhension de l’IA et les aider à devenir des utilisateurs critiques et responsables de la technologie :

     
    ⇒ Exiger l’explicabilité : dépasser le mythe de la boîte noire en rendant les processus de l’IA compréhensibles. Cela implique de rendre visibles les données d’entrée et de sortie, permettant ainsi aux utilisateurs de mieux comprendre le fonctionnement des systèmes pour entrer dans l’Esprit Critique.

     
    ⇒ Former aux interactions avec agents/outils non humains : il est essentiel de reconnaître que les agents et les outils basés sur l’IA sont des instruments, et non des entités humaines. Éviter l’anthropomorphisme et enseigner aux utilisateurs comment interagir de manière appropriée avec ces technologies.

     
    ⇒ Tirer parti de l’expérience des apprenants : reconnaître que les élèves utilisent déjà l’IA et les préparer à être des citoyens conscients et informés.

     

     

    Intégrité de l’information : 2 points de vigilance

     
    Pour garantir l’intégrité de l’information, deux points de vigilance sont essentiels :

    • Les données

    Il est crucial de connaître la qualité des données à l’entrée et les processus de prédiction à la sortie.

    ♦ Les informations techniques doivent être présentées de manière compréhensible.

    ♦ Nécessité d’exiger l’explicabilité et la gouvernance des données en tant que tiers de confiance.

     

    • Les sources

    ♦ Les sources sont hybrides ( simples synthèses) mais ont l’air valides. Il est nécessaire de créer un système pour les sources tertiaires, permettant à tous de citer et de vérifier les messages.

    ♦ Nécessité d’éviter l’auto-empoisonnement de l’IA par l’IA (Cf. la pomme de Blanche-Neige) afin de garantir un cycle de vie sain de l’information.

     

    Vers un glossaire critique

     Ce glossaire vise à déconstruire les terminologies trompeuses et à promouvoir une compréhension plus claire et précise de l’IA.

     
    Rappel de principes-clés :

    • Éviter à tout prix l’anthropomorphisation : celle-ci favorise le marketing et encourage un transfert de confiance, facilitant ainsi l’intrusion dans les foyers et la vie privée ce qui devrait être de l’ordre du risque inacceptable, en poussant la logique de l’IA Act.

     
    Quelques exemples :

    • Intelligence Artificielle = Information Artificielle
    • Systèmes LLM = Systèmes de propositions statistiques
    • Prompt = consigne
    • Conversation = manipulation mécanique de symboles
    • Agent = instrument de récupération de données
    • Hallucination = erreur
    • Boîte noire = manque d’explicabilité en entrée et en sortie



    Pour en savoir plus :

     

    • L’autonomisation des utilisateurs grâce aux réponses apportées par l’éducation aux médias et à l’information à l’évolution de l’intelligence artificielle générative (IAG), UNESCO 2024. Résumé et communication complète