Que doivent savoir les élèves, les parents et les enseignants sur l'IA ?
L'éducation à l'IA aidera les gens à comprendre les risques, les limites et les opportunités
En 2011, l'ancienne juge Kay Firth-Butterfield a commencé à réfléchir à la manière dont les humains pourraient vivre et travailler avec l'intelligence artificielle (IA). Chercheuse principale à l'Université du Texas, elle étudie l'utilisation et la gouvernance des technologies (IA). Elle est devenue la première responsable mondiale de l'éthique de l'IA (chez Lucid Holdings LLC) en 2014 et est une experte reconnue en matière d'IA responsable. Pendant plus de cinq ans, elle a dirigé le programme IA et apprentissage automatique du Forum économique mondial, où elle était chargée d'orienter les nations et les entreprises vers une utilisation responsable de ces nouvelles technologies. Elle siège au conseil et au comité consultatif de l'administration américaine et de l'UNESCO, respectivement.
Aujourd'hui, elle dirige Good Tech Advisory, un organisme qui collabore avec les gouvernements, les organisations caritatives, les entreprises et le monde universitaire pour promouvoir une utilisation responsable et productive de l'IA, dans le respect des réglementations. Figure de proue de la gouvernance de l'IA, elle a reçu le prix TIME100 Impact Award en février dernier.
Elle a parlé à BOLD à propos des défis rencontrés par les écoles et les universités, les étudiants et les enseignants, face aux progrès de l'IA.
Helena Pozniak : L'utilisation de l'IA dans l'éducation est-elle inévitable ?
Kay Firth-Butterfield : Oui, il est impossible de faire marche arrière maintenant. Les élèves vont l'utiliser pour leurs devoirs. Nous devons nous concentrer davantage sur la manière de sécuriser son utilisation plutôt que de l'interdire. L'IA générative rend l'information sur Internet plus accessible. À mesure qu'elle s'améliore, elle devient en quelque sorte l'équivalent d'un cerveau à nos côtés. Mais il est crucial de bien la maîtriser : nos enfants doivent être éduqués à vivre et à travailler avec l'intelligence artificielle. C'est aux humains d'en avoir le contrôle. Les grands modèles de langage comportent de nombreux biais. Il est essentiel que tous les utilisateurs soient formés à comprendre ce que la machine peut faire pour nous, et ses limites.
HP: Quels sont les dangers de l'IA pour les enfants ?
KFB : Ce qui m’inquiète, c’est que les enfants forgent leurs croyances, leurs valeurs et leurs attitudes avant l’âge de sept ans ; nous devons donc réfléchir attentivement aux politiques qui concernent la petite enfance.
Il est essentiel de bien comprendre l'impact des jouets éducatifs que nous offrons aux enfants. Les ordinateurs sont sans doute plus efficaces que les humains pour influencer, inciter et manipuler les comportements. Nous devons également savoir où se trouvent les données des enfants, si les appareils sont vulnérables au piratage et si les enfants peuvent être identifiés.
« Mais il est essentiel de bien faire les choses – nos enfants doivent être éduqués pour travailler et vivre avec l’intelligence artificielle. »
La plupart des jouets dotés d'intelligence artificielle pour jeunes enfants, comme les « poupées intelligentes », sont fabriqués en Chine. Si vous souhaitez qu'un jouet connecté puisse « converser » avec votre enfant, il devra collecter des données lors de ces interactions. Où ces informations sont-elles stockées et sont-elles sécurisées ? Nous l'ignorons, ce qui soulève d'importantes questions de confidentialité des données.
Nous devons aussi aborder la question de savoir dans quelle mesure nous sommes prêts à laisser la technologie « prendre soin » de nos enfants. Que se passerait-il si cette poupée connectée devenait le meilleur ami d'un enfant, puis « meurait » ? Comment l'enfant réagirait-il ? Une telle « mort » serait-elle plus difficile à vivre pour lui que la destruction d'un ours en peluche ? Et si votre meilleur ami était une machine ? Interagir avec ces machines est-il une préparation à l'avenir ? Nous ne le savons pas encore, mais nous faisons l'expérience de cette technologie sur les plus vulnérables d'entre nous : les enfants. Cela nous ramène à la nécessité d'une éducation généralisée sur l'IA afin que les parents puissent prendre des décisions éclairées concernant les jouets et les outils utilisés par leurs enfants.
HP:Et les enfants plus âgés ?
KFB : L’IA doit être prise en compte à tous les niveaux. Nous formons les enfants à l’avenir et à de multiples carrières. Ils doivent être en mesure de tirer le meilleur parti des technologies en constante évolution. Et nous devons sensibiliser chacun à l’IA afin de pouvoir participer pleinement au débat sur l’avenir que nous souhaitons pour nos enfants et petits-enfants.
HP: Nous connaissons déjà l'IA – pourquoi avons-nous besoin d'une formation en IA ?
KFB : L’un des plus grands problèmes est que les capacités de l’IA dépassent de loin la compréhension qu’en a presque toujours la population. Lorsqu’elle est utilisée dans l’éducation, les hôpitaux ou notre système électoral, les gens ne comprennent pas forcément ce qui se passe. Il est absolument essentiel que chacun, et les enseignants en particulier, comprenne. Les enseignants ont un besoin urgent de formation. De plus, nous constatons une augmentation… méfiance envers l'IAL’éducation permettra aux gens de savoir de quoi ils doivent se méfier et ce qu’ils peuvent utiliser sans danger.
HP: Quels sont les éléments fondamentaux d'une politique responsable en matière d'IA dans les écoles ?
KFB : L’une des premières actions consisterait à sensibiliser les enfants à ce qu’implique l’interaction avec un modèle d’IA générative. Les écoles doivent également poser la question suivante : l’IA enrichit-elle nos connaissances ou nous rend-elle simplement plus paresseux ? Si les enfants veulent apprendre quoi que ce soit sur l’IA, ils doivent apprendre à l’utiliser correctement.
Interagir avec l'IA est certes amusant pour les enfants, mais qu'en est-il du respect de la vie privée et de la protection des données ? Où et comment ces informations sont-elles stockées ? Les élèves doivent être conscients que certains de ces outils sont vulnérables au piratage, et les établissements scolaires doivent mettre en place des mesures de sécurité, notamment en matière de données et de confidentialité.
Nous avons constaté les conséquences désastreuses de cette pratique dans le monde de l'entreprise : en avril 2023, des ingénieurs de Samsung en Corée du Sud ont téléchargé du code sensible sur ChatGPT, ce qui a incité l'entreprise à interdire l'utilisation de l'IA générative sur ses appareils et ses réseaux internes, et certaines banques américaines ont restreint son utilisation. Tout modèle génératif entraîné à partir d'Internet utilise des données téléchargées sur Internet.
« Les élèves doivent être conscients que certains de ces outils peuvent être piratés, et les écoles doivent mettre en place des garde-fous, notamment en matière de données et de confidentialité. »
Les étudiants doivent être conscients qu'ils peuvent recevoir de fausses informations dues à des « hallucinations » [lorsqu'un grand modèle de langage d'IA fait des prédictions incorrectes] et à du « cannibalisme » [lorsqu'une IA « apprend » à partir de données générées par l'IA, créant une boucle de rétroaction potentiellement de mauvaise qualité].
Les parents doivent également comprendre comment l'IA est utilisée. Cependant, la décision finale concernant l'IA doit revenir aux établissements scolaires et non aux parents, qui ne doivent pas pouvoir dicter les contenus. Aux États-Unis, certains établissements ont déjà interdit certains livres, ce qui met les enseignants sous pression.
Les établissements scolaires doivent également être conscients que l'IA peut servir de moyen de harcèlement, par exemple en utilisant l'IA générative pour créer des images pornographiques truquées de camarades de classe. La surveillance de ce type d'utilisation représente une charge supplémentaire pour les écoles.
HP: Et l'avenir ? Êtes-vous optimiste ?
KFB : Je crois au pouvoir bienfaisant de l’IA. Je ne m’efforcerais pas de la maîtriser si je n’en étais pas convaincu. Je suis très optimiste : si nous mettons en place les garde-fous nécessaires et comprenons qu’il ne s’agit pas d’une baguette magique pour tout simplifier ou améliorer, son potentiel pour l’humanité est immense. Mais nous avons besoin d’une réflexion véritablement novatrice sur l’éducation de demain.
HP: Quel impact l'IA aura-t-elle sur le rôle des enseignants ? De quel soutien ont-ils besoin ?
KFB : Les enseignants ont besoin d’aide, de soutien et de formation de toute urgence.
Les étudiants utiliseront l'IA dès qu'ils en auront l'occasion, et l'interdire n'est pas la solution. Nous en avons parlé. salles de classe inversées Depuis des années, plutôt que de se concentrer sur le contenu, les enseignants peuvent utiliser le temps d'enseignement pour stimuler la réflexion critique et analytique de leurs élèves. À moins d'évaluer ce que les élèves ont écrit dans une dissertation probablement rédigée avec l'aide d'une intelligence artificielle générative, alors vous ne leur enseignez plus rien.
HP: L'IA pourrait-elle alléger la charge de travail des enseignants et même contribuer à résoudre la crise du recrutement ?
KFB : J’espère vivement que nous pourrons intégrer l’IA de manière pertinente dans l’éducation. Il existe déjà des outils d’IA pour faciliter la correction, notamment en sciences et en mathématiques, et je pense qu’il serait possible de former une IA générative pour corriger également les travaux en sciences humaines, même s’il convient de noter que… la loi européenne sur l'IA Cette étude conclut que l'utilisation de l'IA pour la notation est extrêmement risquée. J'espère toutefois que l'IA pourra également prendre en charge toutes les tâches administratives, les corvées de l'enseignement, ce qui permettra de dégager du temps pour interagir avec les élèves. C'est évidemment important au Royaume-Uni, mais cela revêt une importance capitale si cette technologie peut être déployée dans les pays du Sud, où les enseignants peuvent être responsables de classes comptant jusqu'à 60 élèves d'âges et de niveaux différents.
Nous devons également repenser entièrement la manière dont les êtres humains apprennent et ce qu'ils doivent apprendre. Les enfants doivent apprendre à analyser les faits de manière critique. À l'ère des deepfakes et de la désinformation, je pense qu'il ne faut pas réduire l'enseignement aux seuls apprentissages de la mémorisation, mais plutôt se concentrer sur le développement de leur esprit critique.
HP: Où en sont, selon vous, les écoles et les universités en matière d'adoption de l'IA ?
KFB : La plupart des universités ont déjà mis en place une politique relative à l’IA. Les étudiants utilisent l’IA et les professeurs apprennent à enseigner dans un monde où elle est omniprésente. Mais c’est beaucoup plus simple pour les universités, qui bénéficient d’une plus grande liberté académique que les écoles. À mesure que les machines deviennent plus performantes, ce sont les qualités humaines qui comptent, ce qui implique de se concentrer sur les sciences humaines (en particulier pour les scientifiques qui créent l’IA).
« À mesure que les machines deviennent de plus en plus performantes, ce qui nous rend humains deviendra important, ce qui implique de se concentrer sur les sciences humaines. »
HP: N'en faisons-nous pas trop ?
KFB : Non – je pense qu’il est urgent d’agir, car nous prenons des décisions fondamentales : à quel âge autoriserons-nous nos enfants à avoir des jouets intelligents ? Quel sera leur rôle dans leur socialisation ? Comment l’IA et les humains collaboreront-ils à l’avenir ? Est-ce l’avenir que nous souhaitons ? Comprendre ce que les humains attendent de l’IA est peut-être plus pertinent que de s’inquiéter de son éventuelle surintelligence. Nous devons réfléchir à la mesure dans laquelle l’IA dominera notre avenir, et à la mesure dans laquelle nous en serons maîtres. L’éducation est le point de départ de ce débat, mais c’est un débat que nous devons avoir dès maintenant.
Notes
Kay Firth-Butterfield Elle est directrice générale de Good Tech Advisory, un organisme qui collabore avec les gouvernements, les organisations caritatives, les entreprises et le monde universitaire pour promouvoir une utilisation responsable et productive de l'IA, dans le respect des réglementations légales. Reconnue depuis longtemps comme une figure de proue de la gouvernance de l'IA, elle a reçu le prix TIME100 Impact Award en février dernier.