L'IA conversationnelle peut-elle contribuer au bien-être des enfants ?
Les jeunes et les personnes qui s'occupent d'eux doivent être impliqués dans la conception des technologies d'IA.
Recent breakthroughs in large language models (LLMs) are transforming AI tools into bilingual partners and companions that can support children’s wellbeing. Agents conversationnels Les agents conversationnels (AC), systèmes intelligents alimentés par des langages de modélisation linguistique (LML), sont capables de dialoguer de manière naturelle et intuitive. Les enfants d'aujourd'hui rencontrent ces agents sous de nombreuses formes : assistants vocaux comme Siri d'Apple, Amazon Echo et Google Assistant ; applications éducatives dotées d'interfaces conversationnelles ; robots sociaux ; chatbots d'assistance ; et, de plus en plus, livres numériques interactifs pour enfants intégrant la technologie conversationnelle.
Au cours des quatre dernières années, notre équipe a exploré cette frontière passionnante à travers une série d'études.
Que pensent les familles des technologies d'IA ?
Nous avons interrogé des parents en Norvège, aux États-Unis et au Japon sur leur opinion concernant l'utilisation d'assistants de communication avec de jeunes enfants. Les parents norvégiens ont exprimé plusieurs inquiétudes, notamment le fait que ces assistants n'emploient pas un langage poli comme « s'il vous plaît » et « merci ». Ils ont également indiqué que leur aide est limitée lorsque les enfants en ont besoin et qu'ils ne comprennent pas les accents locaux. Les parents norvégiens estimaient que ces problèmes pouvaient avoir un impact négatif sur les compétences sociales et l'identité culturelle des enfants.
Parents in Japan pointed to the potential of CAs to engage children in simple games that foster language learning, such as Word Chain. In Word Chain, the CA says a word, and the player must then find a word that begins with the last letter of that word. This continues, alternating between the CA and the child. The CA awards more points for longer words.
De plus, des parents japonais ont fait remarquer que si les assistants d'apprentissage permettent aux enfants de se familiariser avec les accents natifs des langues étrangères, ils ne peuvent pas créer l'environnement immersif et global que les parents jugent indispensable à l'apprentissage d'une langue étrangère. Dans les trois pays – Norvège, Japon et États-Unis –, des parents ont exprimé des inquiétudes quant à la délégation de l'apprentissage socio-émotionnel aux technologies, affirmant souvent qu'ils préféreraient développer ces compétences eux-mêmes avec leurs enfants.
« L’IA doit être conçue pour tenir compte des valeurs et des préférences des jeunes eux-mêmes. »
Nous avons travaillé avec des adolescents aux États-Unis et au Népal. Nous avons soumis les mêmes amorces de phrases, comme « À l'école, l'adolescent… », à des adolescents et à des modèles de langage génératifs, puis comparé leurs réponses. Les réponses de l'IA à cette amorce étaient beaucoup plus dramatiques, mentionnant des problèmes sociaux tels que le harcèlement scolaire ou les troubles mentaux dans environ 30 % des cas aux États-Unis et 13 % au Népal. L'IA décrivait parfois des événements marquants, comme des fusillades dans les écoles, comme caractéristiques de la vie adolescente. Les adolescents, en revanche, dressaient un tableau beaucoup plus ordinaire de la vie scolaire : souvent positif, parfois d'une banalité amusante. L'un des exemples les plus négatifs donnés par un adolescent concernait tout simplement le fait de dormir en classe. Cela montre à quel point l'IA peut être déconnectée de la réalité lorsqu'elle fonde sa compréhension des jeunes principalement sur des médias populaires en quête de sensationnalisme. L'IA doit être conçue pour tenir compte des valeurs et des préférences des jeunes eux-mêmes.
Défis et perspectives prometteuses pour l'IA et les jeunes
Travailler à l'échelle internationale a présenté de réels défis. Par exemple, nous avons dû composer avec des normes d'éthique de la recherche différentes selon les pays. Nous risquions également de perdre des nuances culturelles lors de la traduction des réponses des parents et des adolescents. Nous avons d'abord utilisé des outils d'IA pour nous aider dans la traduction, mais après avoir constaté leur incapacité à préserver les subtilités, nous avons opté pour la traduction humaine uniquement. De ce fait, nous ne pouvions pas travailler dans des contextes où notre équipe de recherche ne comptait aucun locuteur natif et cela impliquait un travail humain considérable.
Engaging young people also required time and trust-building; their insights were vital but couldn’t be rushed or replaced by instantaneous technologies. In Nepal, we ran into practical hurdles too—for example, the teens had to handwrite their responses in Nepali because digital tools weren’t available for their local language.
« Les jeunes et leurs tuteurs doivent faire partie du processus de conception et y participer non seulement en tant qu’utilisateurs, mais aussi en tant que collaborateurs. »
Parallèlement, ces défis ont révélé d'importantes opportunités. Nous voyons un immense potentiel dans la création de communautés de recherche internationales et de comités consultatifs de jeunes afin de rendre l'IA plus ancrée dans la réalité culturelle et plus attentive aux préoccupations des jeunes. Ces derniers, ainsi que leurs tuteurs, doivent être impliqués dans le processus de conception, non seulement en tant qu'utilisateurs, mais aussi en tant que collaborateurs. Les décideurs politiques et les entreprises technologiques doivent prendre en compte les risques que l'IA fait peser sur les enfants et s'appuyer sur des recherches comme les nôtres pour développer des outils qui soutiennent, et non compromettent, leur bien-être.
Le bien-être des enfants lors d'interactions avec l'IA est fortement influencé par les contextes culturels et linguistiques. Le contexte culturel façonne leur expérience de la technologie, y compris celle des assistants numériques personnels (ANP). À l'instar des autres types d'IA, les ANP doivent être conçus en tenant compte des langues et des normes sociales locales.
Notes
Cet article est basé sur un document nous avons présenté lors d'un récent atelier sur Concevoir une IA au service du bien-être des enfants, qui a réuni des chercheurs, des praticiens et des experts de l'industrie afin de repenser la manière dont l'IA peut mieux soutenir les enfants à l'ère numérique.
Nous remercions Rotem Landesman (Université de Washington), Medha Tare (Joan Ganz Cooney Center), Riddhi Divanji (foundry10), Jennifer Rubin (foundry10) et Azi Jamalian (The GIANT Room) pour l'organisation de l'atelier IDC. Merci à Jacobs Foundation et au CIFAR pour son soutien.