Perché la tendenza dell'intelligenza artificiale ad essere d'accordo può essere dannosa per l'apprendimento
PODCAST OSPITE: Ed-Technical Stagione 2 Mini Episodio 5
In questa stagione Libby Hills dal Jacobs Foundation e il ricercatore di IA Owen Henkel continuano a parlare con ricercatori, professionisti ed educatori di spicco su Serie di podcast Ed-Technical Si parlerà delle frontiere dell'intelligenza artificiale nell'istruzione. I relatori scomporranno concetti complessi di IA in nozioni non tecniche per comprendere meglio i risultati della ricerca e aiutare gli educatori a distinguere le informazioni utili dall'eccessivo clamore mediatico sull'IA.
In this short, Libby and Owen discuss recent research from Anthropic looking at sycophancy – the tendency to agree with users – in large language models (LLMs), and key research from educational psychology about how important feedback is for learning. Libby and Owen connect the two papers and explore why sycophancy is especially a problem when it comes to using LLMs for educational purposes.
Link e Collegamenti
Anthropic paper on sycophancy in language models
John Hattie and Helen Timberley’s paper, The Power of Feedback