Tassi di allucinazioni nei modelli linguistici complessi: quali sono le implicazioni in ambito educativo?
PODCAST OSPITE: Ed-Technical Stagione 1 Mini Episodio 1
Unisciti a due ex insegnanti: Libby Hills della Jacobs Foundation e il ricercatore di intelligenza artificiale Owen Henkel – per il Serie di podcast Ed-Technical Informazioni sull'intelligenza artificiale nell'istruzione.
ogni episodio, ospite ospitato su BOLDLibby e Owen chiederanno a degli esperti di aiutare gli educatori a distinguere le informazioni utili dall'entusiasmo che circonda l'intelligenza artificiale. Porranno domande come: "In che modo l'IA aiuta realmente studenti e insegnanti?", "Cosa sappiamo davvero di questa tecnologia e cosa è solo speculazione?" e "Quando parliamo di 'IA', di cosa ci riferiamo esattamente?".
This week, in a mini episode, the gloves come off as Libby and Owen engage in a lively debate about the “hallucinations” in large language models (e.g. unexpected and hard to explain errors) and their impact on building educational products.
They spar on the nuances of model hallucinations, discussing the various forms and potential consequences. Owen presents a “spicy take” on the matter, advocating for the value of engagement and interaction even if it means accepting a certain level of inaccuracy.
Libby, however, expresses concerns about the accuracy of information in educational settings, particularly in K-12 schools. She emphasizes the importance of the high bar set by traditional educational tools in terms of factual correctness.
Who scores an ed-technical knockout? You, the listeners, will decide!