En 2011, la exjueza Kay Firth-Butterfield comenzó a reflexionar sobre cómo los seres humanos podrían convivir y trabajar con la inteligencia artificial (IA). Es investigadora principal en la Universidad de Texas, donde investiga el uso y la gobernanza de la tecnología (IA). En 2014, se convirtió en la primera responsable de ética de la IA del mundo (en Lucid Holdings LLC) y es una experta destacada en IA responsable. Durante más de cinco años, dirigió el área de IA y aprendizaje automático en el Foro Económico Mundial, donde se encargó de orientar a las naciones y las empresas hacia un uso responsable de las nuevas tecnologías. Forma parte de un consejo y una junta asesora de la administración estadounidense y de la UNESCO, respectivamente.

Actualmente, es directora ejecutiva de Good Tech Advisory, una organización que colabora con gobiernos, organizaciones benéficas, empresas y el mundo académico para ayudar a implementar un uso responsable y productivo de la IA, respetando siempre la normativa legal. Reconocida desde hace tiempo como una figura destacada en la gobernanza de la IA, recibió el premio TIME100 Impact Award en febrero de este año.

Ella hablo con BOLD sobre los retos a los que se enfrentan las escuelas y universidades, los estudiantes y los profesores al lidiar con el avance de la IA.

Helena Pozniak: ¿Es inevitable el uso de la IA en la educación?

Kay Firth-Butterfield: Sí, ya no podemos dar marcha atrás. Los estudiantes lo usarán para sus tareas. Debemos centrarnos más en cómo garantizar su seguridad en lugar de prohibirlo. La IA generativa facilita el acceso a la información en internet. A medida que mejora, se convierte prácticamente en el cerebro que tenemos al lado. Pero es fundamental hacerlo bien: nuestros hijos necesitan aprender a trabajar y convivir con la inteligencia artificial. Son los humanos quienes deben estar al mando. Los modelos de lenguaje a gran escala presentan muchos sesgos. Es esencial que todos los usuarios reciban formación para comprender las capacidades de la máquina y sus limitaciones.

HP: ¿Cuáles son los peligros de la IA para los niños?

KFB: Una de las cosas que me preocupan es que los niños forman sus creencias, valores y actitudes antes de cumplir los siete años, por lo que debemos reflexionar detenidamente sobre las políticas para la primera infancia.

Es fundamental comprender el impacto de los juguetes educativos que les proporcionamos. Podría decirse que las computadoras son más eficaces que los humanos para influir, motivar y manipular el comportamiento. Además, debemos saber dónde se almacenan los datos de los niños, si sus dispositivos pueden ser pirateados y si se puede identificar a los menores.

“Pero hacerlo bien es fundamental: nuestros hijos necesitan ser educados para trabajar y vivir con la inteligencia artificial.”

La mayoría de los juguetes con IA para niños pequeños, como las muñecas inteligentes, se fabrican en China. Si se desea que un juguete conectado mantenga conversaciones con el niño, este deberá recopilar datos de dichas interacciones. ¿Dónde se almacena esa información y está protegida? Desconocemos esta información, lo que plantea importantes problemas de privacidad de datos.

También necesitamos hablar sobre hasta qué punto estamos dispuestos a permitir que la tecnología «cuide» a nuestros hijos. ¿Qué pasaría si esta muñeca conectada se convirtiera en la mejor amiga de un niño, pero luego «muriera»? ¿Cómo reaccionaría el niño? ¿Sería esa «muerte» más difícil para él que cuando un osito de peluche se rompe en pedazos? ¿Y si tu mejor amigo fuera una máquina? ¿Interactuar con estas máquinas es una preparación para el futuro? Aún no lo sabemos, pero estamos probando esto con los más vulnerables: los niños. Esto nos lleva de nuevo a la necesidad de una educación generalizada sobre IA para que los padres puedan tomar decisiones informadas sobre los juguetes y las herramientas que usan sus hijos.

HP:¿Y qué pasa con los niños mayores?

KFB: La IA debe considerarse en todos los niveles. Estamos educando a los niños para el futuro y, potencialmente, para diversas profesiones. Deben estar preparados para aprovechar al máximo la tecnología a medida que evoluciona. Y debemos educar a todos sobre la IA para poder participar activamente en el debate sobre el futuro que queremos para nuestros hijos y nietos.

HP: Ya conocemos la IA, ¿por qué necesitamos formación en IA?

KFB: Uno de los mayores problemas es que las capacidades de la IA están superando la comprensión que casi todos tienen de ella. Cuando se utiliza en la educación, en los hospitales, en nuestro sistema electoral, la gente no necesariamente entiende lo que está sucediendo. Es sumamente importante que todos, especialmente los docentes, lo entiendan. Los docentes necesitan capacitación urgente. Además, estamos viendo un aumento desconfianza en la IALa educación ayudará a las personas a saber de qué deben desconfiar y qué pueden usar de forma segura.

HP: ¿Cuáles son los componentes fundamentales de una política de IA responsable en las escuelas?

KFB: Una de las primeras medidas sería educar a los niños para que comprendan qué significa interactuar con un modelo de IA generativa. Las escuelas también deben preguntarse: ¿la IA aumenta el conocimiento o simplemente nos vuelve más perezosos? Si los niños van a aprender algo sobre IA, deben aprender a usarla correctamente.

A los niños les resulta divertido interactuar con la IA, pero ¿qué implica esto en términos de privacidad y datos, y dónde y cómo se almacena la información? Los estudiantes deben ser conscientes de que algunas de estas herramientas pueden ser pirateadas, y las escuelas deben establecer medidas de seguridad, especialmente en lo que respecta a los datos y la privacidad.

Más información sobre ética, privacidad y seguridad en la IA
El científico de datos que sitúa a los humanos en el centro de la IA educativa

Hemos visto cómo esto tiene consecuencias negativas en el mundo empresarial: en abril de 2023, ingenieros de Samsung en Corea del Sur subieron código sensible a ChatGPT, lo que llevó a la empresa a prohibir el uso de IA generativa en sus dispositivos y redes internas, y algunos bancos estadounidenses han restringido su uso. Cualquier modelo generativo que se entrene a partir de datos de internet utiliza datos subidos a internet.

“Los estudiantes deben ser conscientes de que algunas de estas herramientas pueden ser pirateadas, y las escuelas deben establecer medidas de seguridad, especialmente en lo que respecta a los datos y la privacidad.”

Los estudiantes deben ser conscientes de que pueden recibir información errónea debido a "alucinaciones" [cuando un modelo de lenguaje de IA a gran escala hace predicciones incorrectas] y "canibalismo" [cuando una IA "aprende" de datos generados por IA, creando un ciclo de retroalimentación de calidad potencialmente deficiente].

Los padres también deben comprender cómo se utiliza la IA. Sin embargo, la decisión final sobre la IA debe recaer en las escuelas, no en los padres, a quienes no se les debe permitir imponer el contenido. Ya hemos visto cómo algunos tipos de escuelas prohíben ciertos libros en Estados Unidos, lo que genera una gran presión entre los docentes.

Los centros educativos también deben saber que la IA puede utilizarse como una forma de acoso; por ejemplo, mediante el uso de IA generativa para crear imágenes pornográficas falsas (deepfake) de compañeros. Controlar esto supone una carga adicional para los centros.

HP: ¿Y el futuro? ¿Eres optimista?

KFB: Creo en el poder de la IA para el bien. No me dedicaría a perfeccionarla si no creyera que vale la pena. Soy muy optimista y creo que, si establecemos las medidas de seguridad adecuadas y comprendemos que no es una varita mágica que lo simplificará todo, existe un enorme potencial para lograr grandes cosas para la humanidad. Pero necesitamos ideas realmente innovadoras sobre la educación del futuro.

HP: ¿Qué impacto tendrá la IA en el papel de los docentes? ¿Qué apoyo necesitan?

KFB: Los docentes necesitan urgentemente ayuda, apoyo y formación.

Los estudiantes van a usar la IA si y cuando puedan, y prohibirla no es la solución. Hemos estado hablando de aulas invertidas Durante años. En lugar de impartir contenidos, los profesores pueden usar el tiempo de clase para desafiar a sus alumnos y fomentar el pensamiento crítico y analítico. A menos que evalúes lo que los alumnos te han contado en un ensayo para el que probablemente hayan recibido ayuda de inteligencia artificial generativa, entonces ya no les estás enseñando.

Más IA en el aula
¿Cómo pueden los educadores utilizar la IA para apoyar el aprendizaje de sus alumnos?

HP: ¿Podría la IA aliviar la carga de trabajo de los profesores e incluso ayudar a paliar la crisis de contratación?

KFB: Una de mis mayores esperanzas es que podamos hacer bien la IA en la educación. Ya existen herramientas de IA para ayudar con la calificación, ciertamente para ciencias y matemáticas, y podría ver que se podría entrenar la IA generativa para ayudar a calificar también trabajos de humanidades, aunque vale la pena señalar que la Ley de IA de la UE Concluye que usar la IA para calificar es muy arriesgado. Pero espero que también pueda ayudar con todas las tareas administrativas, con la monotonía de la enseñanza, lo que liberará tiempo para interactuar con los alumnos. Por supuesto, esto es importante en el Reino Unido, por ejemplo, pero es extraordinariamente importante si puede llegar al Sur Global, donde los profesores pueden ser responsables de impartir clases con hasta 60 niños de diferentes edades y capacidades.

Más información sobre cómo la IA apoya a los profesores.
La búsqueda para salvar las tardes de domingo de los profesores con IA

También necesitamos un cambio radical en nuestra forma de pensar sobre cómo y qué deben aprender los seres humanos. Los niños necesitan aprender a pensar críticamente sobre los hechos y a analizarlos. En la era de las falsificaciones profundas y la desinformación, no creo que debamos reducir la enseñanza a la mera memorización, sino más bien centrarnos en proporcionarles herramientas para cuestionar.

HP: En su opinión, ¿en qué punto se encuentran los centros educativos y las universidades en cuanto a la adopción de la IA?

KFB: La mayoría de las universidades ya han implementado una política de IA. Los estudiantes utilizan la IA y los profesores aprenden a impartir clases en un mundo con IA. Sin embargo, para las universidades es mucho más sencillo, ya que gozan de mayor libertad académica que las escuelas. A medida que las máquinas se vuelven más capaces, lo que nos hace humanos cobrará mayor importancia, lo que implica centrarse en las humanidades (especialmente para los científicos que crean la IA).

“A medida que las máquinas se vuelven cada vez más capaces, lo que nos hace humanos será lo que cobrará importancia, lo que implica concentrarse en las humanidades.”

HP: ¿Estamos exagerando?

KFB: No, creo que debemos hablar de esto ahora, porque estamos tomando decisiones fundamentales: ¿a qué edad permitiremos que nuestros hijos tengan juguetes inteligentes? ¿Cuál es su papel en la socialización? ¿Cómo colaborarán la IA y los humanos en el futuro? ¿Es este el futuro que queremos? Entender realmente qué esperan los humanos de la IA es quizás más relevante que preocuparse por que la IA se vuelva superinteligente. Necesitamos reflexionar sobre cuánto dominará la IA nuestro futuro y cuánto control tendremos sobre él. La educación es el punto de partida de esta conversación, pero es una conversación que debemos tener ahora.

Notas a pie de página

Kay Firth-Butterfield Es directora ejecutiva de Good Tech Advisory, una organización que colabora con gobiernos, organizaciones benéficas, empresas y el mundo académico para ayudar a implementar un uso responsable y productivo de la IA, respetando siempre la normativa legal. Reconocida desde hace tiempo como una figura destacada en la gobernanza de la IA, recibió el premio TIME100 Impact Award en febrero de este año.