Edición #8 AI (la inteligencia artificial) + K-12(i) Es hora que los Cuidananos Digitales Interfieran

 

Solía pensar que inteligencia artificial era solamente la charla que oía por casualidad después de los debates políticos en las fiestas de cóctel. Pero no, es algo más importante que eso.

Pasando por alto la conversación existencial acerca de que si las máquinas pueden pensar o no, la inteligencia artificial (IA) se refiere a máquinas –específicamente a algoritmos de software- que llevan a cabo decisiones por nosotros. Dado el nivel del poder digital que tenemos hoy en día, las máquinas de IA pueden interactuar con el medio ambiente, razonar, y, lo más importante, aprender de sus propias actividades –mientras más experiencia obtengan, serán más inteligentes-. Entre estas capacidades a una autonomía lograda por la propia máquina, solamente hay un pequeño paso. Ahora dependerá de ellas. Nuestras máquinas podrán consultarnos o no acerca de las decisiones que lleven a cabo y que afecten nuestras vidas.

Vemos ahora IA en todas partes, desde la autocorrección en los mensajes de texto, automóviles que se auto-conducen, hasta armamento autónomo que “detecta objetivos sin intervención humana”[ii] Independientemente de la forma que tome, la IA proyecta autoridad por medio de la ilusión de la facticidad. Utilizando matemáticas imparciales y lógica computacional, la IA deduce el resultado de la información que adquiere, la cual utiliza después para determinar el mejor curso de acción que debemos tomar. Entonces, si el error humano es eliminado, ¿qué podría resultar mal?

Sin embargo, todos hemos visto demasiada “ciencia de no ficción” para caer en la cuenta que hay resultados no del todo positivos. Como el auto corrector de texto, que en ocasiones, por su parte produce resultados divertidísimos, vemos también que los automóviles inteligentes chocan y los armamentos autónomos matan a la gente equivocada.

Entonces, ¿qué podría salir mal – o bien- utilizando IA en la educación?

Considera una de las aplicaciones de la IA más comunes en la educación: los sistemas de aprendizaje inteligentes. Tomando en cuenta el poder de la IA, los diseñadores educacionales pueden construir estrategias para la instrucción basándose en la historia y el patrón de aprendizaje que los estudiantes han establecido a lo largo de sus años en la educación. Los sistemas de IA pueden hacer inferencias o deducciones acerca de las modalidades de aprendizaje preferidas por los estudiantes, los tipos de ejemplos con los que se relacionan, uso efectivo de medios y así sucesivamente. En la superficie, todo esto ofrece una gran promesa para conectarnos hacia una educación individualizada y orientada hacia el cliente.

Sin embargo, hay cuestiones que cualquier ciudadano digital debe tomar en cuenta.

En primer lugar, la tutoría por parte de la IA nos obliga a vivir en una especie de burbuja, que debido a que filtra la educación, no se adapta tan fácilmente a algunos de los ingredientes más atractivos del éxito de los estudiantes, tales como la inspiración, dibujar por fuera de las líneas, y los impactos del maestro talentoso e intuitivo por mencionar algunos.

En segundo lugar, cualquier cosa que pueda caerse de la nube puede, y en mi opinión, eventualmente lo hará, alimentar el algoritmo de aprendizaje de la IA: Conversaciones en redes sociales, resultados de exámenes, decisiones que se llevan a cabo durante los juegos, etc., puedes mencionar lo que sea.  Durante el proceso, los sistemas de IA construirán los sistemas más completos e invasivos de perfiles personales que podamos haber visto. Los desarrolladores argumentarán que recolectando los datos de las huellas digitales de los estudiantes van a proveer un entendimiento integral de la persona, dando como resultado materiales educativos más eficaces.

Y en tercer lugar, la IA está construida sobre una base muy inestable de sesgo humano, la gran mayoría está debajo de la superficie y no podemos verla. Después de los milenios de innovación, debemos grabar esto en nuestras mentes: “Todo lo que está hecho por nosotros contiene nuestro sesgo”. Los programadores e innovadores toman decisiones culturales y basadas en valores, por lo general de forma inconsciente, siempre que desarrollan nuevas apps, crean nuevos dispositivos y elementos vinculados en red de manera significativa. Sus decisiones pueden cambiar la perspectiva de casi todo, desde relaciones sociales hasta actitudes hacia el ambiente. Incluso en las mejores circunstancias, el sesgo es parte de la base de la condición humana. Esto significa que ninguna tecnología es neutral porque los seres humanos no somos neutrales. Y esto significa que el sistema educativo de tu hijo contiene juicios de valor y perspectivas con las cuales no estés del todo de acuerdo si estuvieran lo suficientemente visibles para ser cuestionadas.

El aspecto negativo más conmovedor es su gran fuente de poder: carece de interferencia humana. Debido a que los humanos retroceden y dan un paso atrás, y dejan que las máquinas hagan su magia, tenemos como resultado maquinarias de IA que ganan Jeopardy y que ordenan información de una infinidad de diagnósticos médicos mucho más rápido que los humanos jamás podrían hacerlo. Pero hemos delegado inconscientemente nuestra interacción ética con el mundo a la IA, las pequeñas y grandes decisiones. A medida que nos movemos durante los eventos de cada día, procesamos no solamente cómo hacer las cosas sino por qué. Cuando construimos sistemas que contratan y despiden personas, y determinan quién es inteligente y quién no lo es, no estamos haciendo determinaciones objetivas de los hechos. Estamos abdicando nuestro rol en la condición humana a máquinas que no tienen interés alguno en el mundo de las comunidades humanas.

¿Mi consejo? Utilizar la IA con cautela y en las ocasiones en las que dudemos de sus intenciones, interferir.

Después de todo, apenas estamos en el 2016, y el futuro apenas comienza.

 

EN INGLÉS

Artificial Intelligence and Personalized Learning

On the Outer Edge of Digital Citizenship

What is Artficial Intelligence?

I used to think artificial intelligence was the chatter I overheard at cocktail parties after political debates. But it’s more important than that.

Skipping the existential conversation about whether or not machines can actually think, artificial intelligence (AI) refers to machines – more specifically software algorithms – that make decisions for us. Given today’s level of digital power, this means AI machines can interact with the environment, reason, and learn from their own activities – the more they experience, the smarter they get. It’s a short step from these capabilities to machine autonomy, at which point our machines may or may not consult us about the decisions they make that affect our lives. It’s up to them.

AI is Everywhere

We see AI everywhere, from texting autocorrect, to self-driving cars, to autonomous weaponry that “engages targets without human intervention.” (1) Regardless of the form it takes, AI projects authority through the illusion of facticity. Using dispassionate mathematics and computer logic, AI infers meaning from the data it acquires, which it then uses to determine the best course of action to take on our behalf. Given that human error has been eliminated, what could go wrong?

Yet, we’ve all seen a bit too much “science non-fiction” to fall for it. Auto correct produces hilarious results, smart cars crash and autonomous weapons kill the wrong people.

So, what could go wrong – or right – with AI in education?

AI + K12 = iAI – Is it personalized education we want?

Consider one of AI’s most prevalent applications in education: intelligent learning systems. AI designers can build approaches to instruction based on the history and learning patterns that students have established during years of education. AI systems can make inferences about a student’s preferred learning modalities, types of examples they relate to, effective media use and so on. On the surface, this offers great promise to connect us to customer-driven, personalized education.

But there are issues that any digital citizen should be aware of.

First, AI teaching forces us to live within an education filter bubble that doesn’t easily accommodate some of the most compelling ingredients of student success, including inspiration, drawing outside the lines, and the impacts of a gifted, intuitive teacher.

Second, anything that can fall from the cloud can, and in my opinion eventually will, feed the AI learning algorithm: social media conversations, test scores, choices made when playing games, Twitter feeds, you name it. In the process, AI learning systems will construct the most comprehensive, invasive personal profiling systems we have ever seen. Developers will argue that mining students’ digital footprints will provide an understanding of the whole person, leading to more effective educational materials.

And third, AI is built upon the very shaky foundation of human bias, much of which is so far below the surface that we can’t see it. After millennia of innovation, we should burn this into our psyches: Everything made by us contains our bias. Programmers and innovators make cultural and value-based decisions, often unconsciously, while developing new apps, creating new gadgets and linking networked elements in meaningful ways. Their decisions can inflect perspective about anything from social relationships, to our attitude toward the environment. Even in the best of circumstances, bias is part of the bedrock of the human condition – there is no escaping it. This means that no technology is neutral because humans aren’t neutral. And it means your child’s learning system contains value judgments and perspectives that you might not agree with if they were visible enough to question.

A Charge for Digital Citizens: Interfere

AI’s most poignant downside is also its greatest source of power: It lacks human interference. Because humans stand back and let machines do their magic, we have AI engines that win Jeopardy and sort through a myriad of medical diagnoses much faster than humans ever could. But we have unwittingly outsourced our ethical interaction with the world to AI, in big decisions and small. As we move through a day’s events, we process not only how to do things but why. When we build AI systems that hire and fire people, and determine who is smart and who isn’t, we aren’t asking our AI agents to make objective determinations of fact. Instead we are actually asking them to make subjective assessments of human worth. In the process we are abdicating our role in the pageantry of the human condition to machines that have no stake in the world of human communities.

My advice? Use AI with caution and when in doubt about its results – or its intentions – interfere.

After all, it’s only 2016, the future is just getting started, and we want our students to be ready.

From JasonOhlerIdeas.com

1. From Autonomous Weapons: An Open Letter From AI & Robotics Researchers. Retrieved: http://futureoflife.org/open-letter-autonomous-weapons/).

 

[i] AI, se refiere a Inteligencia Artificial por sus siglas en inglés (Artificial Inteligence)

K-12 se refiere a la suma de educación primaria y secundaria en Estados Unidos

[ii] 1. (futureoflife.org/open-letter-autonomous-weapons).