Search

«Inyectar diversidad» en la inteligencia artificial, la propuesta de una «abogamer» y activista

El futuro de internet definido por la "inevitable" convergencia de las experiencias virtuales del metaverso con el auge de la inteligencia artificial plantea el desafío de cómo "inyectar diversidad" en estas plataformas para contrarrestar la uniformidad cultural de los algoritmos
María Julieta Colomer

El futuro de internet definido por la «inevitable» convergencia de las experiencias virtuales del metaverso con el auge de la inteligencia artificial plantea el desafío de cómo «inyectar diversidad» en estas plataformas para contrarrestar la uniformidad cultural de los algoritmos, sostuvo Micaela Mantegna, abogada, activista, apasionada de los videojuegos y fundadora de Women in Games Argentina.

La especialista señaló que «la diversidad que podamos inyectar en estas plataformas va a generar más diversidad para el futuro».

Conocida también como «abogamer», Mantegna es investigadora en el Berkam Klein Center de la Universidad de Harvard, una de las 20 personas que TED Fellow elige anualmente para hablar sobre temas vinculados a Futuro y miembro del World Economic Forum, donde investiga sobre políticas vinculadas al desarrollo del metaverso.

Sobre adónde va internet, Mantegna expresó: «Quienes conocimos internet en los años 90 sabemos que desde que se empezó a hablar de metaverso se instaló la idea de que iba a ser el futuro de la red, pero hoy esto está puesto en duda, porque debido a la explosión que tuvo la Inteligencia Artificial Generativa (IAG) en las últimas semanas, en paralelo se frenaron las inversiones que se venían haciendo en las tecnologías vinculadas al metaverso, lo que provocó una tendencia en los medios que empezaron a hablar de la muerte del metaverso.
Yo sostengo que el «mundo virtual» no murió, sino que las empresas dejaron de invertir en el modelo del metaverso basado en los videojuegos y apostaron por su evolución en las redes sociales. Un ejemplo de esto es lo que está pasando con «Fortnite», que se está transformando en una especie de «Roblox» con nuevos contenidos y, si bien todavía es un juego, empieza a tomar roles sociales, propios de las plataformas y, a su vez, las redes sociales se empiezan a «gamificar» y a tomar elementos de los videojuegos.

Mi propuesta es pensar que el futuro metaverso podrá ser todo o nada, que aún está en progreso y que será una convergencia de tecnologías, de fenómenos sociales y de realidades, que al pasar de una internet de dos planos a una tridimensional (contextual), agregará capas extras de información, lo que no sucede con la IA que es lineal y sus resultados se basan en la estadística».

¿Cuál es la relación que existe entre el metaverso y la inteligencia artificial? La activista deslizó: «Me gusta pensar al metaverso como un artefacto cultural complejo que tiene tecnologías de internet, inteligencia artificial, redes 5 G y, en el que convergen comportamientos sociales que vienen de los videojuegos, formas de usar internet que vienen de las redes sociales, experiencias humanas y espectros de la realidad social.

Un «espacio virtual» donde en el futuro podamos educarnos, comprar productos, entretenernos mirando y escuchando un concierto, etc. Tal espacio virtual va a necesitar generar contenido dinámico permanentemente y la IA se encargará de crear los contenidos a partir de lo aprendido en los datos de entrenamiento. Pero, en este punto, es necesario desmitificar los conceptos puesto que lo que hoy denominamos IA son aplicaciones de aprendizaje automático basado en datos (machine learning), y no una inteligencia general.
Y esto está relacionado con el concepto de «algoritmo de regresión», ya que el aprendizaje automático necesita mirar al pasado para predecir el futuro, es decir mirar los datos que ya tiene y hacer un recorte de la realidad, pero en ese recorte van los sesgos, la visión de mundo y la forma de resolver los problemas que tiene la persona o el grupo de personas que crearon los contenidos.

Esos algoritmos, con sesgos y carentes de valores morales, profundizan las desigualdades y enriquecen solo a las grandes corporaciones tecnológicas. Entonces, mientras se siga hablando de manera críptica, el campo sólo estará reservado a los expertos. En cambio, cuando se corre el velo de la terminología, aparecen aspectos en los que todos podemos involucrarnos para pensar en cómo hacer un puente hacia los problemas éticos y regulatorios. Internet creció mucho en los últimos años, y en muchos aspectos perjudicó a la sociedad, pero ahora tenemos una chance de repensar los modelos y hacerla de nuevo».

Un modelo que había aprendido a privilegiar a los candidatos varones por sobre las candidatas mujeres

Entonces, así como somos lo que comemos y, aquello que nos nutre determina nuestro estado de ánimo, lo mismo pasa con la calidad de la información resultante en estos sistemas y si no tenés datos de calidad, el resultado va a ser incorrecto, o va a estar sesgado o va a tener algún tipo de deficiencia. Esto que parece sencillo, empieza a complejizarse cuando pensamos que los datos que ingresan pueden ser discriminatorios.

Hace algunos años se desarrolló un algoritmo –un modelo– , que trataba de identificar entre los Curriculum Vitae (CV) de los postulantes a un trabajo, quienes podían ser seleccionados para un determinado puesto. Hoy en día, es muy común que haya aplicaciones para optimizar los CV, y de hecho hay personas que lo hacen a través de ChatGPT, porque se sabe que no los leen seres humanos sino máquinas. Tiempo después, se descubrió que los puestos gerenciales habían sido ocupados siempre por hombres.

De modo que, se había creado un modelo que había aprendido a privilegiar a los candidatos varones por sobre las candidatas mujeres. A punto tal que, a los varones que habían estudiado en un colegio que tenía nombre de mujer, el algoritmo les ponía un puntaje más bajo. Acá aparece lo que decía antes: la IA no es inteligente y no es infalible, más bien se trata de un gran «truco de ilusionismo», puesto que implica pensar estadísticamente sobre un problema y brindar una respuesta basada en la estadística, sin tener en cuenta el contexto.

Finalmente, acerca de cómo se construyen regulaciones éticas para romper con el sesgo del algoritmo, Mantegna precisó: «Necesitamos crear puentes entre la comunidad técnica, los abogados y los reguladores. Dialogar con todos los sectores e incitar a la comunidad técnica a que nos explique las cosas que como abogados y académicos no entendemos, y viceversa.

Pienso que las regulaciones fuertes capaces de intervenir en la tecnología van a venir del lado del derecho del consumidor. Ejemplo de ello es la regulación europea –de protección de los datos personales– la cual, si logra triunfar, será una regulación fuerte, capaz de prohibir determinados usos porque son violatorios o porque atentan contra derechos humanos. En ese sentido, si logra contribuir a reducir el estándar: esto es –siguiendo el ejemplo de los CV– , que tu performance en el trabajo sea medida por un ser humano y no por un algoritmo que no entiende ni de contexto ni de valores, algo habremos avanzado.