Por Natalia Concina
El docente e investigador del Conicet Daniel Feierstein aseguró que «el concepto de inteligencia artificial es vendedor pero engañoso» porque posee «diferencias fundamentales» con el funcionamiento de la inteligencia humana, no tiene conciencia de sí ni «pensamiento crítico», al tiempo que señaló que aunque tiene muchas potencialidades también puede generar un «salto de alienación de los seres humanos».
Doctor en Ciencias Sociales y profesor en las universidades de Tres de Febrero y Buenos Aires, Feierstein integra el Comité Nacional de Ética en la Ciencia y Tecnología (Cecte), un espacio creado en 2001 que funciona actualmente en el ámbito del Ministerio de Ciencia, Tecnología e Innovación, dedicado a analizar los problemas éticos en todos los campos de investigación.
Los alcances de la denominada inteligencia artificial (IA), su autonomía o no respecto a los seres humanos y el impacto de estos procesos sobre el pensamiento humano, son algunos de los debates constantes que se dan en la sociedad sobre estos proceso de aprendizaje automatizado que puede sostener conversaciones por chat, hacer búsquedas de información, escribir textos completos y realizar diagnósticos médicos.
En este contexto, Feierstein se explayó sobre el término, los sesgos de los resultados, el potencial y los posibles peligros que puede acarrear este recurso.
Sobre en qué medida estaba de acuerdo con la denominación de «inteligencia artificial» para denominar a los procesos de aprendizaje automatizado, el investigador señaló: «El concepto de inteligencia artificial es vendedor pero engañoso. Hasta el momento se han desarrollado distintas aplicaciones de aprendizaje automatizado o de asistencia a innumerables tareas pero es problemático calificar eso como «inteligencia».
Primero por sus fundamentales diferencias con el funcionamiento de la inteligencia humana, a la que no buscan emular. Segundo, porque no tienen conciencia de sí, la cual resulta una condición fundamental para pensar una definición de inteligencia».
Procesos del conocimiento humano
¿Cuáles serían los procesos que intervienen en el conocimiento humano y qué pasa con la denominada IA?
Feierstein expresó que «según el psicólogo suizo Jean Piaget hay dos actividades básicas en todo proceso de conocimiento: la exteriorización objetivante y la interiorización reflexiva. La exteriorización objetivante implica la posibilidad de separarse de la realidad para distinguir y clasificar los objetos con los que interactuamos. La IA ha desarrollado muchas herramientas que, de alguna manera, logran reproducir este tipo de proceso. Por el contrario, la interiorización reflexiva requiere la capacidad del juicio, una toma de conciencia crítica de sí. Ello requiere elementos hoy inexistentes en la IA como la conciencia o el juicio crítico, fundamentales para un verdadero proceso de conocimiento y acción sobre la realidad».
Lo que permite deducir que la IA no tiene «pensamiento crítico». El también docente hizo hincapié en que «la posibilidad de reflexionar críticamente sobre la propia acción requiere una construcción de un sujeto. Hoy esa existencia de conciencia y juicio no existe en ningún desarrollo de la IA conocido». Acto seguido, ante la evidencia de que mediante cierto procesos la IA puede escribir una canción o un texto, destacó qué impacto podría tener el reemplazo de estas actividades para el pensamiento humano.
«Hay un riesgo y es que se dé un nuevo salto en el proceso de alienación como sucedió en la revolución industrial. Este salto derivaría en que ante la existencia y difusión de aplicaciones que serían capaces de realizar (igual o posiblemente mejor que un ser humano) tareas intelectuales que hasta hoy realizan seres humanos, se pierda la capacidad de realizar esas tareas como la redacción, búsquedas de información y traducción, entre muchas otras.
Por tanto, millones de personas perderían habilidades que hoy son capaces de desarrollar tal como hoy casi no existen artesanos capaces de conocer las distintas etapas de producción de determinados productos».
Los sesgos: una barrera infranqueable
Una de las problemáticas que se plantean respecto de la IA en algunos procesos, como por ejemplo en las búsquedas de información, es que los resultados pueden tener sesgos. Feierstein dice al respecto: «Sin dudas los sesgos no son de la IA sino de los humanos que alimentan los datasets. Son sesgos que pueden ser más intencionales o inconscientes. Pueden ser explícitos o implícitos.
El problema es que, al no tener conciencia ni juicio crítico, la IA no tiene la capacidad de descubrir dichos sesgos.
Un segundo problema es que los sesgos humanos están distribuidos de modos no uniformes, mientras que si dichos sesgos quedan sedimentados en herramientas universalizadas, a partir de dicho momento su impacto será mucho mayor y la capacidad de cuestionarlos o desarmarlos mucho menor».
A la par que se habla sobre la IA el mundo atraviesa una crisis climática donde está en juego la escasez de las cosas más elementales para la vida como el agua. Sobre cómo dialogan esas dos problemáticas, el investigador del Conicet subrayó: «Los distintos problemas se articulan y solapan en muchos planos pero no es que la existencia de unos anule los de otros. Hay un riesgo en relación a la situación del clima, otro geopolítico vinculado a las próximas guerras o genocidios, otro vinculado al desarrollo de nuevas enfermedades, otro a los cambios identitarios.
En ese sentido, es relevante pensar en los riesgos pero también las potencialidades en los profundos cambios que generarán estas transformaciones en la IA».