Search

¿Es fáctible el empleo de algoritmos de IA para simplificar procesos en Juzgados Laborales?

Los principios fundamentales del Derecho son, en gran medida, subjetivos, lo que hace que sea difícil automatizar la labor de un Tribunal. Uno de los principales objetivos de los Magistrados es el de interpretar y aplicar un texto jurídico, que contiene caracteres políticos y sociales,

 

Por Leonardo Poses Stekelberg / lposesabogado@gmail.com

https://lposesabogado.blogspot.com

 

Como es de extensivo conocimiento entre los abogados que litigan en nuestra provincia, los Tribunales santafesinos se hallan, desde hace décadas, saturados de compromisos que en muchas oportunidades no pueden ser resueltos dentro de ciertos plazos “lógicos” o esperables. Los factores que inciden en esta realidad son dispares1, y no es el objetivo de este artículo analizarlos.

Para puntualizar, lo recién descripto puede ser hallado en los Juzgados del Trabajo, que posiblemente sea una de las ramas del Derecho más exigidas y demandadas, tanto por trabajadores y empresarios, como por sus representantes legales.

El obrero, dentro de una relación que nace dispar en un contrato laboral, sufre -en muchas oportunidades-, del apremio por la resolución de su conflicto, necesitando una pronta respuesta por parte de la judicatura. Y como bien sabemos, en ocasiones la coyuntura tribunalicia se mueve a velocidades distintas del común de la Sociedad, confiriendo un resultado perjudicial para el ciudadano de a pie que espera y confía en un veredicto diligente.

Si bien la tecnología es empleada y aprovechada en la práctica profesional (v.gr. Sistema Integrado de Consultas Judiciales de Santa Fe -SISFE-), y ésto, en una primera mirada, puede entenderse como avance en la organización del Sistema Judicial, se topa con la contracara de que el trabajo humano llevado a cabo por Jueces, Secretarios y demás empleados del Poder Judicial no alcanza, lamentablemente, para cubrir las necesidades cotidianas. Esto es una realidad innegable, y por más esfuerzo que cada Juzgado entregue en su faena periódica, evidentemente no logran cubrir dicha demanda. Un botón de muestra puede hallarse en las fechas fijadas para ciertas audiencias -esenciales para el normal desarrollo de una contienda laboral-, que son asignadas a plazos futuros que pueden alcanzar hasta el año (o más). Las agendas de los Juzgados están colmadas.

La finalidad primera de este artículo, es analizar los posibles alcances en el uso de algoritmos de inteligencia artificial (IA) en el quehacer de un Juzgado Laboral, inquiriendo si esa intervención podría resultar beneficiosa -o no- y aprovechable para todo operador jurídico, pero por sobre todo, para los usuarios de nuestra Justicia del Trabajo provincial.

 

¿De que hablamos cuando hablamos de inteligencia artificial?

 

Importante es adentrarnos (aunque quizás con menos profundidad que la que exige esta temática) en el significado de la IA. Éstas podrían definirse como sistemas informáticos, pero con la particularidad de poder generar “razonamientos” a partir de un simiente básico de información y de unas reglas que delimiten su trabajo.

Fue John McCarthy, profesor de la Universidad de Standford (Estados Unidos), quien en 1956 empleó por primera vez este término, definiéndola como “la ciencia y la ingeniería de fabricar máquinas ‘inteligentes’, en especial programas ‘inteligentes’ de computación”, entendiendo por “inteligente” “la parte de la informática orientada a obtener resultados”.2

Una estructura basada en IA debe contener un sistema cifrado, conformado por una trama de reglas que posibiliten resolver los supuestos que se le plantean, a partir de la asimilación de lo expresado en esa tarea. Al mismo tiempo es menester que tenga la capacidad de interactuar con el usuario, para precisar o refinar el alcance de la actividad solicitada con el objeto de, finalmente, ser competente para “aprender”; de manera que pueda dejar identificadas para el futuro las opciones más superadoras (sobre ese supuesto en concreto), a la vez que desecha las que resultan menos adecuadas.

La noción de inteligencia artificial, por lo tanto, se refiere a la capacidad de las computadoras y de otros sistemas tecnológicos para llevar a cabo tareas que normalmente requerirían inteligencia humana. Como generalidad, la IA puede presentarse en dos categorías principales: la IA “débil” (también conocida como IA estrecha o específica) y la IA “fuerte” (de igual forma conocida como IA general o de propósito general).

La IA débil alude a sistemas diseñados para realizar tareas específicas, como el reconocimiento de voz, la traducción de idiomas, el diagnóstico médico o la detección de fraudes financieros. Estos sistemas pueden ser muy precisos en la realización de sus tareas concretas, pero no tienen la capacidad de realizar faenas fuera de su ámbito de especialización, ni de aprender de manera autonómica.

Por otro lado, la IA fuerte se refiere a sistemas que pueden realizar casi cualquier tarea que un ser humano pueda llevar a cabo: estos procedimientos tienen la capacidad de aprender de manera autónoma y adaptarse a situaciones nuevas y cambiantes. De todas formas aclaramos que hasta el momento la IA fuerte aún no existe per se, pero algunos investigadores creen que eventualmente se logrará su desarrollo.

La IA se basa en algoritmos y modelos matemáticos que permiten a las computadoras procesar grandes cantidades de datos, alimentándose de ellos. Estos algoritmos incluyen redes neuronales, árboles de decisión, algoritmos de clustering4 y de regresión, entre otros. La IA, en la actualidad, se aplica en una extensa gama de áreas: desde la automatización de procesos industriales hasta el desarrollo de chatbots y asistentes virtuales, pasando por la conducción independiente de vehículos y la predicción del clima.

En resumen, los algoritmos de IA son un conjunto de instrucciones que se utilizan para realizar tareas particulares y se basan en modelos matemáticos y estadísticos, que se entrenan con millones de datos para poder llevar a cabo su función.

Y en concreto: ¿Qué son los algoritmos de inteligencia artificial?

Según el Centro Europeo de Postgrado5 “los algoritmos de inteligencia artificial son un tipo de programa informático que permite a los ordenadores realizar tareas que normalmente requieren inteligencia humana. Estos programas permiten que las computadoras aprendan y se adapten a su entorno, reconozcan objetos y sonidos y procesen la información del mismo modo que lo hacen los seres humanos”.

El proceso de creación de algoritmos de inteligencia artificial podría pensarse como sencillo en la teoría, aunque resulta complejo en su ejecución. Requiere conocimientos de aprendizaje automático, procesamiento de imágenes, estadística y probabilidad, así como mucha tolerancia y una ardua labor por parte de los científicos.

Entonces, puedo afirmar que los algoritmos de IA son un conjunto de instrucciones y reglas que se utilizan para realizar tareas específicas, como el reconocimiento de imágenes, el procesamiento del lenguaje natural, la toma de decisiones y la resolución de problemas. Estos guarismos son parte de lo que se conoce como “aprendizaje automático” o “machine learning”, que es una rama de la IA que implica la capacidad de las máquinas para incorporar conocimientos a partir de datos.

Los algoritmos de IA se basan en modelos matemáticos y estadísticos que se “entrenan”, con referencias y cómputos, para poder luego realizar una tarea específica. Por ejemplo, un algoritmo de reconocimiento de imágenes puede “adiestrarse” con miles de figuras de perros y gatos para poder distinguir las diferencias entre ellos, a partir de nuevas fotografías que se le presenten con posterioridad.

A su vez, pueden dividirse en dos géneros principales6: “supervisados” y “no supervisados”. Los algoritmos supervisados se ejercitan con un conjunto de datos que ya han sido etiquetados, indicándole qué características son relevantes para la tarea que se va a realizar. Por otro lado, los no supervisados se emplean cuando no se dispone de documentos etiquetados y se espera que la inteligencia encuentre patrones y relaciones por sí misma.

Una de las ventajas que pueden remarcarse es que los mencionados algoritmos tienen la aptitud de analizar grandes cantidades de datos y extraer patrones relevantes que los humanos, por sus naturales limitaciones, podrían pasar por alto. Ésto, en el marco de las actividades de Juzgados Laborales, se traduciría en el acotamiento de plazos, en aprovechamiento de los tiempos judiciales y quizás hasta en arribar a soluciones más precisas.

¿Porqué -o para qué- utilizar algoritmos de IA?

El abogado y ex Secretario de la Marina de los Estados Unidos Richard J. Danzig7 explica: “Las máquinas [que emplean algoritmos de IA] pueden registrar, analizar y, en consecuencia, anticipar nuestras preferencias; evaluar nuestras oportunidades, realizar nuestro trabajo, etc., aún mejor que nosotros. Con diez entradas de ‘me gusta’ en Facebook, un algoritmo predice ciertas preferencias del sujeto, mejor que un compañero de trabajo; con 70 ‘likes’, mejor que un amigo; con 150 ‘likes’, mejor que un miembro de la familia; con 300 ‘likes’, pronosticar mejor que un cónyuge”. Es manifiesto que los sistemas de IA poseen la capacidad de acelerar procesos, simplificando la información reinante, empleándola con eficiencia y agudeza buscando la solución más conveniente para ámbitos determinados (y quizás con mayor precisión que el ser humano).

Por lo tanto y por lo visto hasta aquí, puedo sostener que el empleo de algoritmos de inteligencia artificial en los Juzgados del Trabajo -para allanar la labor cotidiana- es una idea potencialmente interesante y por qué no, beneficiosa para todos los interesados. Amplío este enunciado: la IA podría ayudar a acelerar la resolución de casos y reducir la carga de trabajo de los Jueces y otros empleados del Tribunal, permitiéndoles, así, centrarse en tareas que requieran habilidades humanas específicas, como la interpretación de la ley o el razonamiento ético y moral.

Además, los algoritmos pueden analizar grandes cantidades de datos y extraer patrones relevantes que los humanos quizás pasan por alto, lo que podría conducir a decisiones “más justas”.

Al utilizar algoritmos de IA, entiendo que los Juzgados lograrían tomar decisiones especialmente informadas y precisas (basadas en datos concretos), en lugar de depender de la intuición o la experiencia de sus dependientes. Además, las IA fueron creadas -por lo menos idealmente- para automatizar tareas repetitivas y laboriosas, ayudando, de esa manera, a reducir los errores humanos y mejorar, posiblemente, la eficiencia y la productividad de la curia. Incluso este sistema hasta podría evitar una “modelización” del conocimiento jurídico8. Es decir, al recurrir a la utilización de una enorme capacidad de procesamiento de datos para interpretar el lenguaje natural utilizado por el usuario, y al contrastarlo con otra gran cantidad de datos (contenidos tanto en textos jurídicos generales, como específicos de ese usufructuario), para posteriormente analizarlos y amalgamarlos, sería capaz de vaticinar distintas alternativas; quizás eficientes, quizás convenientes y hasta notoriamente condensadas en una solución simple.

Como ejemplo, la versión de Watson de IBM que ganó el concurso Jeopardy en el año 20119, contaba con 200 millones de páginas de información en cuatro terabytes de capacidad de almacenamiento (la web Wikipedia -completa- solo hubiera ocupado un 0,2% de ese volumen) y siendo capaz, al mismo tiempo, de consultar el equivalente a un millón de libros por segundo.

Posibles inconvenientes en el uso de la IA

Desde otra perspectiva, también es importante tener en cuenta que los algoritmos de inteligencia artificial son absolutamente perfectibles y pueden verse afectados -en los datos de entrada- por sesgos inherentes al carácter de los sujetos que los manipulan. Por lo tanto, es crucial que estos algoritmos sean pensados y/o diseñados de manera ética y rigurosa, y que se realicen pruebas y ajustes continuos para asegurarse de que están produciendo resultados justos e imparciales. Agrego, además, que el fruto entregado por los mencionados algoritmos debe contener necesariamente resultados reales, fundados en hechos humanos.

Me permito una pequeña licencia, en el entendimiento de incluir el siguiente ejemplo (que se desvía brevemente del Derecho del Trabajo), caracterizado dentro del ámbito Penal: imaginemos que se ha concebido un algoritmo sofisticado que ayuda a Jueces a determinar la sentencia más ajustada a Derecho posible, para un delincuente reincidente. El algoritmo se potencia y crece, incesante, con datos relacionados con la vida personal del encartado, las circunstancias de su primera y posteriores ofensas, pero también con una enorme base de testimonios sobre otros delincuentes reincidentes: cuáles fueron las circunstancias de sus acciones, cuáles sus sentencias, cómo se comportaron en prisión, cómo continuaron sus vidas después de ser liberados, etc. El tamaño de la base de datos sería tal que ningún hombre podría familiarizarse con ella (y ni siquiera analizarla en profundidad), dentro de su vida laboral útil. Mientras tanto, el algoritmo, ejecutado en una computadora veloz, necesita solo de unos segundos para llegar a un “veredicto”. Aunque tampoco resulta tan sencillo como parece; naturalmente, en los sujetos de carne y hueso pueden despertarse ciertos interrogantes: ¿Cómo deberían los Magistrados observar tales dictámenes? ¿Podrían llegar a conocer cómo el algoritmo decide lo que decide?

La respuesta, ambivalente, es sí y no: sí, porque se diseñó el algoritmo de tal manera que se maneja buscando patrones en su enorme base de datos. El patrón puede ser, por ejemplo, que los malhechores reincidentes (y si está demostrado que son ambiciosos e inteligentes para el delito, sumado, además, a que posiblemente no gocen de un empleo fijo o de alguna otra obligación personal) presentarían más probabilidades de seguir infringiendo la ley estando en libertad; por lo tanto, se requeriría de una sentencia más larga (o, lo que es lo mismo, de un aislamiento más prolongado). Lo que sabemos es que el algoritmo buscará tales patrones. Lo que no sabemos -cuando menos hasta el momento- es cuál es el modelo en el que el algoritmo “basó su decisión” y cuáles fueron exactamente los pasos que llevaron al mismo a tal conclusión.

¿Es esto un problema? ¿Podría considerarse una violación al Debido Proceso? En apariencia parece una muy mala manera (y hasta turbia) de tomar decisiones importantes, sobre todo si nos referimos al destino del futuro o de los bienes de un ser humano. En la vida pública, y en la de los procedimientos legales en particular, el Sistema Procesal debe cuidar el designio constitucional de la transparencia en cada etapa de las causas judicializadas; por ende, parecería que no existe claridad en la “magia” del aprendizaje automático desarrollado por las IA.

Estos hechos resaltan una tensión difícil entre la percepción de la racionalidad y la justificación, y la forma en que generalmente se produce la justificación. La postura clásica sostiene que la deliberación consciente y racional es lo que precede a la toma de decisiones10. Desde esta perspectiva, es comprensible que un resultado producido por un algoritmo de IA, que no puede ser rastreado ni repetido, y por lo tanto sigue siendo “misterioso”, no pueda considerarse racional o justificado. En otras palabras, la decisión alcanzada por el algoritmo no cumple con nuestros estándares de justificación, al menos mientras consideremos que la forma en que se llegó a la decisión es un factor determinante en su poder justificativo.

Pero ahora comparemos nuestro algoritmo con un Juez real, que toma una decisión en un caso similar. ¿Sabemos realmente lo que está pasando por la cabeza de ese enjuiciador? ¿Podemos estar seguros de cuáles son las pautas en el que basa su decisión, aún cuando ella debe estar fundamentada? Las últimas décadas de investigación en psicología experimental y neurociencias sugieren una respuesta clara a esta pregunta, y la tajante respuesta es “no”11.

La forma en que las personas toman la mayoría, si no todas sus decisiones, es inconsciente. En nuestra voluntad diaria, no hay “pasos” claramente identificables, de los que somos conscientes y podemos controlar. Por lo general, la alternativa simplemente aparece en nuestras mentes, “como de la nada”12.

En el ejercicio jurídico -y, más en general, en la vida social- esperamos que las decisiones estén justificadas o al menos sean justificables. La percepción típica de cómo operan los abogados, y, en particular, los Jueces, se podría basar en tres principios enunciados por Alexy13:

 

“(1) El razonamiento jurídico tiene una estructura claramente identificable.

 

(2) El razonamiento jurídico consiste en realizar operaciones sobre sentencias (creencias) de forma algorítmica.

 

(3) El razonamiento jurídico se basa, de una forma u otra, en las reglas de la lógica clásica. Como consecuencia, el razonamiento jurídico tiene como objetivo proporcionar una solución a un caso legal que está justificado (racional)”.

 

Dicho todo lo anterior, y como claramente explica el jurista Brożek14 “(…) la investigación en ciencia cognitiva muestra que los procesos reales de razonamiento práctico están muy lejos de un modelo ideal. Aunque no existe una teoría única y comúnmente aceptada del pensamiento jurídico real, los enfoques existentes parecen compartir (en mayor o menor grado) los siguientes supuestos:

(1) La mayoría (si no todas) las decisiones legales se toman de una manera que no tiene una estructura identificable ni consiste en pasos algorítmicos. Las decisiones aparecen en la mente de uno como de la nada.

(2) La mayoría, si no todas, las decisiones se toman de manera inconsciente, donde los procesos inconscientes son en gran medida un efecto del entrenamiento social y se basan en reacciones emocionales (…)”.

Y agrego: (3) En la toma de decisiones prácticas, la razón (argumentación racional) tiene un papel secundario. Sirve como una racionalización ex post factum de las decisiones tomadas (que funciona para defender dichos laudos contra las críticas de terceros) o, en el mejor de los casos, tiene una influencia indirecta o enormemente limitada en el proceso de toma de decisiones.15

Retomando el titular de este apartado, es evidente que no debería dejarse en manos de algoritmos las resoluciones que precisan de la mente humana (y del conocimiento y experiencias del sentenciador), para resolver conflictos en materia laboral. Los profesionales del Derecho, los juristas, investigadores, Magistrados de carne y hueso son y serán irreemplazables, simplemente por el hecho de contar con virtudes humanas, intransferibles hasta la fecha, a motores tecnológicos.

Aunque, por cierto, estos posibles inconvenientes expresados en el acápite anterior, podrían no suceder si la IA es prudentemente aprovechada -y sin reemplazar a ningún empleado- para llevar a cabo ciertas tareas monótonas; permitiendo así la liberación del sujeto de obligaciones que no implican una vasta racionalización del acto, para que la persona pueda ocuparse (aprovechando su tiempo al máximo), en diligencias exclusivamente “humanas”.

Conclusiones

Como una tecnología “multi-propósito” universal, para tareas que requieren de decisiones abstractas genéricas, hay pocas cosas con las que las IA podrían no ayudarnos. Esta clase de ciencia se presenta prometedora para modernizar y/o mejorar nuestra realidad profesional, abordando nuevos desafíos en el día a día. De hecho, con el sorpresivo impacto histórico de las IA, se ha llegado a compararlas con importantes hechos pasados (con las tecnologías disruptivas de antaño), como el fuego, el vapor, la electricidad o el motor de combustión interna16. Asimismo, en los últimos meses, dicha tecnología de inteligencia artificial ha experimentado avances más que significativos, en parte gracias al lanzamiento de “ChatGPT”, un modelo de lenguaje artificial desarrollado por “OpenAI”17, que puede generar respuestas coherentes (no en todos los casos) a partir de información recopilada en línea. Este software ha superado test de nivel profesional en diversas áreas, como Medicina, Derecho y Negocios, y en cuestión de segundos. Es dable, también, que la capacidad fascinante de estos modelos y su potencial hacia el futuro puedan germinar cierta incertidumbre para algunos siendo trascendental, creo, pensarlas como un medio y no como un fin en sí mismo.

Ahora bien, la toma de decisiones por parte de Jueces a menudo se basa en criterios subjetivos, lo que dificultaría su codificación y procesamiento por parte de sistemas informáticos. Por ejemplo, la apreciación de la credibilidad de un testigo o la suficiencia de una prueba son aspectos que dependen del juicio del evaluador y que son difíciles de cuantificar científicamente.

Además, existen situaciones en las que una máquina no podría proporcionar una respuesta precisa debido a la falta de precedentes, jurisprudencia o de orientación clara en el marco legal. Este problema, conocido como “anomía”, dificulta la capacidad de un dispositivo para manejar casos que requieren un juicio discrecional y reflexivo, y de un análisis cuidadoso.

Los principios fundamentales del Derecho son, en gran medida, subjetivos, lo que hace que sea difícil automatizar la labor de un Tribunal. Uno de los principales objetivos de los Magistrados es el de interpretar y aplicar un texto jurídico, que contiene caracteres políticos y sociales, y que representan las aspiraciones de una Sociedad. A pesar de esto, la IA sería capaz de desarrollar un importante rol en la labor de un Juzgado, especialmente en lo que respecta, por ejemplo, a la clasificación de los asuntos presentados ante él.

En lugar de contemplar a este desarrollo como reemplazo de letrados y Jueces, un arquetipo de IA puede ayudarles a concentrarse en lo realmente primordial. Por ejemplo, un algoritmo “bien entrenado” podría clasificar automáticamente los casos según su relevancia, complejidad o empleando otros criterios. Esto permitiría que los entendidos en la materia se centren en los aspectos más importantes de cada caso, en lugar de tener que invertir tiempo y recursos en la revisión y clasificación de los mismos.

Es importante destacar que la llegada de la inteligencia artificial no debería intimidar a los Juzgados, sino motivarlos hacia un futuro que les permita desarrollar eficientemente su trabajo. La IA puede ayudar a los funcionarios a ser más precisos, eficientes y efectivos en la resolución de casos. En lugar de ser una “amenaza”, la IA puede ser una herramienta valiosa para mejorar la calidad y el rendimiento del Sistema Judicial.

1 Aire Digital. “Tres de los cinco juzgados laborales de Santa Fe no tienen jueces”. https://www.airedesantafe.com.ar /politica/tres-los-cinco-juzgados-laborales-santa-fe-no-tienen-jueces-n225853. (Consultado 04/04/2023).

2 Dartmouth College. “Artificial Intelligence (AI) Coined at Dartmouth”. https:// 250.dartmouth. edu/ highlights artificial -intelligence-ai-coined-dartmouth. (Consultado 06/04/2023).

3 BAKER, J., HOBART, L., MITTELSTEADT, M. “An Introduction to Artificial Intelligence for Federal Judges”. https //www.fjc.gov /sites/ default/ files /materials/47/ An_Introduction_to_ Artificial_ Intelligence_ for_ Federal_ Judges. (Consultado 06/04/2023).

4 Conjunto de técnicas utilizado para analizar el Big Data y poder formar grupos, clusters o segmentos de datos, muy utilizado para propósitos de marketing y comerciales (segmentación de clientes). https://www.unir.net/ingenieria/revista/clustering/. (Consultado 07/04/2023).

5 CENTRO EUROPEO DE POSTGRADO (CEUPE). “¿Qué son algoritmos de inteligencia artificial?”. https:// master inteligenciaartificial.com /algoritmos-de-inteligencia-artificial. (Consultado 30/03/2023).

6 BAKER, J., HOBART, L., MITTELSTEADT, M. Op. Cit.

7 DANZIG, R. “Technology Roulette: Managing Loss of Control as Many Militaries Pursue Technological Superiority”. https: //s3. amazonaws. com / files. cnas.org / documents / CNAS Report- Technology- Roulette # DoSproo f2 v2 .pdf ? Mtime= 20180628 072 101. (Consultado 07/04/2023).

8 GALLARDO RIVAS, C., VILLANUEVA VACAFLOR, L. “Modelización matemática de lo jurídico en Bolivia”, San Andrés, Revista Jurídica de Derecho, 2018, págs. 149-163.

9 BBC News Mundo. “Supercomputadora de IBM vence a campeones de Jeopardy”. https:// www.bbc.com/ mundo/ noticias//2011/02/110217_ibm_computadora_jeopardy_en. (Consultado 07/04/2023).

10 KANT, I. “Crítica de la razón pura”. https://infolibros.org/pdfview/15621-critica-de-la-razon-pura-immanuel-kant/. (Consultado 08/04/2023).

11 BARGH, J., MORSELLA, E. “La mente inconsciente”. https:// journals.sagepub.com/doi/10.1111/j.1745-6916.2008.00064.x. (Consultado 01/04/2023).

12 DAMASIO, A. “En busca de Spinoza. Neurobiología de la emoción y los sentimientos”, Barcelona, Crítica, 2009, págs 97-101.

13 ALEXY, R., en DE FAZIO, F. “Sobre la Teoría del Derecho de Robert Alexy. Análisis y crítica”, México D.F., Isonomía, 2016, págs. 193-199.

14 BROŻEK, B. “Law and Mind. A survey of law and the cognitive sciences”. https :// assets. cambridge. org/ 97 81 1084 / 860 02/frontmatter/ 97811084 86002_frontmatter. (Consultado 08/04/2023).

15 HAIDT, J. “The emotional dog and its rational tail: a social intuitionist approach to moral judgment”. https:// www.semanticscholar.org / paper /The- emotional- dog- and- its- rational- tail:-a-social- Haidt / b 74e8da 297574 fd 07 1d4b48b7aa94ea16861aea6. (Consultado 31/03/2023).

16 HOROWITZ, M. “Artificial Intelligence, International Competition, and the Balance of Power”. https://www.youtube.com/watch?v= jxEo3 Epc43Y. (Consultado 09/04/2023).

17 https://openai.com/

10