La próxima frontera legal: Apuntes para la regulación del machine learning en Latinoamérica

Se espera que al menos el 90% de toda la IA se desarrolle en Estados Unidos y China, lo que podría generar una dependencia de servicios de IA offshore. / Crédito de la imagen: www.canva.com.
Se espera que al menos el 90% de toda la IA se desarrolle en Estados Unidos y China, lo que podría generar una dependencia de servicios de IA offshore. / Crédito de la imagen: www.canva.com.
La creciente presencia de IA en la sociedad moderna plantea un dilema fundamental para los abogados de Latinoamérica: ¿es realmente conveniente regular la IA? y en su caso ¿cómo hacerlo?
Fecha de publicación: 29/01/2024

El dilema: ¿Regular o no regular la IA?

Antes de entrar de lleno en el tema, recordemos que el dilema no trata sobre todo tipo de inteligencia artificial (IA), sino principalmente sobre los modelos de lenguaje profundo o large language model (LLM), como el famoso ChatGPT o Bard, Stable Difussion, DALL-E, Midjourney, Gemini, CoPilot, Azure, MetaAI y Llama2, entre otros.

La IA del tipo LLM ha demostrado su capacidad para realizar tareas complejas, desde generar texto hasta asistir a los usuarios en la toma de decisiones. Sin embargo, esta sofisticación plantea preocupaciones éticas y legales que no pueden pasarse por alto.

En cuanto al input, surgen preocupaciones sobre la propiedad intelectual, los datos personales, secretos industriales y la confidencialidad, entre otros aspectos. Respecto al output, puede dar lugar a abusos, sesgos y riesgos no deseados, incluyendo la discriminación. Asimismo, puede ser utilizada por criminales y grupos organizados para llevar a cabo actividades ilícitas, incluyendo ciberdelitos de toda clase. 

Por otro lado, una regulación excesiva podría frenar la innovación y obstaculizar el desarrollo e implementación de tecnologías beneficiosas. Lo último que deseamos es sofocar, en su etapa inicial, una tecnología tan prometedora.


Te podría interesar: Inteligencia Artificial y despachos legales: La gestión detrás del VonBot, el chatbot de Von Wobeser


A pesar de todos los riesgos y problemas que tiene, existe un consenso general en que sus beneficios superan los riesgos. Pero surge la pregunta: ¿cómo mitigar sus efectos negativos mediante una regulación efectiva?

Un primer punto de partida suele ser la guía generada por la UNESCO. Otros gobiernos, como el de Estados Unidos, han emitido lineamientos. Se espera que la Unión Europea emita una regulación pronto. Muchas otras naciones ya están en alguna etapa del proceso, ya sea implementando regulación blanda, rígida o híbrida, cada una con diferentes ángulos y objetivos.

En general, las normativas vigentes se han enfocado en regular los efectos más nocivos y adversos, ya que los aspectos claramente beneficiosos o perjudiciales están empezando a distinguirse. Sin embargo, el amplio espectro de áreas grises requiere un mayor entendimiento, diálogos y análisis. La inteligencia artificial es una tecnología que necesita un cuidado meticuloso en su regulación, además de una actualización constante, ya que todavía está en sus primeras etapas y queda mucho por descubrir sobre todas sus implicaciones.

En México, la Alianza Nacional de IA (ANIA) es un ejemplo de parlamento abierto que busca escuchar e implementar las mejores prácticas globales.


Sugerimos leer: ¿Cómo regular las tecnologías y el espacio digital? Anotaciones de Xavier Careaga, de Meta


Desafíos de Latinoamérica: el enforcement de IA offshore

La situación en Latinoamérica presenta desafíos adicionales que van más allá del dilema general de regular la IA. Se espera que al menos el 90 % de toda la IA se desarrolle en Estados Unidos y China, lo que podría generar una dependencia de servicios de IA offshore. Esta realidad plantea interrogantes sobre la capacidad de los países latinoamericanos para regularla efectivamente, especialmente en lo que respecta al cumplimiento de dichas regulaciones.

En general, establecer responsabilidades para los LLM es complejo, ya que estamos hablando de modelos que utilizan aprendizaje automático (machine learning) y, en particular, aprendizaje profundo (deep learning). Esto significa que el proceso es una 'caja negra': no comprendemos lo que sucede en su interior; solo conocemos input, output y el hecho de que funciona. Sin embargo, no entendemos completamente por qué o cómo funciona. Contamos con algunas aproximaciones que resultan insuficientes para los regímenes legales actuales.

Ahora, en un escenario en el que la IA genere efectos jurídicos adversos, afectando los derechos de alguna persona, aunque no necesariamente constituya un delito, lo primero que se haría sería llevar a cabo una investigación y lo lógico sería solicitar información al proveedor del servicio por vía judicial.

Este tema es mucho más complejo de lo que se piensa, ya que en ausencia de tratados de cooperación internacional, como los Acuerdos de Asistencia Legal Mutua (MLAT, por sus siglas en inglés), que generalmente solo aplican en casos criminales, la única opción disponible suelen ser las cartas rogatorias. Sin embargo, estas no son idóneas para el ecosistema digital y suelen tomar mucho tiempo.

Si esto sucede al intentar obtener información, ¿cuán complicado sería imponer y hacer efectivas las sanciones? Al tratarse de 'cajas negras', a veces, incluso solicitando la información, no es tecnológicamente posible obtenerla. Son desafíos cuya magnitud aún no logramos comprender totalmente y las opciones son limitadas. Es necesario encontrar formas de hacer cumplir la ley en estos contextos.


Recomendamos: ¿Por qué es importante regular la Inteligencia Artificial? Desinformación, protección de datos y derechos humanos entre las claves


Importancia de una regulación contextualizada

La implementación de regulaciones específicas para los LLM en Latinoamérica es esencial. La naturaleza autónoma de estos modelos, como ChatGPT, implica que las reglas deben ser adaptadas para abordar su capacidad de generar contenido textual de manera autónoma, conocida como 'la caja negra', y sus efectos y consecuencias jurídicas

Más que enfocarnos en su desarrollo, que es poco probable que ocurra significativamente en la región, debemos prestar especial atención a su implementación local, incluyendo los servicios de última milla, así como el uso que hacen los consumidores locales. Además, la regulación debe ser suficientemente flexible para adaptarse a futuros avances tecnológicos.


Para leer: Uso de inteligencia artificial en despachos de abogados: adaptarse para sobrevivir


Estrategias para una regulación efectiva

Se podrá desarrollar más adelante, pero algunos temas relevantes a considerar son: 

  • Se requieren alianzas de coordinación y colaboración entre países latinoamericanos para compartir buenas prácticas, enfoques e información.
  • Colaboración regional: es crucial fomentar la colaboración entre las autoridades de distintos países latinoamericanos para facilitar la aplicación efectiva de las regulaciones, particularmente en relación con Estados Unidos y la Unión Europea.
  • Aunque presenta su nivel de complejidad, son necesarios estándares globales de transparencia y responsabilidad para LLM. Estamos ante una tecnología transfronteriza que, incluso más que Internet, enfrenta desafíos de efectividad en leyes de jurisdicción estricta.
  • La regulación y los estándares deben exigir a los desarrolladores que transparenten ciertos aspectos mínimos sobre su arquitectura y entrenamiento. Esto debe hacerse sin infringir los secretos industriales, la información confidencial o los datos personales, pero siendo suficiente para certificar que cumplen con un estándar mínimo.
  • Es necesario implementar programas de educación y formación jurídica especializada para abogados centrados en los efectos legales específicos de la IA, especialmente en los LLM.

En conclusión, la regulación de la IA, especialmente de los LLM, es un imperativo ético y legal en Latinoamérica, con sus desafíos particulares. La participación activa en foros internacionales y la adopción de estándares comunes son pasos cruciales para superar estos retos y permitir el desarrollo sostenible de la inteligencia artificial en la región.

*Xavier Careaga es abogado especialista en tecnología, redes sociales y mercados digitales. También es consejero del área de tecnología, medios y telecomunicaciones de Galicia Abogados, en México. 

 

Add new comment

HTML Restringido

  • Allowed HTML tags: <a href hreflang> <em> <strong> <cite> <blockquote cite> <code> <ul type> <ol start type> <li> <dl> <dt> <dd> <h2 id> <h3 id> <h4 id> <h5 id> <h6 id>
  • Lines and paragraphs break automatically.
  • Web page addresses and email addresses turn into links automatically.