¿Por qué es importante regular la Inteligencia Artificial? Desinformación, protección de datos y derechos humanos entre las claves

¿Cómo se van a apelar los fallos dictados por la Inteligencia Artificial? / Unsplash, Emiliano Vittorios.
¿Cómo se van a apelar los fallos dictados por la Inteligencia Artificial? / Unsplash, Emiliano Vittorios.
Es importante que las plataformas de IA gratuitas transparenten la finalidad que persiguen en su masificación.
Fecha de publicación: 25/05/2023

El rápido avance de las nuevas tecnologías implica para los Estados el reto de regularlas, uno particularmente delicado considerando el discurso de Sam Altman —director ejecutivo de Open AI, la organización creadora del ChatGPT, una de las empresas más importantes en la masificación del uso de Inteligencia Artificial en Internet— ante el Congreso de los Estados Unidos el 16 de mayo pasado. En resumen, Altman dijo que es necesaria una regulación de esta tecnología para evitar sus malos usos, como la creación de información falsa o cadenas de desinformación, sobre todo en contextos electorales.  

Estamos viviendo una revolución en el uso de la Inteligencia Artificial en nuestro día a día para crear textos, imágenes y videos, con una implicancia importante para el ejercicio legal, la protección de datos personales y el futuro de la empleabilidad. LexLatin conversó con Dilmar Villena, director ejecutivo de Hiperderecho, y Lía P. Hernández, directora de Legal IT Abogados, especialistas en derecho y nuevas tecnologías, para entender las implicaciones de esta revolución en nuestras vidas, las prácticas del derecho y el desarrollo tecnológico.


Te puede interesar: Uso de inteligencia artificial en despachos de abogados, adaptarse para sobrevivir


Protección de datos personales, ChatGPT en el ojo de la tormenta

De acuerdo con los especialistas, el caso de la organización de minería de datos y comunicación estratégica, Cambridge Analytics, en 2018, ha marcado un hito en la necesidad de regular nuevas tecnologías. Este caso puso de relieve las preocupaciones sobre la privacidad de los datos y la manipulación de información en el entorno digital y llevó a un mayor escrutinio y regulación en torno al uso de datos personales para fines políticos. 

La revelación más importante de esta investigación fue que la compañía había obtenido de manera indebida datos personales de millones de usuarios de Facebook y luego los usó para dirigir mensajes específicos a los votantes en Estados Unidos, en función de su personalidad y preferencias.

Si bien han pasado 5 años desde Cambridge Analytics, hoy la discusión sobre la seguridad de los usuarios está más vigente y ha ido en aumento con la masificación de las plataformas que ofrecen de manera gratuita el uso de la IA, siendo la más famosa ChatGPT. Esta herramienta de Inteligencia Artificial, que cuenta con el respaldo de Microsoft, se ha vuelto una sensación en redes sociales por su capacidad de dar respuestas rápidas en texto a miles de dudas que presentan sus usuarios desde su lanzamiento en noviembre del 2022. 

El mismo chat de Open AI dice que ha “sido entrenado en una amplia variedad de datos textuales, como libros, artículos, páginas web y conversaciones humanas”. Además, la web cuenta con un disclaimer en la pantalla de preguntas y respuestas que indica que “ChatGPT puede producir información inexacta acerca de personas, lugares o acontecimientos”.

En marzo de este año Open AI expresó a través de su cuenta de Twitter que tuvieron que cerrar momentáneamente la plataforma para corregir errores del sistema que podrían implicar una vulneración de los datos personales de algunos usuarios. 

Este fue el mensaje publicado por la compañía en ese momento: 

“Desconectamos ChatGPT el lunes para corregir un error en una biblioteca de código abierto que permitía a algunos usuarios ver títulos del historial de chat de otros usuarios. Nuestra investigación también encontró que el 1.2% de los usuarios de ChatGPT Plus podrían haber revelado sus datos personales a otro usuario”.

A decir de Hernández, de IT Abogados, es necesario que se transparenten las fuentes de información que utiliza ChatGPT —un reclamo que incluso ha hecho el gobierno italiano—, así como otras plataformas de Inteligencia Artificial de uso masivo; además, refiere que es importante transparentar también la finalidad que buscan quienes están detrás de la masificación de estas herramientas. 

“Siempre se ha discutido el sesgo de los algoritmos creados por IA a nivel cultural, racial. Detrás de todas estas plataformas hay programadores que tienen un sesgo que se puede ver reflejado en sus creaciones”.

Villena, de Hiperderecho, comenta que la información que utiliza ChatGPT en principio es “de fuente abierta que puede estar libremente disponible a través de Internet. Pero con este uso surgen muchos problemas: por ejemplo, uso de contenido que puede estar bajo protección de propiedad intelectual o -de repente- contenido que pueda ser sensible para los gobiernos”. 


Quizá quieras leer: El futuro de la abogacía


Iniciativas de (auto)regulación en marcha

Italia ha sido uno de los países que ha tomado medidas drásticas para controlar el uso de plataformas como ChatGPT. En un primer momento, el ente garante para la protección de datos personales (GPDP) de ese país anunció una prohibición temporal de la herramienta y exigió que se expliquen los métodos de recopilación de información, especificaciones de contrato entre las partes, rectificación y cancelación de datos personales, regulación del servicio a menores de 13 años y también exigió que se informe sobre el uso de los datos personales en medios masivos. 

Actualmente, ya se encuentra restablecido el uso del ChatGPT en ese país europeo, pero para este retorno la plataforma debió implementar las sugerencias del ente regulador. Ahora, por ejemplo, es necesaria la declaración de que se tiene más de 13 años para hacer uso de la herramienta y se recibe un pantallazo al abrir la plataforma con información sobre uso de datos personales. 

En la región, la Red Iberoamericana de Protección de Datos, conformada por países de América Latina y el Caribe, España y Portugal, ha iniciado acciones de supervisión del accionar de ChartGPT. 

“[El uso de la herramienta implica] riesgos para los derechos y libertades de los usuarios en relación con el tratamiento de sus datos personales, que abarcan aspectos como los fundamentos legales para su tratamiento, el ejercicio de los derechos reconocidos en las normativas de protección de datos, las posibles transferencias de datos personales a terceros sin contar con el consentimiento de los titulares [...]”, se lee en un comunicado, difundido a inicios de mes.

Para Hernández, lo importante es no caer en el camino de la prohibición, sino que se pueda visibilizar la función de estas herramientas de manera positiva en la sociedad: 

“Crear parámetros, estándares y buenas prácticas a través de iniciativas y alianzas para tener un uso ético y transparente de las nuevas tecnologías. Toda tecnología que no esté regulada, su uso, o que no se entienda claramente su propósito puede ser contraproducente porque se puede usar para fines contrarios a los que existen”.  

Villena añade que las regulaciones no deben generar efectos irreversibles y afectaciones a los derechos humanos, “considerando que el riesgo es que si se regula algo hoy, puede estar desfasado mañana frente a los avances de las tecnologías”.


Te puede interesar: ChatGPT; Si el autor no es humano, ¿existe plagio?


¿Cómo va a cambiar el mundo del derecho con la masificación de las plataformas de Inteligencia Artificial? 

En febrero de este año causó polémica el caso de un juez en Cartagena de Indias, Colombia, que utilizó respuestas del ChatGPT para decidir en el fallo de una tutela que inició la familia de un niño con autismo contra una Entidad Prestadora de Salud (EPS). 

En ese caso, el Juzgado Primero Laboral del Circuito de Cartagena argumentó la aplicación de la ley 2213 de 2022, que faculta a los magistrados para adoptar medidas de las tecnologías de la información a las actuaciones judiciales. En este caso se hicieron preguntas a la herramienta de Inteligencia Artificial para “optimizar los tiempos empleados en la redacción de sentencias”.

Dilmar Villena refiere que es claro este ejemplo para señalar que el Derecho a la Justicia y al Debido Proceso es uno de los tantos que se verá afectado o tendrá que evolucionar a la hora de hacer uso de las nuevas tecnologías. 

“Considerando el Derecho a la Motivación, es decir, la forma en que las decisiones judiciales tienen que estar plenamente justificadas, ¿cómo se van a justificar ahora estas decisiones con el uso de herramientas de inteligencia artificial? ¿Cómo se apelan? ¿Es razonamiento del juez o es razonamiento de una máquina?”

Otros derechos que el especialista cree que se van a tener que ir adaptando a la aplicación de nuevas tecnologías son los relacionados con la propiedad intelectual y el derecho laboral.

“Esta herramienta ha alcanzado puntos de funcionalidad que pueden competir, hasta cierto punto, con habilidades humanas”, comenta Villena.

Add new comment

HTML Restringido

  • Allowed HTML tags: <a href hreflang> <em> <strong> <cite> <blockquote cite> <code> <ul type> <ol start type> <li> <dl> <dt> <dd> <h2 id> <h3 id> <h4 id> <h5 id> <h6 id>
  • Lines and paragraphs break automatically.
  • Web page addresses and email addresses turn into links automatically.