Por Agustín Negre*
La Inteligencia Artificial (IA) generativa está transformando radicalmente nuestro entorno laboral, especialmente con la democratización de los Modelos de Lenguaje de Gran Escala (LLM) como ChatGPT de OpenAI, que ahora son accesibles al público general. Antes reservados para investigadores y desarrolladores, estos poderosos modelos están ahora al alcance de todos, fomentando una innovación abierta y extendida en múltiples sectores.
En el ámbito legal la integración de la IA en herramientas de gestión y procesos judiciales no solo facilita tareas rutinarias, sino que también abre nuevas vías para la administración de justicia, mostrando cómo la accesibilidad de la tecnología puede impulsar avances significativos y continuos.
En marzo 2024 se publicó una investigación rrealizada por el Laboratorio de Inteligencia Artificial (UBA IALAB) de la Facultad de Derecho de la Universidad de Buenos Aires titulada “Implementando inteligencia artificial generativa en estudios jurídicos y departamentos legales. Resultados, impacto, guías de uso y directrices”(1) donde se subraya la necesidad de un enfoque integrado para la gestión de herramientas de IA. Los resultados de la investigación resultaron sorprendentes mostrando como la correcta utilización de la herramienta puede generar ahorros significativos de tiempo mejorando así la eficiencia.
SURGE LA NECESIDAD DE REGULACION
El inmediato éxito del chatGPT desde su lanzamiento logrando más de un millón de usuarios en el primer mes dejó en claro el efecto que esta herramienta tendría lo cual también despertó la atención y la necesidad de regulación por parte de países de la Comunidad Económica Europea, Canadá y Estados Unidos abriendo procesos investigativos respecto al alcance de esta herramienta.
La OCDE (Organización para la Cooperación y el Desarrollo Económico) y la Comisión Europea también se han pronunciado sobre el alcance y efectos que puede generar el OpenAI y han enumerado los principios fundamentales que se deben considerar en el diseño de la IA.
Las políticas de IA pronunciadas por ambos organismos se centran en los siguientes aspectos (2):
● Respeto de los derechos humanos y los valores fundamentales: La IA debe desarrollarse y utilizarse de manera que respete los derechos humanos, la dignidad y la privacidad de las personas.
● Transparencia y responsabilidad: Los sistemas de IA deben ser transparentes y responsables ante las personas, y debe ser posible comprender cómo funcionan y quién es responsable de su desarrollo y uso.
● Seguridad y protección: Los sistemas de IA deben ser seguros y protegidos contra el uso indebido, y deben tomarse medidas para prevenir daños a las personas.
● No discriminación e inclusión: La IA debe diseñarse y utilizarse de manera que no discrimine a las personas, y debe promover la inclusión y la equidad.
● Beneficio social: La IA debe utilizarse de manera que beneficie a la sociedad y no cause daños.
La Red Iberoamericana de Protección de Datos Personales (RIPDP)(3) “considera que este servicio desarrollado por la empresa Open AI, L.L.C., puede conllevar riesgos para los derechos y libertades de los usuarios en relación con el tratamiento de sus datos personales…”. Adicionalmente alerta sobre los riesgos de la “desinformación” y/o sobre la falta de experiencia en el correcto uso de la herramienta de CharGPT, que muchas veces puede generar respuestas variadas para una misma pregunta, respuestas falsas o con sesgos culturales, raciales o de género.
NECESIDAD DE POLITICAS DE USO DE LA IA
Todas estas advertencias emitidas por organismos internacionales sumado a las acciones que han tomado varias empresas como Amazon, Bank of America, Verizon, entre otras respecto a la prohibición de uso del ChatGPT por parte de los empleados como usuarios particulares llevan a la necesidad de la implementación de políticas claras por parte de las empresas para regular el uso de esta herramienta. Las organizaciones más grandes cuentan con recursos para tener desarrollos de IA generativa propios pero organizaciones más pequeñas tienen limitaciones presupuestarias debiendo recurrir a desarrollos estandarizados.
Con el fin de evitar que las organizaciones se vean afectadas por acciones de sus empleados o socios comerciales derivadas del uso de inteligencia artificial es que resulta de suma importancia contar con una Política de uso de IA.
Dicha política debe fijar los lineamientos que cualquier persona vinculada a la empresa y actuando bajo su órbita debe respetar respecto al uso de la IA. La misma deberá establecer los principios y directrices para el uso responsable y ético de la IA en concordancia con la legislación local e internacional al respecto.
Dentro de la política debe quedar bien definido:
El alcance: empleados, clientes, proveedores, socios comerciales, etc.
Definición de términos claves
Principios éticos: Transparencia/ Responsabilidad/ Seguridad/ Privacidad
Utilización: dejar bien definido los usos permitidos y los prohibidos.
Gestión de los datos: Establecer normas sobre la recopilación, uso, y almacenamiento de datos, respetando la privacidad y la protección de datos personales según la normativa local e internacional.
Dentro de este último punto es importante desarrollar una política respecto a:
- Manejo de Datos Personales y Sensibles: el usuario debe estar informado de la prohibición de suministrar datos personales y sensibles a ser utilizados por la IA dado que esa información está protegida por la normativa referida a la protección de datos.
- Fugas de Información: los contenidos generados por la IA pueden contener información confidencial o datos personales que deben ser resguardados debidamente. La política debe fijar el alcance en el uso de información confidencial en herramientas de IA.
- Verificación de Datos Erróneos: La IA puede producir información errónea. La política debe incluir un proceso de revisión y confirmación de los datos suministrados por las herramientas de AI.
Desarrollo y Adquisición de Tecnología: definir los criterios para seleccionar proveedores y tecnologías de IA que cumplan con los estándares éticos y legales de la empresa e incluir estos estándares en los contratos para garantizar su cumplimiento.
Capacitación y revisión continua: formación constante respecto a los principios éticos y su aplicación práctica. Asimismo, establecer procesos de revisión y control respecto al cumplimiento de las políticas.
Canal de denuncia: con acceso a empleados y usuarios externos para canalizar cualquier denuncia o abuso detectado por parte de la IA.
Dada la penetración y el impacto de la IA en múltiples esferas, es crucial que las organizaciones, independientemente de su tamaño, implementen políticas de uso claras y robustas. Estas políticas no solo deben alinearse con la legislación local e internacional, sino también promover una ética de responsabilidad y cautela en el uso de la IA.
Las políticas de IA deberían, por tanto, ser diseñadas para:
Educación Continua: Capacitar a todos los empleados y partes interesadas en los principios éticos y prácticos de la IA y en la interpretación correcta de sus resultados.
Revisión y Actualización Constantes: Establecer procedimientos para la evaluación periódica de la eficacia de las políticas y su actualización en respuesta a nuevos desarrollos tecnológicos y cambios legislativos.
Canales de Comunicación Abiertos: Mantener líneas de comunicación claras para que los empleados y usuarios externos puedan reportar preocupaciones o abusos detectados relacionados con la IA.
En conclusión, la implementación de políticas de uso de la IA es imprescindible no solo para proteger los intereses y la privacidad de los usuarios, sino también para maximizar los beneficios de estas tecnologías avanzadas. Al hacerlo, las organizaciones pueden asegurar que la adopción de la IA contribuya positivamente a la sociedad y fortalezca la confianza en las tecnologías emergentes.
*Director Ejecutivo en Alfaro Abogados / Abogado y Licenciado en Administración | Miembro del Board de Líderes GLTH LATAM | Impulsando el #legaltech para transfomar el Derecho
1. https://drive.google.com/file/d/1cu7PTkgMk1um3wXYgl0AQ-pqrUkvHCbV/view?usp=drive_link
2. The OECD Artificial Intelligence Policy Observatory - OECD.AI
3. https://www.redipd.org/es/noticias/autoridades-red-iberoamericana-de-proteccion-de-datos-personales-inician-accion-chatgpt