Parece ser que este 2023 recibimos noticias constantes de nuevas herramientas de inteligencia artificial que parecen solucionar todos nuestros problemas. Existe ChatGPT (la que sería la más popular del momento), una herramienta que, mediante texto, le escribo un requerimiento, y, de manera similar a una persona, me da una respuesta apropiada. También, existen otras para crear imágenes luego de insertar una descripción, como Dall-E o Midjourney. Herramientas que, en un entorno laboral, nos pueden ser muy útiles, ayudándonos a ser más eficientes, por la forma “humana” que presentan la información.
Estos sistemas se denominan “inteligencia artificial generativa”, dado que generan contenido, como audios, textos, imágenes, entre otros, mediante una indicación o descripción (los llamados “prompts”). Basado en ese prompt, la herramienta crea el producto solicitado, el cual se genera basado en un conjunto de datos alimentados a la propia IA.
LEA MÁS: Así puede chatear con ChatGPT desde WhatsApp
Todas estas herramientas parecen solucionarnos temas en tiempo récord. Solo necesito una muy buena habilidad al dar una certera instrucción a la herramienta, para que en segundos me ayude con la introducción a un reporte, una imagen que necesito para mi presentación, o, más avanzado aun, que me genere un video requerido para un tema laboral. Todo esto sin el costo o tiempo asociado a esas tareas, si tuviera que pagarle a un profesional para hacerlas.
Sin embargo, la misma facilidad de usar estas herramientas, genera el riesgo que nuestros colaboradores no sepan los alcances de cada una, o que no sean juiciosos en la información que le entregan a la aplicación, o no hagan una verificación de la información generada por la inteligencia artificial. ¿Cuál sería la mejor forma de usarlas en un entorno laboral?
¿Qué herramienta IA usar?
Como mencioné, cada día parece generarse una herramienta de IA que nos soluciona un tema en específico. Ante la diversidad de opciones, las empresas deberían verificar cuáles de esas herramientas pueden ser utilizadas o gestionadas por sus colaboradores, y no dejar a la libre esa elección.
Por ejemplo, antes de utilizar cualquier de ellas, debería primero verificarse algunos temas básicos. ¿Necesito una licencia para el uso comercial de esa herramienta? ¿Qué información almacena o recaba la herramienta? ¿Quién tendría acceso a esa información? ¿Qué consideraciones éticas o de cumplimiento tiene el desarrollador de la aplicación?
LEA MÁS: Chat GPT, Bard y otras IA transformarían radicalmente las búsquedas en Internet
Ya a nivel mundial hemos visto empresas que regulan el uso de estas herramientas a nivel interno. Samsung prohibió el uso de ChatGPT, luego que descubrió que los empleados agregaron información confidencial, cuando la agregaron para que les ayudara a corregir errores en el código utilizado. Amazon también lo hizo, ante la sospecha de que la herramienta fue alimentada con información propiedad de la empresa.
Otras empresas han prohibido totalmente su uso, por situaciones similares, aunque otras, entienden que con una regulación adecuada, pueden reducirse las incidencias antes apuntadas.
¿Se debe confiar ciegamente en las herramientas IA?
También, es importante que lo que hacen estas herramientas es generar información de referencia, pero basados en un cúmulo de información que “leen” para proyectar un producto basado en el “prompt” emitido. Sin embargo, la tecnología todavía no está hecha para una verificación de la información emitida, o para determinar que cierta información utilizada es incorrecta o sesgada.
Ya está plenamente documentado que estas herramientas de inteligencia artificial a veces inventan respuestas, situaciones históricas que nunca pasaron, reportes o citas bibliográficas de trabajos que no existen, pudiendo generarse una respuesta totalmente incorrecta. Tampoco las actuales herramientas en el mercado pudieran detectar si se emitió algún razonamiento, imagen o video abiertamente ofensivo, discriminatorio, o que viole leyes locales laborales, de propiedad intelectual o de protección de datos personales.
Existió un caso en Estados Unidos, donde un abogado pidió ayuda al ChatGPT para hacer una investigación de antecedentes judiciales, y la herramienta le citó casos que no existían. El abogado, al ser cuestionado por las cortes estadounidense, tuvo que aceptar que los casos se los había dado la herramienta, sin haber hecho la validación humana respectiva.
Claramente, no se le debe dar una confianza ciega a lo generado por estas plataformas. A los trabajadores, se les puede requerir que todo producto hecho parcial o totalmente con inteligencia artificial generativa debe así declararse (tanto al empleador como para terceros). También, se puede establecer la obligación de que toda información creada por la herramienta, de ser verificada a través de fuentes confiables, y revisando que no se violen derechos de terceros, para evitar riesgos que pudieran generar estas conductas a la empresa, y, además, poder sancionar disciplinariamente a los empleados que incumplen los lineamientos instaurados.
Regulación pertinente
Ciertamente, con tecnología de tan reciente impacto, nuestra normativa laboral tomará su tiempo en ajustarse. En ese tiempo de espera, se recomienda que las empresas, por iniciativa propia, regulen su uso.
Por esto, parece importante que cada empresa haga una valoración y revisión, para determinar los beneficios que pudieran tener de estas aplicaciones de inteligencia artificial generativa, pero también para limitar los daños que pudiera generar un uso inadecuado. Estos pueden ser, por ejemplo, establecer si uso es prohibido o el listado de aplicaciones permitidas, establecer limitaciones para qué pueden utilizarse, entre otros.
Para hacer una regulación sólida, donde se discuten aplicaciones nuevas con tecnología cada vez más avanzada y compleja, se hará más importante asesorarse con expertos legales que no solo sepan de los temas laborales en juego, sino también de la tecnología que se pretende regular.
El autor es socio de Ecija Legal, especialista en Derecho Laboral.