‘Deepfakes’ ganan terreno en Costa Rica

Opinión de Nikolajs Sulima y Giulio Sansonetti | El aumento de los deepfakes plantea riesgos significativos tanto para individuos como para organizaciones.

Este artículo es exclusivo para suscriptores (3)

Suscríbase para disfrutar de forma ilimitada de contenido exclusivo y confiable.


Ingrese a su cuenta para continuar disfrutando de nuestro contenido


Este artículo es exclusivo para suscriptores (2)

Suscríbase para disfrutar de forma ilimitada de contenido exclusivo y confiable.


Este artículo es exclusivo para suscriptores (1)

Suscríbase para disfrutar de forma ilimitada de contenido exclusivo y confiable.

Los deepfakes, un término en inglés para los medios sintéticos creados por inteligencia artificial en los que una persona, en un audio, una imagen o un video existente, es reemplazada por la apariencia de otra. Son simplemente una tecnología y no son intrínsecamente maliciosos. Sus aplicaciones son variadas, especialmente en la industria del entretenimiento, donde se han utilizado con autorización adecuada y para fines legítimos.‘’

Sin embargo, la verdadera preocupación surge cuando esta tecnología se utiliza de manera fraudulenta, como crear fotos, videos o voces para transmitir información falsa o engañar a las personas para que tomen acciones injustificadas.

Un incidente reciente que involucra a un especialista en cuidados intensivos informado por el periódico La Nación hace pocos días ilustra vívidamente este problema. En ese caso, el especialista denunció que personas inescrupulosas crearon videos en los que utilizan su imagen, e intentan simular su voz, para difundir mensajes falsos con el fin de estafar con actividades que ponen en riesgo la salud.

La facilidad de crear deepfakes

Contrario a la creencia popular, la creación de deepfakes no requiere amplios conocimientos tecnológicos. Si bien en el pasado, elaborarlos tomaba mucho tiempo y recursos informáticos sustanciales; los últimos avances han reducido drásticamente el tiempo necesario para producir deepfakes convincentes. A medida que la tecnología progresa, la calidad y la velocidad de generación también mejoran.

En cuanto a la manipulación de la voz, hemos avanzado desde demoras significativas hasta alteraciones casi instantáneas, permitiendo la creación de contenido engañoso que parece estar ocurriendo en tiempo real con una persona específica.

Esta situación se torna mucho más peligrosa y alarmante si consideramos la posibilidad de que se utilicen deepfakes en los “secuestros virtuales”; una modalidad de extorsión telefónica por medio de la cual las personas reciben llamadas telefónicas que suenan increíblemente realistas, haciéndoles creer que están conversando con amigos o familiares.

De manera similar, la manipulación de video ha progresado al punto en el que se puede lograr en cuestión de horas, y estamos acercándonos a una etapa en la que podría ser posible crear estos engaños en tiempo real, casi instantáneamente. Debemos tener presente que la barrera de entrada para su creación es baja, lo que conduce a un aumento de su uso indebido.

El Impacto en individuos y organizaciones

El aumento de los deepfakes plantea riesgos significativos tanto para individuos como para organizaciones. Desde una perspectiva personal pueden utilizarse para llevar a cabo diversas actividades fraudulentas o simplemente bromas de mal gusto pero con impacto social devastador; sin dejar de lado las posibles sanciones civiles y penales que pudieran corresponder. La extorsión es una táctica común, donde los estafadores utilizan los fraudes para crear contenido falso y luego amenazan con divulgarlo a menos que la víctima pague un rescate. Los secuestros virtuales, en los que las personas reciben llamadas telefónicas afirmando que un ser querido ha sido secuestrado, también están en aumento en el mundo. Estas estafas juegan con las emociones de las víctimas, manipulándolas para que tomen medidas inmediatas y evitar que los afectados acudan a las autoridades policiales y judiciales.

Para las organizaciones, los riesgos asociados son igualmente preocupantes. Las estafas en las que los delincuentes se hacen pasar por empleados o entidades externas para engañar a las organizaciones y lograr transferencias de fondos, se han vuelto cada vez más frecuentes. Los departamentos de cuentas por pagar, tesorería y recursos humanos son particularmente vulnerables a este tipo de estafas.

Imagine recibir una llamada de su mamá, sonando desesperada y solicitando asistencia financiera inmediata, o visualice a su jefe llamando enojado, exigiendo pagos urgentes o acceso a cuentas bancarias. En ambos escenarios, la urgencia y la manipulación emocional pueden resultar abrumadoras, dificultando su capacidad para pensar con claridad.

La amenaza para procesos legales y de litigio

Un riesgo mayor desde el punto de vista de la seguridad jurídica y la confianza en el sistema de justicia, es que la proliferación de los deepfakes puede producir pruebas falsas, altamente convincentes, que puede complicar la tarea de los investigadores, policías, expertos y jueces, para discernir lo genuino de lo fabricado, en prácticamente cualquier proceso judicial.

Probar la autenticidad de la evidencia se convierte en una tarea compleja, ya que debe establecer más allá de toda duda razonable si una pieza de evidencia es real o un engaño. Este aumento ha dado lugar a la defensa del deepfake. En tales casos, una parte puede intentar sembrar dudas sobre su culpabilidad afirmando que la evidencia en su contra es algo fabricado.

Valga la oportunidad para hacer un llamado a las autoridades de gobierno, políticas y la ciudadanía en general, en torno a la necesidad, utilidad y conveniencia de reformar, adicionar o promulgar legislación específica respecto a la creación y uso de deepfakes, como está ocurriendo en el mundo.

Según Bloomberg, en los Estados Unidos, en Washington, California, Wyoming, Texas, Minnesota, Georgia, Virginia y New York ya cuentan con alguna legislación, y Luisiana, Illinois, Nueva Jersey, están en proceso de propuestas legislativas. China promulgó una ley en enero de este año. La Unión Europea cuenta con un “Código de buenas prácticas en materia de desinformación reforzado” presentado en junio del año 2022 que forma parte de la Ley de Servicios Digitales, sancionando hasta con el 6% de la facturación global de las empresas que no cumplan con las obligaciones.

En el caso de América Latina, por ejemplo, Argentina está discutiendo la incorporación al Código Penal de los delitos de obtención y difusión no consentida de material íntimo y/o de desnudez, de los ‘deepfakes pornográficos’ y de la llamada sextorsión.

Protección y consejos

En el futuro, puede volverse cada vez más difícil distinguir entre contenido real y falso. La clave no radica tanto en ser abordados, sino en las acciones que tomamos cuando lo somos. ¿Se nos está solicitando que tomemos alguna acción? Si es así, ya sea otorgar acceso, realizar una transferencia bancaria u cualquier otra acción, es crucial detenernos y considerar el impacto potencial si la solicitud resulta ser engañosa.

Si no hay consecuencias u obligaciones inmediatas, es posible que no sea una preocupación significativa. Sin embargo, cuando nos enfrentamos a una decisión que requiere una acción inmediata, debemos ser cautelosos. En este punto, es importante buscar formas alternativas de verificar la autenticidad del mensaje o solicitud entrante. La verificación va más allá de simplemente discernir si algo es genuino o falso; implica examinar el contexto más amplio y los factores relacionados.

De suma importancia, las campañas de educación pública y la concienciación desempeñan un papel vital en ayudar a las personas a reconocer los deepfakes y reducir eficazmente su impacto. Todo comienza con una mayor conciencia y medidas proactivas, que incluyen capacitación e iniciativas de prevención.

Nicolás Sulima es economista, informático y especialista en seguridad informática. Giulio Sansonetti es administrador de empresas y abogado especializado en derecho económico internacional.