La última actualización del chatbot de ChatGPT ha permitido a los usuarios replicar el inconfundible estilo artístico del cocreador del estudio de animación y legendario cineasta japonés Hayao Miyazaki. Esta nueva funcionalidad se ha viralizado rápidamente en redes sociales, con miles de personas compartiendo sus imágenes generadas al estilo de Studio Ghibli.
Sin embargo, la historia nos ha demostrado que, en ocasiones, sumarse a una tendencia por mera diversión, puede desencadenar fraudes o suplantación de identidad si la tecnología se ve comprometida o simplemente si para usarla aceptas condiciones privacidad desfavorables, o que pueden estar en contra de las regulaciones locales o internacionales.
Antecedentes: un poco de contexto
Clearview AI es un buen ejemplo que funcionaba desde 2020 como un motor de búsquedas como lo es Google, pero de rostros. Debido a cómo recolectaba la información de fuentes públicas como redes sociales, revistas digitales o blogs, tuvo en 2022 una disputa con la Unión Americana de Libertades Civiles para que restringa las ventas del software en el mercado estadounidense de servicios de reconocimiento facial a entidades gubernamentales. Este tipo de controversias continúa y la empresa sigue operando, no exenta de disputas y reclamos legales, y pago de multas en distintos países.
Otro ejemplo es el de la empresa australiana Outabox que en mayo de 2024 sufrió una filtración que expuso datos de reconocimiento facial y biometría de sus sistemas, que se utilizaban en bares y clubes de Australia. Personas que afirmaron ser antiguos desarrolladores de Outabox en Filipinas crearon un sitio web donde confirmaban tener datos biométricos de reconocimiento facial, escaneo de licencia de conducir, firma, datos de membresía de clubes, dirección, fecha de nacimiento, número de teléfono, marcas de tiempo de visitas a clubes y uso de máquinas tragamonedas. Las investigaciones demostraron que los datos se recopilaron de 19 establecimientos en Nueva Gales del Sur y el Territorio de la Capital Australiana, operados por ClubsNSW que había contratado a Outabox.
La privacidad de los usuarios a cambio de una imagen
Como hemos abordado recientemente, en el post sobre 5 principales desafíos que impone la Inteligencia Artificial Generativa, la moderación del contenido y los derechos de autor son dos desafíos que vuelven a tomar fuerza por esta tendencia y requieren de la atención tanto de gobiernos, empresas y usuarios. El funcionamiento de los modelos de IA depende mayoritariamente del acceso a grandes volúmenes de datos (con los que se entrenan y de los cuales se sirven), muchos de los cuales contienen información personal, sensible y confidencial. Las diversas fuentes para recolectar información y así entrenar a los modelos de IA pueden provenir de información pública o de fuentes abiertas, información solicitada a los usuarios (quienes la consienten, como lo es en este caso con la tendencia de las imágenes generadas al estilo Studio Ghibli) y también de redes sociales y, más recientemente, de información recopilada por dispositivos IoT.
Dada la gran cantidad de datos, está claro que, si estos no son tratados y almacenados de forma segura, pueden quedar expuestos y sujetos a posibles accesos indebidos, filtraciones o incluso robos de información como en el caso de Outabox, lo que facilitaría a los ciberdelincuentes suplantar la identidad de los vulnerados o generar estafas con identidades reales, ampliando la superficie de ataque y exposición.
Otro desafío recae en la recolección masiva de datos sin el consentimiento informado de los usuarios, quienes muchas veces desconocen el alcance del uso de su información. Ese desconocimiento implica un vicio del consentimiento (a nivel legal) y, por tanto, dichas recopilaciones se tornan grises.
La falta de transparencia y explicabilidad sobre cómo funcionan los modelos y cómo tratan la información genera también conflictos legales. Aquí es donde se puede tornar una línea delgada entre lo privado y lo invasivo; algunas empresas directamente advierten que los datos serán usados para mejorar el modelo de entrenamiento de su Inteligencia Artificial, con el fin de presentar un producto o servicio de mayor calidad.
Medidas para proteger la información del usuario
Unirse a esta tendencia además del entusiasmo puede traer riesgos de la privacidad si no se toman las debidas precauciones, por lo que desde WeLiveSecurity mencionamos los puntos más importantes a considerar para minimizar los riesgos:
Revisar las políticas de privacidad del sitio o aplicación: Mantenerse informado sobre cómo funcionan los modelos de IA y cómo tratan la información es fundamental para saber si es fiable subir o no información personal o confidencial.
Revisar si la información que se sube al sitio o aplicación está protegida por alguna ley: Garantizar que los modelos de IA dentro de aplicaciones o sitios cumplan con regulaciones internacionales y nacionales pertinentes, así como con los principios éticos de transparencia, explicabilidad, equidad y responsabilidad. En caso de la ausencia de alguno de estos principios, es mejor no subir información personal (rostro del usuario/fotos familiares) o confidencial (lugar de trabajo).
Usar aplicaciones web o móviles de fuentes oficiales: Debido al gran uso de aplicaciones o sitios similares a ChatGPT que puedan generar imágenes con el estilo artístico del Studio Ghibli, los ciberdelincuentes aprovechan esta temática para poder engañar a los usuarios e incitarlos a descargar software que aparentemente cumple con el propósito de generar imágenes con IA, sin embargo, puede contener malware como se menciona en este post.
Usar imágenes seguras o sin derechos de autor: Sino se tiene el conocimiento de que la imagen sea para su uso libre, es mejor no subirla para evitar problemas legales relacionadas con los derechos de autor. Una buena práctica es subir imágenes relacionadas a paisajes o ilustraciones que cumplan con las políticas de privacidad del sitio o aplicación.
Welivesecurity
Hola, déjenos un comentario