LinuxParty
El rápido desarrollo de los generadores de imágenes permite que cualquiera pueda crear imágenes de personajes ficticios que parecen increíblemente realistas. Estas herramientas están cambiando la forma en que creamos y consumimos pornografía.
La foto muestra el rostro de una mujer joven con cabello largo y negro y una sonrisa amable que dice "Hoy me siento hermosa :)". Y en Reddit, donde Claudia, como se la conoce, vende fotos de desnudos a cualquiera que le envíe un mensaje privado, es bastante común: "Maldita sea, eres hermosa", dijo un usuario.
Pero Claudia es falsa: según dos investigadores de medios sintéticos, un conjunto de fotos creadas con herramientas de inteligencia artificial podría usarse para extorsionar a compradores crédulos.
Los rápidos avances en imágenes de IA, como Midjourney y Stable Diffusion, han llamado la atención del mundo en las últimas semanas por las ingeniosas obras de arte y la espectacular falsificación de ex presidente y papa. Pero el caso de Claudia muestra el lado positivo de la tecnología: al permitir que cualquier persona cree imágenes de maniquíes de apariencia inquietantemente realista, estas herramientas están cambiando la forma en que se produce y consume pornografía.
Durante años, las nuevas tecnologías han sido pioneras en el campo de la pornografía y las herramientas de inteligencia artificial no han cambiado este paradigma. Ahora hay miles de cuentas registradas en tableros de mensajes y salas de chat dedicadas a crear y mejorar personajes compuestos, la mayoría de los cuales parecen niñas y mujeres, un cambio rápido puede trastornar la industria multimillonaria y socavar la necesidad de la realidad. Los roles y modelos de vida enfrentan y plantean preocupaciones más profundas sobre la cosificación y explotación de las mujeres.
Administrador de sistemas para un hospital del Medio Oeste. -quien, al igual que otros creadores de IA y espectadores entrevistados para esta historia, habló bajo condición de anonimato- dijo que usó herramientas de estabilización para crear imágenes identificables. Adora a las mujeres adultas en pañales y la mejora de la calidad de la imagen lo hace mentir.
"No creo que a la persona promedio que ve estas cosas le importe", dijo. “No espero que las personas que veo en línea sean quienes dicen ser. No saldría con esta persona en la vida real... Después de todo, ¿qué diferencia hay si no son reales?". La cuenta de Claudia no respondió a las solicitudes de comentarios, por lo que es imposible confirmar cómo se tomaron las fotos o cuánto dinero se recaudó de la lotería de un mes.
Sin embargo, según los investigadores, las fotos tienen algunos signos evidentes de falsificación, como detalles extraños en el fondo y un lunar en el cuello que desaparece entre poses. “En realidad, son bastante fáciles de crear”, dijo un desarrollador de IA.
Los investigadores han identificado varios perfiles en línea de mujeres que creen que son avatares falsos basados en artefactos de firma dejados por algunos de los creadores de IA. En Instagram, Reddit, Twitter y OnlyFans, las cuentas comparten fotos de mujeres con diversos grados de desnudez, instando a los espectadores a pagar o registrarse si quieren ver más.
Las cuentas falsas sospechosas no responden a las preguntas. Y dado que la mayoría de las imágenes generadas por IA no tienen marcas de agua ni huellas dactilares en el momento de la creación, es difícil para cualquier espectador confirmar si son reales.
Una cuenta publicó un video de un actor porno puertorriqueño aficionado junto con fotos editadas que mostraban el rostro de una mujer en el cuerpo de otro hombre. Ni las cuentas falsas ni las reales respondieron a las solicitudes de comentarios.
Cientos de cuentas en línea han seguido y comentado las cuentas pornográficas falsas, dejando comentarios que indican que creen que las mujeres son reales. "Me siento un poco engañado", dijo el usuario de Reddit "legalbeagle1966" después de que un reportero del Washington Post sugiriera que Claudia probablemente era una estafadora. Una semana antes, comentó en su foto que se veía "bastante sexy y perfecta". Muchas de las imágenes falsas más recientes están impulsadas por programas de inteligencia artificial conocidos como modelos virales que permiten que cualquier persona ingrese una cadena corta de palabras y cree una foto falsa de forma gratuita. Luego, las imágenes se pueden editar para hacerlas más convincentes e incluso ocultar fallas y mejorar su calidad. Estas herramientas son incluso más fáciles de usar que el software "deepfake" que causó preocupación sobre las imágenes de IA en 2017.
Mientras que deepfake usa técnicas de aprendizaje profundo de IA para editar videos existentes, los modelos de distribución generan completamente la imagen. imágenes que analizaron anteriormente. Pero la nueva clase de imágenes plantea muchas de las mismas preocupaciones, incluida la posibilidad de usarlas para imitar a mujeres reales. En algunos foros, los usuarios están discutiendo cómo usar modelos de difusión y otras técnicas basadas en IA, como la pintura, para superponer rostros de mujeres reales sobre los cuerpos de simulaciones generadas por IA. “Ni siquiera tienes que lucir exactamente como una mujer para humillar y expulsar a las mujeres de los lugares públicos. Se basan en efectos de choque”, dijo Sam Gregory, director ejecutivo de Witness, un grupo de tecnología de video y derechos humanos sin fines de lucro. “Pero el cambio a los modelos de distribución ha hecho que sea mucho más fácil crear volumen, variedad y personalización, al mismo tiempo que se hace lo mismo con las celebridades. La calidad está mejorando, agregó. "La gente ha querido que la hagan creer en algo que degrada, se burla o ataca a alguien que no les gusta".
Stability AI, una startup con sede en Londres llamada Stable Diffusion, prohíbe que la gente la use para crear imágenes que "la persona promedio consideraría obscenas, obscenas... [o] eróticas". Pero dado que la compañía ha puesto a disposición esta herramienta para descargarla en sus computadoras, no hay forma de evitar que alguien la use para cualquier propósito.
Algunos foros dedicados al uso de este generador de pornografía con IA hablan incluso de cómo se puede utilizar para crear imágenes sexualmente explícitas de mujeres sin su consentimiento. La gente también compartió tutoriales sobre cómo usar la tecnología para retocar imágenes reales, incluidas mujeres desnudas fotografiadas completamente vestidas.
Estas imágenes causan cierta preocupación en la industria del porno por la nueva competencia tecnológica. Pero no todos creen que los días de la industria están contados. Mark Spiegler, que representa a estrellas porno como Asa Akira y Riley Reid, dice que las estrellas de su industria son artistas con carisma, habilidad y buena apariencia como ninguna otra IA comparable. "No creo que puedas reconocer automáticamente a una persona", dijo en una entrevista. "Puedes copiarlo de alguna manera, pero aún carece de espontaneidad y creatividad humana". Zoe Sterling, estudiante de historia del arte y prostituta de Miami que vende fotos y videos en OnlyFans, dice que no le importa.
“Aquellos que dicen que la IA puede reemplazar a las prostitutas se están comportando como si las prostitutas no fueran humanas”, dijo en una entrevista. “Buena suerte y espero que entiendas lo que significa el consentimiento. Tal vez le pregunten a la inteligencia artificial". Algunas cuentas de avatares femeninos les dicen explícitamente a los espectadores que se crearon con Stable Diffuse u otras herramientas de IA. Otros son un poco más sutiles: "Alice", un avatar con unos 10.000 seguidores en Instagram, se describe a sí misma como "AI Life, real vibes". Pero otros, como Claudia, no ofrecieron ninguna pista. La primera publicación de la cuenta en Reddit en enero fue una larga blasfemia sexualmente explícita, con varios usuarios de Reddit expresando su entusiasmo: "Necesito una buena chica como tú en la vida", escribió una persona. ZeroGPT, un motor de detección de texto generado por computadora, dijo que estaba 97 por ciento seguro de que el código fue generado por un motor de lenguaje de IA como ChatGPT.
La cuenta contiene extractos y otras fotos sexualmente explícitas, incluida una mujer en lencería, y cualquiera que haga clic en el perfil puede ver que la cuenta se describe a sí misma como una mujer de 19 años que venderá fotos de forma privada para el comprador. Apenas la semana pasada, cuando Claudia publicó una foto de "Feeling Good Today" en Reddit dedicada a "fotos de rostros de personas", la gente comenzó a sospechar que se trataba de inteligencia artificial.
Algunos usuarios de Reddit pensaron que la piel de Claudia se veía "demasiado suave, demasiado 'perfecta'" y señalaron que la extraña habitación blanca en la que apareció tenía una viga en el techo que desaparecía detrás de su cabeza pero nunca reaparecía en el otro lado. Un desarrollador de IA que habló con The Post dijo que también hay algunos consejos técnicos: el ancho de imagen de 512 píxeles es el tamaño de imagen predeterminado en Diffuse Steady.
No todos se dieron cuenta. El usuario de Reddit "Lanky_Grade_268", que afirma ser un limpiador de hotel de 21 años en Argentina, llamó a Claudia "hermosa y encantadora" y dijo que se sorprendió al descubrir que podría ser una falsificación. “Da miedo porque será difícil distinguir entre la IA y las personas reales”, escribió en el mensaje. Pero el usuario de Reddit "Ryan5197", quien le dijo a Claudia que se veía "genial", estaba menos preocupado. “Mi opinión sobre la imagen no ha cambiado”, dijo. "Es un buen personaje".
-
Fallos
- ‘Claudia’ vende sus fotos íntimas, pero ella no existe: son creadas por inteligencia artificial
- Cómo resolver: Alledia framework not found, mensaje de fallo.
- Israelíes extraen datos de un PC que no esta conectado a nada [VIDEO]
- Lenovo condenada a pagar 20.000 euros a un usuario por negarse a devolverle 42 euros de su licencia
- Avast, el antivirus gratuito, trafica con tus datos y sabe si ves porno
- El Hospital de Torrejón, el primero en ser «secuestrado» por un virus informático
- Everis y Prisa Radio, sufrieron un ataque en el que secuestraron varios sistemas.
- Ni los grandes como la MPA o LaLiga quieren el artículo 13 de la nueva Ley de Copyright europea
- Habrá necesidades urgentes para prepararse para los ataques de virus artificiales, dice el informe del gobierno de EE. UU.
- CrossRAT, un troyano indetectable que afecta a Windows, MacOS y Linux
- Cómo reparar una partición NTFS en Linux
- Fallo de seguridad en el protocolo WPA2 de redes Wi-Fi
- Allwinner acusada de introducir un backdoor en su versión de Linux
- SAP abandona Linux y El Servicio Extremeño de Salud volverá a usar Windows
- Tristes Noticias desde Kunduz, Afganistán