Un consejo técnico: Cómo detectar imágenes deepfake generadas por IA
Con los deepfakes de IA que aparecen casi todos los días, representando a todos, desde Taylor Swift hasta Donald Trump
Con los deepfakes de IA que aparecen casi todos los días, representando a todos, desde Taylor Swift hasta Donald Trump
Con información de AP
LONDRES (AP) - La falsificación de IA se está convirtiendo rápidamente en uno de los mayores problemas a los que nos enfrentamos en línea. Las imágenes, los vídeos y el audio engañosos están proliferando como resultado del surgimiento y el mal uso de las herramientas de inteligencia artificial generativa.
Con los deepfakes de IA que aparecen casi todos los días, representando a todos, desde Taylor Swift hasta Donald Trump, cada vez es más difícil decir lo que es real de lo que no lo es. Los generadores de vídeo e imágenes como DALL-E, Midjourney y Sora de OpenAI facilitan a las personas sin habilidades técnicas la creación de deepfakes: solo tienes que escribir una solicitud y el sistema la escupe.
Estas imágenes falsas pueden parecer inofensivas. Pero se pueden utilizar para llevar a cabo estafas y robo de identidad o propaganda y manipulación electoral.
Así es como evitar ser engañado por deepfakes:
CÓMO DETECTAR UN DEEPFAKE: MIRA LAS CARAS
El intercambio de caras es uno de los métodos de deepfake más comunes. Los expertos aconsejan mirar de cerca los bordes de la cara. ¿El tono de la piel facial coincide con el resto de la cabeza o el cuerpo? ¿Están los bordes de la cara afilados o borrosos?
Si sospechas que el vídeo de una persona hablando ha sido manipulado, mira su boca. ¿Los movimientos de sus labios coinciden perfectamente con el audio?
Ajder sugiere mirar los dientes. ¿Son claros, o son borrosos y de alguna manera no son consistentes con cómo se ven en la vida real?
La empresa de ciberseguridad Norton dice que los algoritmos podrían no ser lo suficientemente sofisticados todavía como para generar dientes individuales, por lo que la falta de contornos para dientes individuales podría ser una pista.En los primeros días de los deepfakes, la tecnología estaba lejos de ser perfecta y a menudo dejaba signos reveladores de manipulación. Los verificadores de hechos han señalado imágenes con errores obvios, como manos con seis dedos o anteojos que tienen lentes de forma diferente.
Pero a medida que la IA ha mejorado, se ha vuelto mucho más difícil. Algunos consejos ampliamente compartidos, como buscar patrones de parpadeo antinaturales entre las personas en videos deepfake, ya no se mantienen, dijo Henry Ajder, fundador de la consultora Latent Space Advisory y experto líder en IA generativa.
Aún así, hay algunas cosas que buscar, dijo.
Muchas fotos deepfake de IA, especialmente de personas, tienen un risllo electrónico, "una especie de efecto de suavizado estético" que deja la piel "con un aspecto increíblemente pulido", dijo Ajder.
Sin embargo, advirtió que el estímulo creativo a veces puede eliminar este y muchos otros signos de manipulación de la IA.
Comprueba la consistencia de las sombras y la iluminación. A menudo, el sujeto está en un enfoque claro y parece convincentemente realista, pero los elementos en el fondo pueden no ser tan realistas o pulidos.
El sitio web de periodismo de Poynter aconseja que si ves a una figura pública haciendo algo que parece "exagerado, poco realista o sin carácter", podría ser una falsificacura profunda.
Por ejemplo, ¿el Papa realmente estaría usando una chaqueta de lujo, como la representa una notoria foto falsa? Si lo hiciera, ¿no habría fotos o vídeos adicionales publicados por fuentes legítimas?
USAR LA IA PARA ENCONTRAR LAS FALSIFICACIONES
Otro enfoque es usar la IA para combatir la IA.
Microsoft ha desarrollado una herramienta de autenticación que puede analizar fotos o vídeos para dar una puntuación de confianza sobre si ha sido manipulado. El fabricante de chips Intel'sFakeCatcher utiliza algoritmos para analizar los píxeles de una imagen para determinar si es real o falso.
Hay herramientas en línea que prometen olfatear falsificaciones si subes un archivo o pegas un enlace al material sospechoso. Pero algunos, como el autenticador de Microsoft, solo están disponibles para socios seleccionados y no para el público. Eso es porque los investigadores no quieren avisar a los malos actores y darles una ventaja más grande en la carrera armamentista deepfake.
El acceso abierto a las herramientas de detección también podría dar a las personas la impresión de que son "tecnologías divinas que pueden subcontratar el pensamiento crítico para nosotros" cuando, en cambio, necesitamos ser conscientes de sus limitaciones, dijo Ajder.
LOS OBSTÁCULOS PARA ENCONTRAR FALSIFICACIONES
Dicho todo esto, la inteligencia artificial ha estado avanzando a una velocidad vertiginosa y los modelos de IA se están entrenando en datos de Internet para producir contenido de calidad cada vez más alta con menos defectos.
Eso significa que no hay garantía de que este consejo siga siendo válido incluso dentro de un año.
Los expertos dicen que incluso podría ser peligroso poner la carga sobre la gente común para convertirse en Sherlocks digitales porque podría darles una falsa sensación de confianza a medida que se vuelve cada vez más difícil, incluso para los ojos entrenados, detectar deepfakes.
Los expertos ven la IA en la fase inicial, pero "es un rinoceronte corriendo"
“La Inteligencia Artificial, aunque parezca una gran revolución, está en una fase embrionaria y su total desarrollo, lo que se denomina la Súper-Inteligencia Artificial, tardará todavía unos 25 años”
“La Inteligencia Artificial, aunque parezca una gran revolución, está en una fase embrionaria y su total desarrollo, lo que se denomina la Súper-Inteligencia Artificial, tardará todavía unos 25 años”
Con información de EFE
La Coruña (España), 4 may (EFE).- Expertos que participan en el foro de innovación Ecosystems2030, que se celebra este jueves y viernes en el Palexco de La Coruña (noroeste de España), consideran que la Inteligencia Artificial está en una fase embrionaria, inicial, aunque imparable, al punto de que una directiva de Google dijo que es "un rinoceronte corriendo".
DIRECTIVA DE GOOGLE: "NADA HAY QUE PUEDA PARAR EL AVANCE DE LA IA"
La directora de Estrategia de Investigación de IA de Google, Pilar Manchón, aludió en su ponencia a la evolución de la IA como “un experimento masivo en la sociedad” y remarcó que “no hay nada que pueda parar el avance de la Inteligencia Artificial, pues es como un rinoceronte corriendo”.
“Tenemos que ser audaces, pero también responsables. La humanidad está en juego y me gustaría solicitar más humildad y más inversión en investigación responsable”, manifestó. "Hay que ir lentamente, ser humildes", "vayamos rápido, pero con calma", fue su principal recomendación.
DIRECTIVA DE IKEA: "FORMACIÓN Y SENTAR BASES ES EL CAMINO"
Carolina García, responsable de liderar el área de Nuevos Negocios e Innovación de Ikea a nivel global, opinó que la senda a seguir pasa por formación y por sentar las bases, porque "habrá muchos dilemas", pero si hay una dirección clara, esa será la guía.
"Ver cómo vamos a aplicar la IA en el día a día y su impacto positivo en el planeta y en el negocio pasa por formarnos todos", comentó.
JEFE DE INFORMACIÓN DEL IMPERIAL COLLEGE: "NO VAMOS A PARAR YA"
El jefe de información del Imperial College de Londres, Juan Villamil, indicó que "estamos al principio de una revolución" de algo que el común de las personas todavía no entiende "muy bien" pero que "no vamos a parar ya".
"Creo que no se puede parar", subrayó, y abogó por avanzar con seguridad, algo que considera más importante que ir más rápido o lento.
ESPECIALISTA DE SHELL: HAY QUE VER CÓMO USARLA PARA AYUDAR
Lorna B. Ortiz, especialista en innovación de Shell, abogó por ver cómo usar la inteligencia artificial para ayudar a la sociedad.
Es "algo moral" su empleo "para el beneficio de la humanidad", destacó.
DIRECTOR DE NEGOCIO DE IBERIA AIRLINES: TRABAJEMOS LA REGULACIÓN
Gabriel Perdiguero, director de Clientes y Transformación de Negocio de Iberia Airlines, aseguró que la Inteligencia Artificial va a seguir su curso e hizo hincapié en que hay que trabajar "mucho" en su regulación.
Al igual que Lorna Ortiz, mencionó la ética, la moral, el hecho de que "trabaje para nosotros", por lo que ve en "regular" la clave de bóveda. "Y se están dando los primeros pasos en España y Europa", enfatizó.
PRESIDENTE DE ECOSYSTEMS: SU TOTAL DESARROLLO TARDARÁ 25 AÑOS
El presidente ejecutivo de Ecosystems, Omar Hatamleh, observó que “la Inteligencia Artificial, aunque parezca una gran revolución, está en una fase embrionaria y su total desarrollo, lo que se denomina la Súper-Inteligencia Artificial, tardará todavía unos 25 años”.
Amnistía Internacional condenó uso de fuerza letal contra Óscar Pérez y compañeros
AI añadió que ha recibido serias denuncias de que las personas fallecidas serán cremadas sin autorización de sus familiares
AI añadió que ha recibido serias denuncias de que las personas fallecidas serán cremadas sin autorización de sus familiares
Con información de Efecto Cocuyo
Amnistía Internacional (AI) condenó, este miércoles 17, el uso intencional de la fuerza letal en operaciones de mantenimiento del orden público por parte del Gobierno venezolano, y exigió una investigación imparcial sobre el operativo en que murió el policía sublevado Óscar Pérez.
La organización indicó que el operativo de las fuerzas de seguridad que tenía como objetivo detener a Pérez, exfuncionario del Cuerpo de Investigaciones Científicas Penales y Criminalísticas (Cicpc), y a otras personas alzadas contra el Gobierno, “parece ser ilegal y levanta múltiples alarmas de violaciones graves a derechos humanos, e incluso de crímenes bajo el derecho internacional”.
En un boletín emitido en Ciudad de México, refirió que de acuerdo con información oficial el pasado 15 de enero, en la comunidad de El Junquito del estado Miranda (noroeste de Caracas) una operación de seguridad resultó en la muerte de al menos nueve personas y otras cinco resultaron heridas.
“Este es solo el último ejemplo del uso letal de la fuerza en operación del control de orden público, resultando hasta ahora en miles de víctimas en todo el país”, señaló AI en un comunicado.
Destacó que en el operativo, los agentes utilizaron un arma militar que no solo está diseñada para matar, sino que brinda pocas probabilidades de supervivencia. Además, el uso de esta arma puso en peligro la vida de las personas en los alrededores, sostuvo.
Necesidad de una investigación
“Es impostergable que el Gobierno venezolano se asegure de que las autoridades civiles realicen una investigación pronta, imparcial, independiente y exhaustiva sobre el uso intencionalmente letal de la fuerza en esta operación, y demuestre que este no fue un caso de ejecución extrajudicial”, dijo Erika Guevara Rosas (en la foto), directora de AI para las Américas.
De acuerdo con el texto, otras denuncias graves que fueron publicadas en los medios incluyen la participación de personas ajenas a los cuerpos de seguridad en el operativo y la negación de información a los familiares de las personas que murieron.
La organización añadió que también ha recibido serias denuncias de que las personas fallecidas serán cremadas sin autorización de sus familiares y sin las diligencias de investigación pertinentes.
“A pesar que aún no se hayan estableciendo los hechos, las autoridades están adelantando justificaciones sobre lo ocurrido en el operativo de seguridad. Trágicamente, esta no es la primera vez que las autoridades venezolanas justifican el uso letal de la fuerza simplemente sobre la base de alegatos de ‘actividades criminales’, dejando de lado el Estado de derecho“, dijo Guevara Rosas.
Derecho internacional
Amnistía expuso que, conforme al derecho internacional, “no es permisible en operaciones de mantenimiento del orden público recurrir al uso intencionalmente letal de la fuerza de una manera que probablemente matará a otras personas que no representan una amenaza seria e inminente”.
“Por lo tanto, las autoridades deben tomar todas las precauciones posibles para evitar esas muertes y, si eso no es posible, evitar recurrir al uso intencionalmente letal de la fuerza”, argumentó.
Finalmente, aseveró que el Estado venezolano debe apegarse a sus obligaciones internacionales, incluyendo la de asegurar que el uso de la fuerza por parte de los cuerpos de seguridad se enmarque en los principios de legalidad, necesidad, proporcionalidad y rendición de cuentas.
Este miércoles, la coalición opositora Mesa de la Unidad Democrática (MUD) afirmó que a los sublevados contra el Gobierno venezolano, entre los que se encontraba el policía Pérez, “los ajusticiaron” durante el operativo en que fueron abatidos el lunes.
“Óscar Pérez y el resto querían rendirse, lo pidieron a gritos, lo pidieron en videos. Los ajusticiaron. Les aplicaron una pena de muerte que está prohibida por nuestra Constitución, sea cual sea la opinión que tenga cada quien del accionar de este grupo”, sostuvo la MUD en un comunicado.
Óscar Pérez se dio a conocer durante las protestas contra el Gobierno encabezado por el presidente Nicolás Maduro a mediados del año pasado cuando, con un helicóptero de la policía científica, cuerpo al que pertenecía, sobrevoló el Tribunal Supremo de Justicia contra el que disparó y lanzó granadas, sin causar grandes daños.