Dentro de la creciente amenaza de los videos generados por IA

CLEVELAND (WJW) – Supongamos que se desplaza por sus redes sociales y encuentra un video que parece un noticiero local confiable.

El plan de retiro de tropas de Trump enfrenta una reacción bipartidista

“Buenas noches, esto acaba de llegar”, dice el presentador. “No habrá nieve ni clima frío en Cleveland este invierno. Los Browns, Indians y Cavs están todos en el primer lugar y al borde de ganar campeonatos, y todos están recibiendo un aumento de sueldo “.

Pero algo no parece estar bien, el presentador se parece a mí, Joe Toohey, pero suena como Gabe Spiegel de FOX 8.

“Grabamos un par de videos: uno tuyo y otro de tu colega”, me dice el profesor Siwei Lyu.

Ese video es lo que se conoce como “Deepfake”. Es una tecnología fascinante con impactos potenciales aterradores. Es un clip generado por computadora hecho con un algoritmo que fue entrenado usando imágenes de mi cara.

Lo aprendió tan bien que puede recrearlo para que parezca que estoy haciendo y diciendo cosas que nunca he hecho.

“La forma de entrenar esto es realmente como enseñar a un bebé a reconocer rostros humanos y luego alucinar o soñar con rostros humanos”, dice el profesor Lyu. “Así que dele a este modelo toneladas y toneladas de imágenes de rostros humanos”.

“El modelo mejorará cada vez más a medida que vea más datos y luego creará imágenes que se verán cada vez más realistas”.

Para esta pieza, el presentador de FOX 8, Joe Toohey, trabajó con el profesor Siwei Lyu y su equipo en la Universidad de Buffalo. Algunas de sus investigaciones están financiadas por la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA).

Para muchos, ver y oír es creer.

Debido a Deepfakes, dice Lyu, “debemos tener mucho cuidado con lo que vemos y lo que escuchamos”.

“Ver para no creer. Oír tampoco es creer ”.

Familia y comunidad recuerdan al soldado de Painesville que murió en un trágico accidente de helicóptero

La tecnología tiene innumerables usos potenciales. Los deepfakes de las estrellas de la Liga Nacional de Fútbol, ​​Baker Mayfield y Saquon Barkley, aparecen en un anuncio de Hulu.

También hay un caso de uso más oscuro y peligroso. El escenario no es difícil de evocar: imagina que un video de un líder mundial como Vladimir Putin aparece en Internet diciendo que está a punto de invadir otro país.

El clip podría viajar por todo el mundo en línea antes de que los gobiernos, los periodistas y los verificadores de hechos tengan la oportunidad de autenticarlo.

El senador Rob Portman (R-OH) dice que se “sorprendió” cuando se enteró por primera vez de Deepfakes.

Luego cofundó el grupo de Inteligencia Artificial del Senado de los Estados Unidos. Es un grupo bipartidista de senadores que impulsa la legislación para que el gobierno esté al tanto de los Deepfakes.

“En realidad, tenemos tres proyectos de ley más que esperamos aprobar en el próximo mes, que tratan de que el gobierno federal se involucre más en la comprensión de lo que son los Deepfakes y proponga algunas reglas al respecto”, dice Portman. “Porque realmente da bastante miedo”.

Portman dice que la amenaza de los Deepfakes y los medios manipulados requiere un enfoque de “todo el gobierno”. Uno de los proyectos de ley que impulsa el Comité de Inteligencia Artificial crearía un nuevo organismo dentro del gobierno como un “centro de excelencia” para manejar el creciente problema de los Deepfake.

“En ausencia de nuestra legislación aprobada, tendría que darle al gobierno federal una calificación bastante baja porque no tenemos una forma centralizada de lidiar con esto y entenderlo”, le dice Portman a FOX 8.

“No tenemos la experiencia que deberíamos tener. El gobierno está un poco atrasado en general cuando se trata de tecnología. Y creo que tenemos que ponernos al día (inteligencia artificial en general, Deepfakes en particular) y espero que lo hagamos “.

El profesor Lyu está trabajando precisamente en eso: detectar y prevenir la propagación de Deepfakes.

Ya sea a través de su nuevo sitio web “Deepfake-o-meter”, que permite a los usuarios enviar medios para analizar su autenticidad o evitarlos desde el principio mediante la creación de una especie de marca de agua digital para los datos privados de las personas.

Está desarrollando métodos para usar ahora y los compara con los medicamentos que se usan para ayudar a detener la propagación de un virus Deepfake.

“Di una charla en un centro para personas mayores y un caballero después de mi charla se me acercó y me dijo:‘ eso dio miedo. Nunca confiaré en nada de lo que veo en Internet “.

“Pero ese es el miedo que tengo”, dice Lyu. “Porque si no confiamos en ninguna información, bloqueamos la información útil”.

Obtenga los últimos titulares de FOX8.com a continuación:

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *