Si bien la expresión 'Cuatro jinetes del Infocalipsis' se ha utilizado durante mucho tiempo en Internet para referirse a delincuentes como traficantes de drogas, lavadores de dinero, pedófilos y terroristas, el término 'Infocalipsis' fue llevado a la corriente principal relativamente recientemente por el graduado del MIT Aviv Ovadya. quien actualmente se desempeña como Jefe de Tecnología en el Center for Social Media Responsibility (UMSI). En 2016, en el apogeo de la crisis de las noticias falsas, Ovadya había expresado su preocupación a los tecnólogos de Silicon Valley por la difusión de información errónea y propaganda disfrazada de noticias reales en una presentación titulada 'Infocalypse'..
Según su presentación, las plataformas de Internet como Google, Facebook y Twitter obtienen sus ingresos orientados a recompensar los clics, las acciones y la audiencia en lugar de priorizar la calidad de la información. Eso, argumentó, iba a ser un verdadero problema más temprano que tarde, dado lo fácil que se ha vuelto publicar lo que alguien quiera sin ningún filtro. Con las principales empresas de Internet ignorando en gran medida sus preocupaciones, Ovadya describió la situación como "Coche corriendo fuera de control" que todos simplemente ignoraron.
Si bien sus predicciones ahora han demostrado ser terriblemente precisas, hay más malas noticias para quienes se preocupan por la difuminación de las líneas entre la verdad y la propaganda motivada políticamente. Según él, la inteligencia artificial se utilizará ampliamente durante las próximas dos décadas para campañas de desinformación y propaganda. Para detener ese futuro distópico, Ovadya está trabajando en conjunto con un grupo de investigadores y académicos para ver qué se puede hacer. para prevenir un apocalipsis de la información.
Uno de esos aspectos son los deepfakes o videos generados por IA de celebridades transformados en otros videos, principalmente porno. Reddit prohibió recientemente al menos dos subreddits llamados 'r / deepfakes' y 'r / deepfakesNSFW' que ya tenían miles de miembros y distribuían videos pornográficos falsos de varias celebridades, como Taylor Swift, Meghan Markle y similares. Otras plataformas, como Discord, Gyfcat, Pornhub y Twitter, mientras tanto, también han prohibido el porno de intercambio de caras no consensuado en sus plataformas..
Más allá de la violación de la privacidad individual, Ovadya dice que esos videos podrían tener un efecto desestabilizador en el mundo, si se utilizan para obtener beneficios políticos. Pueden “crear la creencia de que ha ocurrido un evento” para influir en la geopolítica y la economía. Todo lo que necesita es alimentar a la IA con la mayor cantidad posible de imágenes de un político objetivo y transformarlas en otro video que diga cosas potencialmente dañinas..
Sin embargo, la única esperanza es que la gente finalmente esté admitiendo que se equivocó al excluir la amenaza de las noticias falsas hace dos años. Según Ovadya, “Al principio fue realmente desolador, pocos escucharon. Pero los últimos meses han sido realmente prometedores. Algunos de los controles y contrapesos están comenzando a encajar ". Si bien es ciertamente positivo que los tecnólogos estén buscando abordar un problema que se espera que empeore en los próximos años, será interesante ver qué tan bien estarán preparados para la próxima guerra de información cuando finalmente se nos presente el peor de los casos. , dado que, "Muchas de las señales de advertencia ya han ocurrido", según Ovadya.