El docente de la Facultad de Ciencias Políticas y Sociales de la Universidad Autónoma del Estado de México, Ángel Álvarez Solleiro, hizo un llamado a la ciudadanía para tener cuidado con los contenidos que sean generado por Inteligencia Artificial (IA) durante las campañas electorales federales que están en curso, así como, por los comicios locales que comenzarán el próximo 26 de abril, ya que dicha información deriva en desinformación.
“Seguramente veremos cómo en cada proceso electoral, una gran carga de información sobre las noticias falsas, las denominadas fake news, y que muchas de estas son creadas a partir de inteligencia artificial, donde se crean imágenes, videos, audios con declaraciones de algún candidato, candidata, simulando su tono de voz o apariencia física”, dijo.
En entrevista, el también especialista en seguridad de la información y redes sociales por el Instituto Tecnológico de Massachusetts, describió que estos contenidos son parte de una “guerra mediática”, por lo que a la ciudadanía le tocará verificar esta información para no caer en ella.
“Hay muchas plataformas informativas, que precisamente se dedican a verificar estos datos, y ayudarnos como ciudadanía a decirnos si son cierto o no son falsos”, dijo.
Agregó que por las herramientas de la Inteligencia Artificial, es muy fácil crear contenido engañoso, dado a que con las apps en esta materia, con agregar una foto, video o audio de una personas, se puede generar contenido falso, pero con estas mismas vías se puede verificar su autenticidad.
“Las más grandes que te digo, Google y Microsoft, te permiten una búsqueda tanto de audios como de imágenes y decirte si eso ya aparece en un lugar. Por ejemplo, yo vi el video de una candidata, y lo pongo en el buscador y me señala si ya había sido tomado o de donde es su origen”, dijo.
Por lo que recalcó diciendo que estas mismas herramientas dan orientación de si el video ya estuvo tomado desde otro sitio y consideró que en este año estas vías son más prácticas porque antes tenían un enfoque más técnico.