VÍDEOS FALSOS Y DESINFORMACIÓN ANTE LA IA: EL DEEPFAKE COMO VEHÍCULO DE LA POSVERDAD
Contenido principal del artículo
Resumen
Introducción: El uso de la Inteligencia Artificial en la generación de contenido y narraciones audiovisuales si bien representa una oportunidad en muchos campos como el artístico o en la creación visual y gráfica, también se convierte en un potente instrumento para generar relatos y representaciones falsos. Metodología: Se aplica la Revisión Sistemática Exploratoria (RSE), aportando referencias que radiografíen con evidencias empíricas la imagen de la posverdad. Resultados: Se aporta una revisión crítica de los últimos estudios y tendencias en la creación de imagen mediante inteligencia artificial relacionadas con la desinformación. Ésta forma parte del ecosistema audiovisual contemporáneo amenazando la confianza de la ciudadanía en el entorno mediático, social o institucional. Discusión: Los usuarios, a través de las redes sociales, generan imágenes falsas o distorsionadas, que una vez viralizadas son nuevamente reinterpretadas por otros usuarios. Los vídeos falsos pueden arruinar tanto la reputación del individuo como la confianza en los actores sociales. Estos efectos podrían estar moderados por la alfabetización visual y digital. Conclusiones: El aprendizaje profundo de las redes neuronales artificiales genera nuevas formas de deepfake, desconcertantes por su realismo y verosimilitud, y que empiezan a suponer un cuestionamiento hacia los medios de comunicación, deslegitimando la representación de la realidad y la información veraz como base de una sociedad democrática.
Descargas
Detalles del artículo
Esta obra está bajo una licencia internacional Creative Commons Atribución-NoComercial 4.0.
- Compartir — copiar y redistribuir el material en cualquier medio o formato
- Adaptar — remezclar, transformar y crear a partir del material
Bajo las condiciones siguientes:
-
Reconocimiento — Debe reconocer adecuadamente la autoría, proporcionar un enlace a la licencia e indicar si se han realizado cambios<. Puede hacerlo de cualquier manera razonable, pero no de una manera que sugiera que tiene el apoyo del licenciador o lo recibe por el uso que hace.
-
NoComercial — No puede utilizar el material para una finalidad comercial.
Citas
Booth, A., Papaioannou, D. y Sutton, A. (2012). Systematic approaches to a successful literature review. Sage.
Chesney, R. y Citron, D. K. (2018). Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security. SSRN Electronic Journal. https://doi.org/10.2139/ssrn.3213954 DOI: https://doi.org/10.2139/ssrn.3213954
Cole, S. (2017). AI-assisted fake porn is here and we’re all fucked. Motherboard. VICE. https://motherboard.vice.com/en_us/article/gydydm/gal-gadot-fake-ai-porn
Comolli, J. L. (2010). Cine contra espectáculo seguido de Técnica e ideología: 1971-1972. Manantial.
Cover, R. (2022). Deepfake culture: The emergence of audio-video deception as an object of social anxiety and regulation. Continuum, 36(4), 609-621. https://doi.org/10.1080/10304312.2022.2084039 DOI: https://doi.org/10.1080/10304312.2022.2084039
Dan, V., Paris, B., Donovan, J., Hameleers, M., Roozenbeek, J., Van Der Linden, S. y Von Sikorski, C. (2021). Visual Mis- and Disinformation, Social Media, and Democracy. Journalism & Mass Communication Quarterly, 98(3), 641-664. https://doi.org/10.1177/10776990211035395 DOI: https://doi.org/10.1177/10776990211035395
Debord, G. (1967). The society of the spectacle. Zone Books.
Dowling, M. E. (2021). Democracy under siege: Foreign interference in a digital era. En Australian Journal of International Affairs, 75(4). Australian Institute of International Affairs (pp. 383-387). https://doi.org/10.1080/10357718.2021.1909534 DOI: https://doi.org/10.1080/10357718.2021.1909534
European Parliament (2023). MEPs ready to negotiate first-ever rules for safe and transparent AI. European Parliament. https://acortar.link/a9Os2l
Ferraris, M. (2019). Posverdad y otros enigmas. Alianza.
Fontcuberta, J. (2017). La furia de las imágenes. Notas sobre la postfotografía. Galaxia Gutenberg.
Gamir-Ríos, J. y Tarullo, R. (2022). Predominio de las cheapfakes en redes sociales. Complejidad técnica y funciones textuales de la desinformación desmentida en Argentina durante 2020. AdComunica, 23, 97-118. https://doi.org/10.6035/adcomunica.6299 DOI: https://doi.org/10.6035/adcomunica.6299
Hameleers, M., Powell, T. E., Van Der Meer, T. G. L. A. y Bos, L. (2020). A Picture Paints a Thousand Lies? The Effects and Mechanisms of Multimodal Disinformation and Rebuttals Disseminated via Social Media. Political Communication, 37(2), 281-301. https://doi.org/10.1080/10584609.2019.1674979 DOI: https://doi.org/10.1080/10584609.2019.1674979
Intel (2022). Intel Introduces Real-Time Deepfake Detector. https://acortar.link/6RKmBp DOI: https://doi.org/10.12968/S0969-4765(22)70620-0
Krizhevsky, A., Sutskever, I. y Hinton, G.E. (2012). Imagenet classification with deep convolutional neural networks. En F. Pereira, C.J.C. Burges, L. Botton y K.Q. Weinberger (Eds.), Advances in neural information processing systems, 25 (pp. 1097–1105). Currant Associates, Inc. https://acortar.link/jGDz7g
Langguth, J., Pogorelov, K., Brenner, S., Filkuková, P. y Schroeder, D. T. (2021). Don’t Trust Your Eyes: Image Manipulation in the Age of DeepFakes. Frontiers in Communication, 6, 632317. https://doi.org/10.3389/fcomm.2021.632317 DOI: https://doi.org/10.3389/fcomm.2021.632317
Lewandowsky, S., Cook, J. y Ecker, U. K. (2017). Letting the gorilla emerge from the mist: Getting past post-truth. Journal of Applied Research in Memory and Cognition, 6(4), 418-424. https://doi.org/10.1016/j.jarmac.2017.11.002 DOI: https://doi.org/10.1016/j.jarmac.2017.11.002
Lilleker, D. G. y Liefbroer, M. (2018). ‘Searching for something to believe in’: Voter uncertainty in a post-truth environment. International Journal of Media & Cultural Politics, 14(3), 351-366. https://doi.org/10.1386/macp.14.3.351_1 DOI: https://doi.org/10.1386/macp.14.3.351_1
Lynch, M. P. (2016). The Internet of Us: Knowing More and Understanding Less in the Age of Big Data. W. W. Norton & Company.
Marzal-Felici, J. (2021). Proposals for the study of images in the post-truth era. El Profesional de la Información, 30(2). https://doi.org/10.3145/epi.2021.mar.01 DOI: https://doi.org/10.3145/epi.2021.mar.01
McDermott, R. (2019). Psychological underpinnings of post-truth in political beliefs. PS: Political Science & Politics, 52(2), 218-222. https://doi.org/10.1017/S104909651800207X DOI: https://doi.org/10.1017/S104909651800207X
Munn, Z., Peters, M. D. J., Stern, C., Tufanaru, C., McArthur, A. y Aromataris, E. (2018). Systematic review or scoping review? Guidance for authors when choosing between a systematic or scoping review approach. BMC Medical Research Methodology, 18. https://doi.org/10.1186/s12874-018-0611-x DOI: https://doi.org/10.1186/s12874-018-0611-x
Nelson, A. y Lewis, J. A. (2019). Trust your eyes? Deepfakes policy brief. Center for Strategic and International Studies.
Neuman, N., Fletcher, R., Eddy, K., Robertson, C. T. y Nielsen, R. K. (2023). Reuters Institute Digital News Report 2023. Reuters Institute for the Study of Journalism. https://reutersinstitute.politics.ox.ac.uk/digital-news-report/2023
Neuman, N., Fletcher, R., Schulz, A., Andı, S. y Nielsen, R. K. (2020). Reuters Institute Digital News Report 2020. Reuters Institute for the Study of Journalism. https://acortar.link/p4gn2f
Pérez Dasilva, J., Meso Ayerdi, K. y Mendiguren Galdospin, T. (2021). Deepfakes on Twitter: Which Actors Control Their Spread? Media and Communication, 9(1), 301-312. https://doi.org/10.17645/mac.v9i1.3433 DOI: https://doi.org/10.17645/mac.v9i1.3433
Prozorov, S. (2019). Why is there truth? Foucault in the age of post-truth politics. Constellations, 26, 18-30. https://doi.org/10.1111/1467-8675.12396 DOI: https://doi.org/10.1111/1467-8675.12396
Qian, S., Shen, C. y Zhang, J. (2022). Fighting cheapfakes: Using a digital media literacy intervention to motivate reverse search of out-of-context visual misinformation. Journal of Computer-Mediated Communication, 28(1), zmac024. https://doi.org/10.1093/jcmc/zmac024 DOI: https://doi.org/10.1093/jcmc/zmac024
Shahid, F., Kamath, S., Sidotam, A., Jiang, V., Batino, A. y Vashistha, A. (2022). “It Matches My Worldview”: Examining Perceptions and Attitudes Around Fake Videos. En Proceedings of the 2022 CHI Conference on Human Factors in Computing Systems (pp. 1-15) Association for Computing Machinery. https://doi.org/10.1145/3491102.3517646 DOI: https://doi.org/10.1145/3491102.3517646
Shin, S. Y. y Lee, J. (2022). The Effect of Deepfake Video on News Credibility and Corrective Influence of Cost-Based Knowledge about Deepfakes. Digital Journalism, 10(3), 412-432. https://doi.org/10.1080/21670811.2022.2026797 DOI: https://doi.org/10.1080/21670811.2022.2026797
Sontag, S. (1981). Sobre la fotografía. Edhasa.
Vaccari, C. y Chadwick, A. (2020). Deepfakes and Disinformation: Exploring the Impact of Synthetic Political Video on Deception, Uncertainty, and Trust in News. Social Media + Society, 6(1). https://doi.org/10.1177/2056305120903408 DOI: https://doi.org/10.1177/2056305120903408
Wardle, C. y Derakhshan, H. (2017). Information Disorder. Toward an interdisciplinary framework for research and policy making (DGI [2017] 09). Council of Europe report. https://acortar.link/2sjVWZ
Weeks, Brian E. y Garrett, R. K. (2014). Electoral Consequences of Political Rumors: Motivated Reasoning, Candidate Rumors, and Vote Choice during the 2008 U.S. Presidential Election. En: International Journal of Public Opinion Research, 26(4). Oxford University Press (pp. 401–422). https://doi.org/10.1093/IJPOR/EDU005 DOI: https://doi.org/10.1093/ijpor/edu005
Yadlin-Segal, A. y Oppenheim, Y. (2021). Whose dystopia is it anyway? Deepfakes and social media regulation. Convergence, 27(1), 36-51. https://doi.org/10.1177/1354856520923963 DOI: https://doi.org/10.1177/1354856520923963
Artículo relacionados
Anton-Bravo, A. y Serrano Tellería, A. (2021). Innovación en la docencia del periodismo a través de la ciencia de datos. European Public & Social Innovation Review, 6(1), 70-84. https://pub.sinnergiak.org/esir/article/view/150 DOI: https://doi.org/10.31637/epsir.21-1.6
Encinillas García, M. y Martín Sabarís, R. (2023). Desinformación y Salud en la era PRECOVID: Una revisión sistemática. Revista de Comunicación y Salud, 13, 1-15. https://doi.org/10.35669/rcys.2023.13.e312 DOI: https://doi.org/10.35669/rcys.2023.13.e312
Fernández Fernández, M. (2021). Informaciones, crónicas y relaciones del siglo XVI como antecedentes de las fake news. El caso de la "invención” de San Segundo. Historia y Comunicación Social, 26(2), 593-601. https://doi.org/10.5209/hics.68530 DOI: https://doi.org/10.5209/hics.68530
Toro González, S. y Pérez-Curiel, C. (2021). Populismo político en tiempos de COVID. Análisis de la estrategia de comunicación de Donald Trump y Boris Johnson en Twitter. Revista de Comunicación de la SEECI, 54, 1-24. https://doi.org/10.15198/seeci.2021.54.e700 DOI: https://doi.org/10.15198/seeci.2021.54.e700
Zúñiga, F., Mora Poveda, D. A. y Molina Mora, D. P. (2023). La importancia de la inteligencia artificial en las comunicaciones en los procesos marketing. Vivat Academia, 156, 19-39. https://doi.org/10.15178/va.2023.156.e1474 DOI: https://doi.org/10.15178/va.2023.156.e1474