La inteligencia artificial generativa y su impacto en la creación de contenidos mediáticos

Contenido principal del artículo

Jorge Franganillo
https://orcid.org/0000-0003-4128-6546

Resumen

La inteligencia artificial (IA) generativa es un campo en rápido avance que ya permite la producción automatizada de contenido textual, gráfico, sonoro y audiovisual de alta calidad. Esta tecnología tiene implicaciones relevantes para el periodismo, la publicidad y el entretenimiento, así como también plantea desafíos éticos, legales y sociales. Este trabajo examina las posibilidades, las limitaciones y los riesgos de la IA generativa para la producción de contenidos en los medios de comunicación. Se analizan los grandes modelos de lenguaje para la generación automatizada de texto, las redes antagónicas generativas para la síntesis de imágenes y vídeos cortos, y la tecnología deepfake para la falsificación de vídeos y la clonación de voces humanas. Se discuten las implicaciones de estas tecnologías para la propiedad intelectual, la veracidad informativa, la identidad personal y la creatividad humana. Como conclusión puede afirmarse que la IA generativa es una herramienta potente e innovadora para la creación de contenidos mediáticos, pero que requiere un uso ético y cuidadoso por parte de los productores y de los consumidores de contenido.

Descargas

Los datos de descargas todavía no están disponibles.

Detalles del artículo

Cómo citar
Franganillo, J. (2023). La inteligencia artificial generativa y su impacto en la creación de contenidos mediáticos. methaodos.Revista De Ciencias Sociales, 11(2), m231102a10. https://doi.org/10.17502/mrcs.v11i2.710
Sección
Artículos
Biografía del autor/a

Jorge Franganillo, Universitat de Barcelona

Doctor en Información y Comunicación (Universidad de Barcelona, UB). Ejerce como profesor en la Facultad de Información y Medios Audiovisuales de la UB y ha impartido docencia en universidades de Alemania, Croacia y República Checa. Es miembro del Centro de Investigación en Información, Comunicación y Cultura (CRICC), donde centra sus principales líneas de investigación en la comunicación digital, la documentación audiovisual, la inteligencia artificial generativa y los fenómenos de desinformación. Ha publicado dos libros y numerosos artículos académicos, y colabora como divulgador en la prensa, donde insiste en remarcar la dimensión humana de la tecnología.

Funding data

Citas

Ajder, H. (2020). Deepfake threat intelligence: a statistics snapshot from June 2020. Sensity.

Ajder, H., Patrini, G., Cavalli, F., & Cullen, L. (2019). The state of deepfakes: landscape, threats, and impact. DeepTrace. https://is.gd/LK0X5N

Ayuso, S., y Pascual, M. G. (2023, 11 de mayo). Europa quiere poner más obligaciones a la inteligencia artificial generativa como la de ChatGPT. El País. https://is.gd/lQNRia

Barandy, K. (2022, 10 de agosto). Will artists be replaced by artificial intelligence? Designboom. https://is.gd/NZqVHX

Bender, E. M. (2022, 14 de junio). Human-like programs abuse our empathy: even Google engineers aren’t immune. The Guardian. https://is.gd/rAUdbF

Bhargava, C., y Sharma, P.K. (Eds.) (2022). Artificial intelligence: fundamentals and applications. CRC Press.

Boden, M. A. (2018). Artificial intelligence: a very short introduction. Oxford University Press.

Botha, J., y Pieterse, H. (2020). Fake news and deepfakes: a dangerous threat for 21st century information security. 15th International Conference on Cyber Warfare and Security: ICCWS 2020, 57-66.

Boucher, P. (2020). Artificial intelligence: how does it work, why does it matter, and what can we do about it? Servicio de Estudios del Parlamento Europeo. https://doi.org/10.2861/44572

Broderick, R. (2023, 31 de mayo). AI can’t replace humans yet: but if the WGA writers don’t win, it might not matter. Polygon. https://is.gd/PT9hSr

Campesato, O. (2020). Artificial intelligence, machine learning and deep learning. Mercury Learning and Information.

Castillo, C. (2023, 3 de mayo). Los creadores del canon AEDE quieren una “tasa ChatGPT” para la inteligencia artificial. elDiario.es. https://eldiario.es/1_9b351c

Dean, I. (2022, 11 de agosto). You can now sell your DALL·E 2 art, but it feels murky. Creative bloq. https://is.gd/ov3In5

Dale, R. (2022). The voice synthesis business: 2022 update. Natural language engineering, 28(3), 40-408. https://doi.org/10.1017/S1351324922000146

Davenport, T. H., y Mittal, N. (2022, 14 de noviembre). How generative AI is changing creative work. Harvard Business Review. https://is.gd/by7hQt

Giannini, S. (2023). Generative AI and the future of education. UNESCO. https://is.gd/CbhGO5

Giansiracusa, N. (2021). How algorithms create and prevent fake news: exploring the impacts of social media, deepfakes, GPT-3 and more. Apress. https://doi.org/10.1007/978-1-4842-7155-1

Greenhouse, (2023, 8 de febrero). US experts warn AI likely to kill off jobs and widen wealth inequality. The Guardian. https://is.gd/n38xQn

Hao, K. (2021, 3 de febrero). Internet está tan sesgado que, para la IA, las mujeres solo llevan bikini. MIT Technology Review. https://is.gd/kSOd56

Hatzius, J., Briggs, J., Kodnani, D., y Pierdomenico, G. (2023, 26 de marzo). The potentially large effects of artificial intelligence on economic growth. Goldman Sachs.

Higgins, E. (2023, 20 de marzo). Making pictures of Trump getting arrested while waiting for Trump's arrest. Twitter. https://is.gd/oiAwPp

Kreps, S., McCain, R. M., y Brundage, M. (2022). All the news that’s fit to fabricate: AI-generated text as a tool of media misinformation. Journal of Experimental Political Science, 9(1), 104-117. https://doi.org/10.1017/xps.2020.37

Longoni, C., Fradkin, A., Cian, L., y Pennycook, G. (2022, junio). News from generative artificial intelligence is believed less. 2022 ACM Conference on Fairness, Accountability, and Transparency, 97-106. https://doi.org/10.1145/3531146.3533077

López Delacruz, S. (2023). Un vínculo paradójico: narrativas audiovisuales generadas por inteligencia artificial, entre el pastiche y la cancelación del futuro. Hipertext.net, 26, 31-35, https://doi.org/10.31009/hipertext.net.2023.i26.05

Lyons, B. A., Montgomery, J. M., Guess, A. M., Nyhan, B., y Reifler, J. (2021). Overconfidence in news judgments is associated with false news susceptibility. PNAS, 118(23), e2019527118. https://doi.org/10.1073/pnas.2019527118

Metz, C. (2022, 5 de agosto). AI is not sentient: why do people say it is? The New York Times. https://is.gd/gBlLu2

Navigli, R., Conia, S., y Ross, B. (2023). Biases in large language models: origins, inventory and discussion. Journal of Data and Information Quality, 15(2). https://doi.org/10.1145/3597307

Nightingale, S. J., y Farid, H. (2022). AI-synthesized faces are indistinguishable from real faces and more trustworthy. PNAS, 119(8), e2120481119. https://doi.org/10.1073/pnas.2120481119

Newsguard (2023). Reports about online misinformation and disinformation from NewsGuard’s analysts. https://newsguardtech.com/reports

OpenAI (2020, 8 de septiembre). A robot wrote this entire article: are you scared yet, human? The Guardian. https://is.gd/CLk6NQ

Osmanovic-Thunström, A. (2022, 30 de junio). We asked GPT-3 to write an academic paper about itself, then we tried to get it published. Scientific American. https://is.gd/OnGPRf

Ousidhoum, N., Zhao, X., Fang, T., Song, Y., y Yeung, D. Y. (2021). Probing toxic content in large pre-trained language models. Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing, 1, https://doi.org/10.18653/v1/2021.acl-long.329

Pérez Colomé, J. (2023, 11 de abril). Los actores de voz se unen al ver peligrar su trabajo por la inteligencia artificial. El País. https://is.gd/UzwnED

PwC (2018). Will robots really steal our jobs? An international analysis of the potential long-term impact of automation. https://is.gd/ApKuPI

Sánchez-García, P., Merayo-Álvarez, N., Calvo-Barbero, C., y Díez-Gracia, A. (2023). Desarrollo tecnológico español de la inteligencia artificial aplicada al periodismo: empresas y herramientas de documentación, producción y distribución de información. Profesional de la información, 32(2), e320208. https://doi.org/10.3145/epi.2023.mar.08

Schomer, A. (2023, 6 de julio). Entertainment industry has high anxiety about generative AI: survey. Variety. https://is.gd/yTnheu

Solà, P. (2021, 27 de enero). El síndrome de Lupin y la falta de originalidad de Netflix. La Vanguardia. https://is.gd/rpt5hZ

Steed, R., y Caliskan, A. (2021). Image representations learned with unsupervised pre-training contain human-like biases. FAccT '21: Proceedings of the 2021 ACM Conference on Fairness, Accountability and Transparency, 701-713. https://doi.org/10.1145/3442188.3445932

Sweney, M. (2023, 7 de marzo). Mirror and Express owner publishes first articles written using AI. The Guardian. https://is.gd/osI6u2

Warzel, C. (2022, 17 de agosto). I went viral in the bad way. The Atlantic. https://is.gd/4muxwS

Yu, N., Skripniuk, V., Abdelnabi, S., y Fritz, M. (2021). Artificial fingerprinting for generative models: rooting deepfake attribution in training data. Proceedings of the IEEE/CVF International conference on computer vision, 14.448-14.457. https://doi.org/10.1109/iccv48922.2021.01418