Microtargeting político y vigilancia social masiva: impactos negativos en las democracias occidentales
Abstract
Este artículo se centra en los peligros para los procesos democráticos de uno de los principales instrumentos de propaganda política, el llamado microtargeting político. Este tipo de microtargeting permite dirigir contenidos específicos, hacia votantes específicos, en momentos específicos y vincularlos directamente con sus características, sesgos y vulnerabilidades individuales. El objetivo de este artículo es exponer el funcionamiento y los diversos tipos de microtargeting político y mostrar las posibles consecuencias nocivas de esta técnica en los procesos democráticos. Para lograr este objetivo, por una parte, se detallará la extracción, explotación y utilización de grandes conjuntos de datos para la creación de diversos tipos de propaganda política personalizada y, por otra parte, se analizarán las diversas propuestas existentes para limitar los efectos negativos que puede causar el microtargeting político y para mejorar el funcionamiento de las democráticas occidentales.
Downloads
Literaturhinweise
Acquisti, A., y Grossklags, J. (2005). Privacy and Rationality in Individual Decision Making. IEEE Security and Privacy, 3(1), 26-33. https://doi.org/10.1109/MSP.2005.22
Armenteras, D., González, T. M., Vergara, L. K., Luque, F. J., Rodríguez, N., y Bonilla, M. A. (2016). A review of the ecosystem concept as a “unit of nature” 80 years after its formulation. Ecosistemas, 25(1), 83-89. https://doi.org/10.7818/ECOS.2016.25-1.12
Bakir, V. (2020). Psychological Operations in Digital Political Campaigns: Assessing Cambridge Analytica’s Psychographic Profiling and Targeting. Frontiers in Communication, 5(67), 1-16. https://doi.org/10.3389/fcomm.2020.00067
Bartlett, J., Smith, J., y Acton, R. (2018). The Future of Political Campaigning. Demos. Recuperado de https://ico.org.uk/media/2259365/the-future-of-political-campaigning.pdf
Bashyakaria, V., Hankey, S., Macintyre, A., Renno, R., y Wright, G. (2019). Personal Data: Political Persuasion Inside the Influence Industry. How it works. Tactical Tech’s Data and Politics. Recuperado de https://cdn.ttc.io/s/tacticaltech.org/Personal-Data-Political-Persuasion-How-it-works.pdf
Bimber, B. (2014). Digital Media in the Obama Campaigns of 2008 and 2012: Adaptation to the Personalized Political Communication Environment. Journal of Information Technology & Politics, 11(2), 130-150. https://doi.org/10.1080/19331681.2014.895691
Cadwaladr, C., y Graham-Harrison, E. (17 de marzo de 2018). Revealed: 50 million Facebook profiles harvested for Cambridge Analytica in major data breach. The Guardian. Recuperado de https://www.theguardian.com/news/2018/mar/17/cambridge-analytica-facebook-influence-us-election
Cadwalladr, C. (14 de mayo de 2017). Follow the data: does a legal document link Brexit campaigns to US billionaire?. The Guardian. Recuperado de https://www.theguardian.com/technology/2017/may/14/robert-mercer-cambridge-analytica-leave-eu-referendum-brexit-campaigns
Calvo, P. (2019). Democracia algorítmica: consideraciones éticas sobre la dataficación de la esfera pública. Revista del Clad. Reforma y Democracia, 74, 5-30.
Calvo, P. (2020). Democracia aumentada. Un ecosistema ciberético para una participación política basada en algoritmos. Ápeiron. Estudios de Filosofía, 12, 129-141.
Calvo, P. (2021). El gobierno ético de los datos masivos. Dilemata, 34, 31-49.
Commission Nationale de l’Informatique et des Libertés. (2022). Use of Google Analytics and data transfers to the United States: the CNIL orders a website manager/operator to comply. Recuperado de https://www.cnil.fr/en/use-google-analytics-and-data-transfers-united-states-cnil-orders-website-manageroperator-comply
D’Ancona, M. (2019). Posverdad: La nueva guerra en torno a la verdad y cómo combatirla. Madrid: Alianza Editorial.
Da Empoli, G. (2020). Los ingenieros del caos. Madrid: Ediciones Anaya.
Dawson, J. (2021). Microtargeting as Information Warfare. The Cyber Defense Review, 6(1), 63-80. https://doi.org/10.2307/26994113
Dawson, J. (2023). Who Controls the Code, Controls the System: Algorithmically Amplified Bullshit, Social Inequality, and the Ubiquitous Surveillance of Everyday Life. Sociological Forum, 1-24. https://doi.org/10.1111/SOCF.12907
Deibert, R. J. (2019). The Road to Digital Unfreedom: Three Painful Truths About Social Media. Journal of Democracy, 30(1), 25-39. https://doi.org/10.1353/JOD.2019.0002
Ebeling, M. F. E. (2022). Afterlives of data : life and debt under capitalist surveillance. Berkeley: University of California Press.
European Data Protection Board. (2022). Italian SA bans use of Google Analytics: no adequate safeguards for data transfers from Caffeina Media S.r.l. to the U.S. Recuperado de https://edpb.europa.eu/news/national-news/2022/italian-sa-bans-use-google-analytics-no-adequate-safeguards-data-transfers_en
Fässler, M. (2023). Google’s Privacy Sandbox Initiative: Old wine in new skins (N.o 2023/01). Recuperado de https://www.zora.uzh.ch/id/eprint/232978/1/Google_s_Privacy_Sandbox.pdf
Fowler, G. A. (6 de septiembre de 2022a). Your kids’ apps are spying on them. The Washington Post. Recuperado de https://www.washingtonpost.com/technology/2022/06/09/apps-kids-privacy/
Fowler, G. A. (12 de octubre de 2022b). Tour Amazon’s dream home, where every appliance is also a spy. The Washington Post. Recuperado de https://www.washingtonpost.com/technology/interactive/2022/amazon-smart-home/
Galli, F. (2021). Algorithmic business and EU law on fair trading. Università di Bologna. Recuperado de http://amsdottorato.unibo.it/9750/1/tesifinale_galli.pdf
Galli, F., Lagioia, F., y Sartor, G. (2022). Consent to Targeted Advertising. European Business Law Review, 33(4), 485-512. https://doi.org/10.54648/EULR2022023
García-Marzá, D., y Calvo, P. (2022). Democracia algorítmica: ¿un nuevo cambio estructural de la opinión pública? Isegoría, (67), e17. https://doi.org/10.3989/ISEGORIA.2022.67.17
García-Marzá, D., y Calvo, P. (2024). Algorithmic democracy: A critical perspective from deliberative democracy. Cham: Springer.
Garcia, D., y Sikström, S. (2014). The dark side of Facebook: Semantic representations of status updates predict the Dark Triad of personality. Personality and Individual Differences, 67, 69-74. https://doi.org/10.1016/j.paid.2013.10.001
Gerber, A. S., Huber, G. A., Doherty, D., y Dowling, C. M. (2011). The Big Five Personality Traits in the Political Arena. Annual Review of Political Science, 14, 265-287. https://doi.org/10.1146/ANNUREV-POLISCI-051010-111659
Gerodimos, R., y Justinussen, J. (2015). Obama’s 2012 Facebook Campaign: Political Communication in the Age of the Like Button. Journal of Information Technology & Politics, 12(2), 113-132. https://doi.org/10.1080/19331681.2014.982266
González Moraga, F. R. (2015). La tríada oscura de la personalidad: maquiavelismo, narcisismo y psicopatía. Revista Criminalidad, 57(2), 253-265. Recuperado de https://dialnet.unirioja.es/servlet/articulo?codigo=5456799
Habermas, J. (2021). Überlegungen und Hypothesen zu einem erneuten Strukturwandel der politischen Öffentlichkeit. En M. Seelinger & S. Sevignani (Eds.), Ein neuer Strukturwandel der Öffentlichkeit? (pp. 470-500). Baden-Baden: Nomos.
Haig, Z., y Hajdu, V. (2017). New Ways in the Cognitive Dimension of Information Operations. Land Forces Academy Review, 22(2), 94-102. https://doi.org/10.1515/raft-2017-0013
Han, B. C. (2021). Psicopolítica: Neoliberalismo y nuevas técnicas de poder. Barcelona: Herder.
Helmus, T. C. (2022). Artificial Intelligence, Deepfakes, and Disinformation. RAND Corporation. https://doi.org/10.7249/PEA1043-1
Hersh, E. D. (2015). Hacking the Electorate: How Campaigns Perceive Voters . Cambridge: Cambridge University Press.
Hoffman, S., y Attrill, N. (2021). Mapping China’s Tech Giants: Supply chains and the global data collection ecosystem (N.o 45/2021). The Australian Strategic Policy Institute. Recuperado de https://ad-aspi.s3.ap-southeast-2.amazonaws.com/2021-06/Supply chains.pdf?VersionId=56J_tt8xYXYvsMuhriQt5dSsr92ADaZH
Howard, P. N. (2020). Lie Machines: How to Save Democracy from Troll Armies, Deceitful Robots, Junk News Operations, and Political Operatives. New Haven: Yale Univeristy Press.
Issenberg, S. (2012). The victory lab: the secret science of winning campaigns. New York: Broadway Books.
Iyer, P., Riedl, M. J., Trauthig, I. K., y Woolley, S. (2021). Location-based targeting: history, usage, and related concerns. University of Texas at Austin. Center for Media Engagement. Recuperado de https://mediaengagement.org/research/location-based-targeting-history-usage-and-related-concerns/
Juárez Ramos, V. (2019). Analyzing the Role of Cognitive Biases in the Decision-Making Process. Hershey: IGI Global.
Kahneman, D. (2011). Thinking, fast and slow. New York: Farrar, Straus & Giroux Inc.
Kaiser, B. (2019). Targeted: My Inside Story of Cambridge Analytica and How Trump, Brexit and Facebook Broke Democracy. London: HarperCollins.
Kosinski, M. (2021). Facial recognition technology can expose political orientation from naturalistic facial images. Scientific Reports, 11(1), 100. https://doi.org/10.1038/s41598-020-79310-1
Kosinski, M., Stillwell, D., y Graepel, T. (2013). Private traits and attributes are predictable from digital records of human behavior. Proceedings of the National Academy of Sciences of the United States of America, 110(15), 5802-5805. https://doi.org/10.1073/pnas.1218772110
Lastra-Anadón, C., y Rubio, D. (2020). European Tech Insights 2020. IE Center for the Governance of Change (CGC). Recuperado de https://docs.ie.edu/cgc/CGC-European-Tech-Insights-2020.pdf
Llaneza, P. (2019). Datanomics: Todos los datos personales que das sin darte cuenta y todo lo que las empresas hacen con ellos. Barcelona: Deusto.
Matz, S. C., Kosinski, M., Nave, G., y Stillwell, D. J. (2017). Psychological targeting as an effective approach to digital mass persuasion. Proceedings of the National Academy of Sciences of the United States of America, 114(48), 12714-12719. https://doi.org/10.1073/PNAS.1710966114/SUPPL_FILE/PNAS.1710966114.SAPP.PDF
Mayer-Schönberger, V., y Cukier, K. (2013). Big data: La revolución de los datos masivos. Madrid: Turner Publicaciones.
Mercier, H., y Sperber, D. (2017). The Enigma of Reason. Cambridge: Harvard University Press.
Millière, R. (2022). Deep learning and synthetic media. Synthese, 200(3), 1-27. https://doi.org/10.1007/S11229-022-03739-2/FIGURES/6
Nave, G., Greenberg, D. M., Kosinski, M., Stillwell, D., y Rentfrow, J. (2018). Musical Preferences Predict Personality: Evidence from Active Listening and Facebook Likes. Pyschological Science, 29(7), 1145-1158. https://doi.org/10.1177/0956797618761659
Nightingale, S. J., y Farid, H. (2022). AI-synthesized faces are indistinguishable from real faces and more trustworthy. Proceedings of the National Academy of Sciences of the United States of America, 119(8), e2120481119. https://doi.org/10.1073/PNAS.2120481119/ASSET/E74865F1-3BC4-4BEC-8325-DEB222AE2CB4/ASSETS/IMAGES/LARGE/PNAS.2120481119FIG04.JPG
Perez Colome, J., y Ayuso, S. (22 de mayo de 2023). Irlanda impone a Meta una multa de 1.200 millones de euros, la mayor sanción europea por infracción de privacidad. El País. Recuperado de https://elpais.com/tecnologia/2023-05-22/irlanda-impone-a-meta-una-multa-de-1200-millones-de-euros-la-mayor-sancion-europea-por-infraccion-de-privacidad.html
Rosenberg, M., Confessore, N., y Cadwaladr, C. (17 de marzo de 2018). How Trump Consultants Exploited the Facebook Data of Millions. The New York Times. Recuperado de https://www.nytimes.com/2018/03/17/us/politics/cambridge-analytica-trump-campaign.html
Sanborn, F. W., y Harris, R. J. (2018). A cognitive psychology of mass communication. New York: Routledge.
Schick, N. (2020). Deep Fakes and the Infocalypse : What You Urgently Need To Know. London: Monorary.
Singer, N. (15 de septiembre de 2022). This Ad’s for You (Not Your Neighbor). The New York Times. Recuperado de https://www.nytimes.com/2022/09/15/business/custom-political-ads.html
Solove, D. J. (2021). The Myth of the Privacy Paradox. George Washington Law Review, 89(1), 1-51. https://doi.org/10.2139/SSRN.3536265
Thompson, S. A., y Warzel, C. (19 de diciembre de 2019). Twelve Million Phones, One Dataset, Zero Privacy. The New York Times. Recuperado de https://www.nytimes.com/interactive/2019/12/19/opinion/location-tracking-cell-phone.html
Turow, J. (2021). The voice catchers : how marketers listen in to exploit your feelings, your privacy, and your wallet. New Haven: Yale University Press.
Woolley, S. (2023). Manufacturing consensus : understanding propaganda in the era of automation and anonymity. New Haven: Yale University Press.
Woolley, S., y Gursky, J. (21 de junio de 2020). The Trump 2020 app is a voter surveillance tool of extraordinary power. MIT Technology Review. Recuperado de https://www.technologyreview.com/2020/06/21/1004228/trumps-data-hungry-invasive-app-is-a-voter-surveillance-tool-of-extraordinary-scope/
Woolley, S., & Howard, P. N. (Eds.). (2018). Computational Propaganda: Political Parties, Politicians, and Political Manipulation on Social Media. Oxford: Oxford University Press.
Wylie, C. (2019). Mindf*ck. Inside Cambridge Analytica’s Plot to Break the World. London: Profile Books.
Youyou, W., Kosinski, M., y Stillwell, D. (2015). Computer-based personality judgments are more accurate than those made by humans. Proceedings of the National Academy of Sciences, 112(4), 1036-1040. https://doi.org/10.1073/PNAS.1418680112
Zakrzewski, C. (4 de julio de 2023). Judge blocks U.S. officials from tech contacts in First Amendment case. The Washington Post. Recuperado de https://www.msn.com/en-us/news/politics/judge-blocks-us-officials-from-tech-contacts-in-first-amendment-case/ar-AA1dq6Cj
Zewe, A. (17 de enero de 2020). Imperiled information: Students find website data leaks pose greater risks than most people realize. Harvard John A. Paulson School of Engineering and Applied Sciences. Recuperado de https://seas.harvard.edu/news/2020/01/imperiled-information
Zuboff, S. (2020). La era del capitalismo de la vigilancia: la lucha por un futuro humano frente a las nuevas fronteras del poder. Barcelona: Paidós.
Copyright (c) 2024 Daimon
Dieses Werk steht unter einer Creative Commons Namensnennung - Nicht-kommerziell - Keine Bearbeitung 3.0 International -Lizenz.
Las obras que se publican en esta revista están sujetas a los siguientes términos:
1. El Servicio de Publicaciones de la Universidad de Murcia (la editorial) conserva los derechos patrimoniales (copyright) de las obras publicadas, y favorece y permite la reutilización de las mismas bajo la licencia de uso indicada en el punto 2.
2. Las obras se publican en la edición electrónica de la revista bajo una licencia Creative Commons Reconocimiento-NoComercial-SinObraDerivada 3.0 España (texto legal). Se pueden copiar, usar, difundir, transmitir y exponer públicamente, siempre que: i) se cite la autoría y la fuente original de su publicación (revista, editorial y URL de la obra); ii) no se usen para fines comerciales; iii) si remezcla, transforma o crea a partir del material, no podrá distribuir el material modificado.
3. Condiciones de auto-archivo. Se permite y se anima a los autores a difundir electrónicamente las versiones pre-print (versión antes de ser evaluada) y/o post-print (versión evaluada y aceptada para su publicación) de sus obras antes de su publicación, ya que favorece su circulación y difusión más temprana y con ello un posible aumento en su citación y alcance entre la comunidad académica. Color RoMEO: verde.