Daimon. Revista Internacional de Filosofía, nº 90 (2023), pp. 131-145

ISSN: 1130-0507 (papel) y 1989-4651 (electrónico) http://dx.doi.org/10.6018/daimon.557391

Licencia Creative Commons Reconocimiento-NoComercial-SinObraDerivada 3.0 España (texto legal): se pueden copiar, usar, difundir, transmitir y exponer públicamente, siempre que: i) se cite la autoría y la fuente original de su publicación (revista, editorial y URL de la obra); ii) no se usen para fines comerciales; iii) se mencione la existencia y especificaciones de esta licencia de uso (CC BY-NC-ND 3.0 ES)

Exigencias éticas para un periodismo responsable en el contexto de la inteligencia artificial*

Ethical demands for responsable journalism in the context of artificial inteligence

ELSA GONZÁLEZ-ESTEBAN**

ROSANA SANAHUJA-SANAHUJA***

Resumen. La irrupción de la utilización generalizada de inteligencia artificial en el ámbito de la comunicación y en concreto en el periodismo muestra un resultado claroscuro que cabe analizar desde una perspectiva crítica. Este artículo aborda desde un perspectiva crítica la revolución que la presencia creciente de la inteligencia artificial está provocando tanto los métodos como en los resultados periodísticos, afectando a sus garantías de calidad y excelencia. El texto sostiene que es necesario acercarse críticamente al impacto actual, así como al potencial, que este presenta para los profesionales, las organizaciones y la sociedad, y propone hacerlo desde el método hermenéutico-crítico de las éticas aplicadas. El estudio se estructura en dos partes. Una primera que realiza una aproximación a la irrupción de la inteligencia artificial en la práctica del periodismo, explicitando las recomendaciones que desde diferentes instancias se ofrecen para orientar esta incorporación de la inteligencia artificial en la práctica comunicativa, concretamente en la periodística. Una segunda parte que identifica los principales riesgos éticos, recomendaciones y principios éticos para afrontarlos desde la autorregulación ética.

Palabras clave: Ética, Inteligencia artificial, Periodismo, Riesgos éticos, Autorregulación.

Abstract. The irruption of the widespread use of artificial intelligence in the field of communication and specifically in journalism shows a chiaroscuro result that should be analyzed from a critical perspective. The paper takes a critical look at the revolution that the growing presence of artificial intelligence is causing in journalistic methods and results, affecting its guarantees of quality and excellence. The text argues that it is necessary to critically approach the current impact, as well as the potential, that this presents for professionals, organizations and society, and proposes to do so from the hermeneutic-critical method of applied ethics. The study is structured in two parts. The first part takes an approach to the irruption of artificial intelligence in the practice of journalism, explaining the recommendations offered by different bodies to guide the incorporation of artificial intelligence in the practice of communication, specifically in journalism. The second part identifies the main ethical risks, recommendations and ethical principles for dealing with them through ethical self-regulation.

Keywords: Ethics, Artificial intelligence, Journalism, Ethical risks, Self-regulation.


Recibido: 14/02/2023. Aceptado: 04/06/2023.

* Este estudio se inserta en el Proyecto de Investigación Científica y Desarrollo “Ética aplicada y confiabilidad para una Inteligencia Artificial” PID2019-109078RB-C21 financiado por MCIN/ AEI /10.13039/501100011033,  y en las actividades del grupo de investigación de excelencia PROMETEO CIPROM/2021/072, financiado por Conselleria d’Innovació, Universitats, Ciència i Societat Digital de la Generalitat Valenciana. Queremos agradecer a colegas del grupo de investigación de Éticas Aplicadas y Democracia de la Universidad de Valencia y de Ética Práctica y Democracia de la Universitat Jaume I la discusión del texto así como sus recomendaciones. Así mismo a los/las dos revisores por sus aportaciones que han enriquecido el texto.

** Profesora titular de Filosofía Moral (ética) en el Departamento de Filosofía y Sociología de la Universitat Jaume I. Su labor investigadora se centra en el campo de la ética aplicada y los sistemas de gobernanza y gestión ética en las organizaciones. Ha publicado recientemente “Investigación e innovación en inteligencia artificial: responsabilidad y confianza” en la obra colectiva que coedita junto a Juan Carlos Siurana, Inteligencia Artificial. Concepto, alcance, retos (Tirant lo Blanch, 2023) y el capítulo “The ETHNA System and Support Tools” en el libro en abierto Ethics and Responsible Research and Innovation in Practice (Springer, 2023) del que es coeditora junto a Ramón Feenstra y Luis Camarinha-Matos. Contacto: esteban@uji.es

*** Profesora ayudante doctora en el Departamento de Ciencias de la Comunicación de la Universitat Jaume I. Entre sus líneas de investigación se encuentran tendencias de innovación en periodismo, inteligencia artificial, éticas de la comunicación y comunicación de la ciencia. Ha publicado recientemente: “Ética y uso periodístico de la inteligencia artificial. Los medios públicos y las plataformas de verificación como precursores de la rendición de cuentas en España” (Estudios sobre el mensaje periodistico. Num. 4. Vol. 28. pp. 959-970. 2022) y “Ámbitos de aplicación periodística de la Inteligencia Artificial. Mapa conceptual, funciones profesionales y tendencias en desarrollo en el contexto de la pandemia global de la Covid-19” (Razón y palabra. Num. 112. Vol. 25. pp. 432-449. 2022). Contacto: rosana.sanahuja@uji.es

1. Una mirada crítica a la irrupción de la inteligencia artificial en el periodismo

La irrupción de la utilización generalizada de inteligencia artificial en el ámbito de la comunicación y en concreto en el periodismo muestra un resultado claroscuro que cabe analizar desde una perspectiva crítica. Su presencia y utilización creciente en la actividad periodística está revolucionando la velocidad y los métodos en las redacciones y comprometiendo las garantías de la calidad o excelencia del periodismo. Es necesario acercarse críticamente al impacto actual, así como al potencial, que esta realidad presenta para los profesionales, las organizaciones y la sociedad.

Este trabajo pretende realizar tal tarea utilizando el método hermenéutico-crítico propuesto desde las filas de la ética aplicada discursiva por Cortina (1996) y que ha sido empleado con éxito en otros ámbitos como el empresarial, el económico, el sanitario, el educativo, el desarrollo de los pueblos y el comunicativo, entre otros (García-Marzá et al., 2018; González-Esteban et al., 2019).

La hermenéutica-crítica busca explicitar la intersubjetividad ética que se encuentra en toda actividad humana. Se fundamenta en el principio ético discursivo que salvaguarda los conceptos de persona e igualdad a la hora de desentrañar qué es lo que consideramos como correcto o justo en las actividades humanas. Tomando este punto de partida crítico, Cortina argumenta que la tarea de la ética aplicada no le corresponde a los parlamentos sino a los afectados por la actividad. Atañe por tanto a esos interlocutores válidos que deben ser reconocidos por igual valía y en condiciones lo más cercanas a la simetría para que participen en aquellos diálogos y configuración de discursos en los que se tratan aquellos temas, o se discute sobre normas, que le afectan o le pueden afectar. Diálogos que tengan como objeto dilucidar qué es lo que se tiene por justo o correcto, en dicha actividad, porque humaniza (Cortina, 1996, 2007). En nuestro caso queremos centrar la mirada sobre la actividad comunicativa en el periodismo y de qué modo su legitimidad y excelencia se ven, o pueden ver, alteradas por la utilización de la inteligencia artificial. El objetivo último es conocer críticamente la situación que está viviendo el periodismo en el contexto de la inteligencia artificial desde la perspectiva ético-discursiva.

El periodismo como actividad comunicativa cobra legitimidad socialmente por colaborar a formar una opinión crítica madura, la meta de su actividad. Y, cuenta con una serie de virtudes y valores asociados a esa meta que generan un hábito y un carácter concreto en la práctica periodística que requieren ser cultivados por la profesión y las organizaciones. Los códigos deontológicos y profesionales de la actividad periodísticas reflejan tanto la meta como los valores y virtudes que se consideran intersubjetivamente necesarios encarnar y exigir de un periodismo que atiende a la conciencia moral cívica que ha alcanzado la sociedad en la que se desarrolla (Bilbeny, 2012; Conill et al., 2004; Meyers, 2010). En líneas generales los valores y virtudes asociadas a la práctica periodística están ligados a la veracidad, la búsqueda de la objetividad (entendida como intersubjetividad), la responsabilidad, la libertad de opinión y crítica y al respeto a la intimidad, integridad y dignidad de las personas, entre otros.

Tanto la meta como algunos de los valores y virtudes mencionados se encuentran en la actualidad en entredicho ante el uso cuestionable que se está realizando de la inteligencia artificial en la práctica periodística. Por ese motivo, se hace necesario, a nuestro juicio, en primer lugar, comprender de qué modo se está utilizando y para qué la inteligencia artificial en el ámbito y la práctica del periodismo. En segundo lugar, siguiendo el método hermenéutico-crítico, es preciso explicitar los riesgos éticos a los que está sometida la actividad periodística y que pueden hacerla caer en el descrédito y la falta de legitimidad social. En tercer lugar, se deben conocer y analizar las recomendaciones que desde diferentes instancias se están proponiendo para orientar esta incorporación de la inteligencia artificial en la práctica comunicativa y concretamente en la periodística, de modo que se consideren las expectativas sociales y las exigencias éticas. Y, finalmente, cabe sacar a la luz y profundizar en los principios éticos que se están proponiendo para orientar éticamente su autorregulación. Principios éticos que son la expresión de las exigencias éticas que la sociedad esgrime para hacer valer y respetar el contrato moral (García-Marzá, 2004) que posee con respecto al bien social que provee el periodismo: la información contrastada y de calidad en sociedades democráticas, de modo que se colabore en formar una opinión pública madura.

2. Presencia creciente de la inteligencia artificial en el periodismo

Periodismo robot, periodismo algorítmico, periodismo computacional, periodismo automatizado y periodismo artificial son algunos de los nombres que se ha venido dando al uso de la inteligencia artificial en el ámbito periodístico. Estas y otras denominaciones se han utilizado para hacer referencia al proceso informativo apoyado de una u otra forma por esta tecnología (L.-M. Calvo-Rubio y Ufarte-Ruiz, 2021; Túñez-López et al., 2021; Ufarte Ruiz y Manfredi Sánchez, 2019). Aún a falta de un consenso conceptual, lo que resulta evidente es que la inteligencia artificial, incluida por Salaverría (2015) en un conjunto más amplio de altas tecnologías ligadas al periodismo hi-tech, es una realidad ya consolidada en las redacciones españolas. A mediados de la segunda década del siglo xxi empezaron a surgir en España las consideradas como iniciativas pioneras en el uso de la inteligencia artificial como el bot Politibot creado en Telegram para cubrir las elecciones españolas de 2016, el bot puesto en marcha por El País en Facebook Messenger para informar sobre las elecciones presidenciales de Francia en 2017; el proyecto Medusa del grupo Vocento de generación automatizada de contenidos sobre la situación de playas y estaciones de esquí o el bot de El Confidencial AnaFut para la cobertura de los partidos de la Segunda División B (Ufarte Ruiz y Manfredi Sánchez, 2019). Apenas un lustro después, el uso de la inteligencia artificial en el periodismo ha dado un giro radical integrándose ya de forma habitual en la mayor parte de las redacciones. Un buen ejemplo de este crecimiento exponencial es la startup española Narrativa que en 2015 creaba el software Gabriel de procesamiento de lenguaje natural destinado, entre otros usos, a la redacción de piezas periodísticas. Narrativa es actualmente una empresa consolidada como referente a nivel internacional que utiliza herramientas de extracción y análisis de datos y de procesamiento y generación de lenguaje natural para la creación de contenido inteligente, automatización de informes y optimización de procesos en todo tipo de sectores. Entre sus últimas acciones en el campo del periodismo se encuentra el Proyecto de Seguimiento covid-191, impulsado con la colaboración de Radio Televisión Española, que desde el principio de la pandemia ha generado textos en español, inglés e italiano a partir de datos actualizados facilitados por múltiples fuentes oficiales.

El uso de la inteligencia artificial en el ámbito de la comunicación se ha «convertido rápidamente en una parte fundamental de las operaciones modernas a todo nivel» (Newman, 2022). Según el informe de tendencias del Instituto Reuters para 2022, más de un 80% de los directivos y responsables de empresas de la comunicación considera que ya en este año la inteligencia artificial va a ser clave para la personalización y las recomendaciones de contenidos, así como para la automatización de los flujos de trabajo en las redacciones, por ejemplo, el etiquetado de contenidos y la transcripción de entrevistas. Alrededor de un 70% le atribuyen un papel clave para la búsqueda previa de información y un 40% para la redacción automática de artículos. Estos datos coinciden con las tendencias detectadas en el uso actual de la inteligencia artificial por parte de los medios de comunicación en Cataluña, donde un 76,2% de los medios analizados por Ventura (2021) afirma utilizar ya inteligencia artificial u otros sistemas algorítmicos en sus procesos informativos. De ellos, el 88,2% lo emplean en la selección de contenidos, la detección de tendencias o la elección del ángulo y alrededor de la mitad lo aplican a la recopilación de información y la creación y distribución de contenido.

Las razones de este auge se deben a la posibilidad de agilizar, simplificar y hacer más eficaces los procesos de producción que supone la inteligencia artificial para el periodismo (López-García y Vizoso, 2021). Así, la profesión periodística atribuye interesantes oportunidades al uso de estas tecnologías, como el potencial del procesamiento de datos para conocer a las audiencias y adaptar el producto, la eficiencia en la gestión de procesos internos o el apoyo en las búsquedas y la generación automatizada de contenidos (Ventura, 2021). Otras de las razones argumentadas para su uso son la búsqueda de mayor precisión, el aumento en la producción, la objetividad, la capacidad de agregar contenidos web, la personalización de informaciones, la identificación de eventos de interés periodístico para su posterior difusión y la lucha contra la desinformación (L.-M. Calvo-Rubio y Ufarte-Ruiz, 2021). Ahora bien, cabe una mirada crítica ante las bondades atribuidas al uso de la inteligencia artificial en tales prácticas y contextos.

3. Riesgos éticos del uso de la inteligencia artificial en la práctica periodística

La inteligencia artificial afecta a tres esferas del periodismo: la organizacional, la profesional y la social; y lo hace además durante las tres etapas del proceso periodístico: recogida de datos, elaboración y difusión (Dörr y Hollnbuchner, 2017). La influencia en estas esferas y etapas es creciente y comporta claras oportunidades pero también importantes retos y riesgos. El informe pionero sobre los efectos de la inteligencia artificial en el periodismo lanzado por la plataforma internacional Journalism AI advertía en 2019 que el nuevo poder que supone el empleo de la inteligencia artificial en el periodismo conlleva también nuevas responsabilidad ya que esta tecnología tiene el potencial de influir de forma profunda en la forma de hacer periodismo y de consumir la información, generando cambios estructurales; de ahí la necesidad de que los medios de comunicación sean capaces de poner estas herramientas al servicio de sus valores y criterios editoriales (Beckett, 2019). Así como de explicarlos y ponerlos en relación con las expectativas éticas de sus grupos de interés o stakeholders, como apunta una ética empresarial de corte discursivo-crítico (González-Esteban, 2019).

A pesar de resultar evidente para muchas voces la necesidad de reflexionar sobre estas nuevas responsabilidades y riesgos, los estudios desarrollados hasta la fecha en el ámbito de la inteligencia artificial y el periodismo recogen de forma minoritaria las reflexiones éticas sobre las posibles consecuencias de estas tecnologías en el periodismo (Sanahuja-Sanahuja, 2022a,; L.-M. Calvo-Rubio y Ufarte-Ruiz, 2021). Desde 2015 se registra un crecimiento continuado de las publicaciones académicas sobre el uso de la inteligencia artificial en el periodismo (Sanahuja-Sanahuja, 2022b) pero es en los últimos tiempos cuando en el caso de España están proliferando diversos estudios sobre el tema centrados en su perspectiva ética y en los que se reivindica la necesidad de adoptar medidas para hacer frente a los riesgos de la inteligencia artificial en la práctica periodística. El Consell de la Informació de Catalunya ha publicado recientemente un informe con recomendaciones para dotar a la inteligencia artificial de los valores éticos del periodismo (Ventura, 2021), mientras estudios académicos destacan la necesidad de revisar el Código Deontológico de la Federación de Asociaciones de Periodistas de España (FAPE) para adaptarlo al periodismo automatizado, sobre todo en materia de autoría, elaboración, transparencia y jerarquización de las informaciones redactadas a través de inteligencia artificial (Ufarte Ruíz et al., 2021). En 2021 Túñez-López publicaba asimismo un estudio sobre el impacto de la inteligencia artificial en la comunicación alertando de que se trata de un «sistema diseñado para generar esferas de control social a través de productos o mensajes singularizados ajustados a necesidades detectadas por el procesamiento de datos masivos» (Túñez López, 2021, p. 8).

Por su parte, los expertos consultados por Ruíz Ufarte et al (2021), a través de un estudio Delphi con profesorado de Periodismo del ámbito de la ética y la deontología, concluye que los retos éticos en los que existe un mayor grado de consenso pasan por garantizar la intimidad y privacidad de las personas; potenciar la ética del periodista y del uso de la tecnología; el contraste por parte de los periodistas de la información producida automáticamente; la formación de los profesionales de la información y la transparencia. La supervisión humana y la aplicación de un criterio editorial junto al tratamiento responsable de los datos de los usuarios son asimismo algunos de los principales retos detectados por Ventura (2021) a partir de entrevistas y grupos de discusión con expertos y responsables de medios de comunicación. Otros temas claves detectados en el estudio pasan por los riesgos de la personalización de contenidos, la supervisión y calidad de los datos para evitar sesgos o el riesgo de la independencia periodística ante la financiación de las grandes plataformas tecnológicas a la hora de desarrollar tanto la tecnología vinculada a la inteligencia artificial como la formación sobre la misma (Ventura, 2021). La revisión literaria realizada por Pérez-Seijo et al. (2020), recoge también algunos de los principales retos del periodismo que pasarían por los conflictos que comprometen la ética profesional del periodista y del periodismo, las cuestiones legales que dificultan la atribución de responsabilidades y de los derechos de autor, la percepción de los usuarios de la credibilidad y objetividad informativa cuando los contenidos son fruto de una mediación tecnológica, el rol del profesional de la información cuando una máquina sustituye su papel como mediador, la aproximación hacia un periodismo de corte más emocional que puede abrir la puerta al sesgo, y el elevado coste económico que la introducción de la más alta tecnología actual representa para las redacciones con menos recursos (Pérez-Seijo et al., 2020, p. 144).

A nivel tanto nacional como internacional diversas investigaciones han reflexionado a lo largo de los últimos años sobre el tema desde posturas críticas sobre los posibles efectos (Sanahuja-Sanahuja, 2022a), alertando de aspectos como la necesidad de transparencia en su uso (Diakopoulos, 2019a; Diakopoulos y Koliska, 2017; Trattner et al., 2021); la necesidad de una mayor regulación ante las posibilidades que abre la aplicación de la inteligencia artificial en el ámbito de la comunicación (Jina, 2019; Lie, 2021; Túñez López, 2021); la atribución de responsabilidades (Chen y Wen, 2021; Lewis et al., 2018); los riesgos de los recomendadores de noticias y su relación con los valores de los periodistas y de los medios (Salazar García, 2018); la forma en que la interrelación entre hombres y máquinas afectarán al periodismo y al ejercicio de su profesión (Lewis et al., 2018); la percepción de los humano por parte de la audiencia (Gonzales, 2017; Shin, 2021); la repercusión en la profesión periodística (Kim et al., 2020); la necesidad de formación de los nuevos periodistas ante las nuevas competencias que demanda (Salnikovа, 2019; Ufarte Ruiz, Calvo Rubio, et al., 2020; Ufarte Ruiz, Fieiras-Ceide, et al., 2020); la necesidad de una educación ciudadana a todos los niveles para detectar el uso de automatismos (L. M. Calvo-Rubio y Ufarte-Ruiz, 2020; Túñez López, 2021); y los efectos de la tecnología en la difusión de desinformación pero también el potencial de su uso como herramienta para combatirla (Flores Vivar, 2019; Grmuša y Prelog, 2020; Manfredi Sánchez y Ufarte Ruiz, 2020; Túñez López, 2021).

4. La autorregulación como recomendación

La tecnología no es buena ni mala ni tampoco neutral afirma Kranzberg (1986) en sus leyes sobre la tecnología, en las que defiende asimismo cómo, aunque la tecnología puede ser un elemento primordial en muchos asuntos públicos, los factores no técnicos han de tener prioridad en las decisiones de política tecnológica. Si coincidimos con Helberger et al. (2019) en que el periodismo desempeña un papel crucial en las democracias, ya que proporciona al público una fuente de información, una plataforma para la deliberación y una vigilancia crítica; resultará claramente necesario que sean factores no técnicos guiados por la ética y los valores del periodismo los que determinen el uso de la inteligencia artificial en las esferas y etapas del proceso informativo. La autorregulación a través de códigos deontológicos, libros de estilo, consejos de prensa o defensores de la audiencia es uno de los principales mecanismos de control ético de la profesión periodística (Ufarte Ruíz et al., 2021). De este modo, repensar a través de estos marcos el uso de la inteligencia artificial en los procesos periodísticos y el modo en el que los medios y los profesionales del periodismo se autorregulan, resultan aspectos clave. Es necesario plantear una hoja de ruta que permita buscar más puntos de convergencia en favor de un mejor periodismo para hacer frente a los riesgos profesionales y deontológicos de estas tecnologías (Murcia Verdú y Ufarte Ruiz, 2019; Parratt-Fernández et al., 2021) e incluso que fije unas «directrices claras sobre qué se puede y qué no automatizar» (Ufarte Ruíz et al., 2021, p. 679). Esto posibilitaría avanzar hacia un pacto comunicacional que preserve el bien interno del periodismo que no es otro que aportar información que favorezca la formación de una opinión pública madura en sociedades democráticas, de tal modo que el ciudadano tenga acceso a aquella información que tiene derecho a saber. En palabras de Cortina, «un periodismo comprometido con el objetivo de ayudar a promover una sociedad informada y abierta» necesario para construir y consolidar la democracia (Cortina, 2021, p. 17).

De cara a una autorregulación por parte de los medios a nivel nacional, por el momento, las recomendaciones planteadas por el Consell de la Informació de Catalunya para dotar a la inteligencia artificial de los valores éticos del periodismo parecen un primer paso en la línea de buscar una hoja de ruta a nivel práctico. En concreto, a partir del proceso de reflexión colectiva desarrollado, el informe establece ocho recomendaciones para los medios: (1) velar por la calidad de los datos y la gestión responsable de los mismos, manteniendo una vigilancia constante sobre su representatividad; (2) supervisar los procesos, asegurando su calidad técnica para minimizar los riesgos y evitar los errores; (3) transparencia y rendición de cuentas; (4) gestionar responsablemente los datos y la privacidad, recogiendo los datos personales estrictamente necesarios, anonimizándolos si no son relevantes y preservándolos de un mal uso por parte de terceros; (5) gestionar de forma responsable las personalizaciones y recomendaciones, evitando un uso de algoritmos que socave el pluralismo o perjudique a las personas vulnerables; (6) poner en valor el factor humano, recordando que es el profesional el que tiene el talante ético que no tiene la máquina; (7) impulsar la formación y la promoción de la interdisciplinariedad de los equipos con el fin de alcanzar una capacitación técnica y ética, y (8) promover la investigación encaminada a explorar la convergencia entre la eficacia técnica y los valore de un periodismo ético (Ventura, 2021).

Las recomendaciones planteadas recogen así algunos aspectos claves para hacer frente a los retos éticos de la inteligencia artificial y el periodismo en los que parece existir un claro consenso como es la necesidad de transparencia y explicabilidad (Diakopoulos y Koliska, 2017; Ufarte Ruíz et al., 2021) ya que los lectores tienen derecho a entender en términos comprensibles como es usada la inteligencia artificial y las decisiones que se toman a partir de las mismas (Hansen et al., 2017). Este punto no está exento a su vez de retos, incluida la necesidad de determinar de qué automatizaciones es necesario informar al usuario ya que, como ejemplifica Ventura (2021, p. 35), igual no es necesario informar de que se ha utilizado inteligencia artificial para realizar una transcripción pero sí cuando el texto se ha generado de forma automática o se ha realizado una recomendación a partir de algoritmos. Otras dificultades se encuentran en la propia opacidad con la que pueden llegar a funcionar los algoritmos. Descampe et al. (2021) alertan además de que la transparencia por sí sola no es suficiente ya que hay que tener en cuenta la necesidad de reforzar desde la perspectiva ética los requisitos técnicos para hacer frente a problemas técnicos de aprendizaje automático, sesgos y manipulación interesada de datos. En esta misma línea (Diakopoulos, 2019b) reivindica la necesidad de la orientación ética del diseño tecnológico para la producción automatizada de noticias, resaltando la necesidad de métricas para medir la alineación de las implementaciones técnicas con los objetivos y valores de la organización.

El caso de la bbc puede ser un buen ejemplo de rendición de cuentas unido a una voluntad de establecer un diseño tecnológico responsable alineados con los valores del medio. La corporación británica de radiotelevisión presentó en 2017 a la Cámara de los Lores un escrito2 en el que plasma su compromiso para liderar el uso responsable de todas las tecnologías de inteligencia artificial, para lo que establecía una serie de principios dirigidos a que los motores de aprendizaje automático de la cadena reflejen los valores de la organización. En cuanto a la audiencia, el texto establece que los datos recogidos se utilizan para mejorar sus experiencias con la bbc y recoge el derecho de los usuarios a saber qué hacen con sus datos por lo que se comprometen a explicar en un lenguaje sencillo qué datos recogen y cómo los utilizan, por ejemplo, en la personalización y las recomendaciones. Estos principios muestran además su apuesta por un desarrollo responsable de la tecnología con el fin de que sus algoritmos sirvan a sus audiencias de forma equitativa y justa y que la difusión de contenidos se ajuste a los valores editoriales de la bbc, tratando de ampliar, en lugar de reducir, los horizontes de la audiencia.

Poner las tecnologías emergentes al servicio de los valores que rigen el periodismo de calidad puede ser también una oportunidad para los medios de comunicación, de forma que un uso responsable y ético de la inteligencia artificial contribuya a reforzar los principios de verdad, justicia, libertad y responsabilidad que rigen la profesión periodística (Ventura 2021). En unos momentos en los que la inteligencia artificial se está consolidando a pasos de gigante en las redacciones, periodistas y medios de comunicación tendrían que jugar un papel clave para decidir el rumbo a tomar en esta implementación. Sin embargo, un estudio reciente de De Haan et al. (2022) alerta de la postura «sorprendentemente pasiva» que adoptan los periodistas hacia la introducción de la lógica algorítmica en su proceso de producción predominando la sensación de que es suficiente con su autonomía profesional para combatir la influencia de algoritmos y otros sesgos tecnológicos, lo que lleva a que aprender más sobre la inteligencia artificial y el proceso periodístico no parezca ser una prioridad ni un aspecto que se facilite a nivel de dirección. No obstante, para hacer frente de forma responsable a los retos que supone la inteligencia artificial, tanto medios como expertos destacan la necesidad de formación y de incorporar nuevos perfiles profesionales (Ufarte Ruíz et al., 2021; Ventura, 2021). La inversión que supone la inteligencia artificial, tanto en tiempo -incluido el de formación- como en dinero, se percibe como un desafío que puede aumentar aún más la brecha ya existente entre grandes grupos mediáticos y medios más pequeños y locales, según advierte un estudio publicado por Associated Press (Rinehart y Kung, 2022). Contar con la apuesta clara de la dirección, recursos y formación se perfilan como aspectos claves para avanzar hacia una introducción responsable de la inteligencia artificial en las redacciones y promover una necesaria autorregulación por parte de los medios.

5. Principios éticos ante los retos que plantea el uso de inteligencia artificial en el periodismo

Los riesgos éticos identificados y las recomendaciones elaboradas desde diferentes instancias profesionales, académicas y de la sociedad civil permiten evidenciar expectativas y demandas éticas específicas y relativas al uso e incorporación de la inteligencia artificial en la práctica comunicativa. Podría hablarse, como se ha argumentado en el apartado anterior, de una interpretación y visión crítica del uso de la inteligencia artificial a la luz de la meta o bien interno de la práctica periodística, así como de los valores éticos reconocidos por la profesión y la sociedad.

Llevar a cabo esta interpretación y visión crítica en el día a día, no es tarea fácil. Así autores como Túñez López (2021) abordan la necesidad y la dificultad de la gobernanza de la inteligencia artificial en el ámbito de la comunicación, recogiendo las reflexiones de Robles Carrillo (2020) sobre cómo la gobernanza de la inteligencia artificial constituye, posiblemente, uno de los mayores desafíos que se ha planteado a la ciencia y a la técnica jurídicas ya que funcionalmente, la inteligencia artificial no es una categoría estanca, sino permeable, transversal, porque actúa sobre los elementos y realidades preexistentes afectando e interfiriendo en su desarrollo y funcionamiento. Por estas razones, la autora argumenta que no es posible proceder a la gestión y regulación de la inteligencia artificial exclusivamente desde postulados previos «creados para una sociedad en la que no existía un desarrollo científico y tecnológico con ese alcance, contenido y naturaleza» (Robles Carrillo, 2020, p. 25). La complementariedad con la autorregulación ética se hace pues necesaria, en entornos globales, interdependientes y donde el pluralismo moral está presente (González-Esteban, 2022).

Como ya se ha mencionado, en el último lustro se ha incrementado enormemente el interés y los esfuerzos desde el ámbito académico, político y organizativo, nacional e internacional, por desentrañar colectivamente de qué modo queremos como sociedades que sea utilizada la inteligencia artificial. Una mirada a estos avances puede ser de ayuda para identificar los principios éticos que se pueden utilizar en la autorregulación de la actividad periodística ante el uso de la inteligencia artificial.

Son numerosas las propuestas de guías, directrices o marcos para generar una inteligencia artificial o para hacer uso de la misma de modo que se considere socialmente aceptable y éticamente deseable (Hagendorff, 2020; Jobin et al., 2019). Iniciativas que proceden en ocasiones de organismos político-gubernamentales, como la Unión Europea (Comisión Europea, 2021) o las Naciones Unidas (UNESCO, 2021). Y, en otras ocasiones, del sector privado y/o de la sociedad civil, donde se suele invocar a la necesidad de complementar la regulación de los estados mediante mecanismos jurídico-políticos con la autorregulación basada en principios éticos que permitan generar códigos éticos y de conducta, ser utilizados por comités éticos especializados en inteligencia artificial o para la identificación de buenas prácticas. Una comparativa de los principios que se proponen en estos documentos internacionales desarrollada por Jobin, Ienca y Veyana (2019) identifica 12 principios fundamentales: justicia y bienestar; no-maleficencia; responsabilidad; privacidad; beneficencia; libertad y autonomía; confianza; sostenibilidad; dignidad; solidaridad; transparencia y; explicabilidad y rendición de cuentas. Como apunta Cortina se trata de once principios tradicionalmente utilizados en diferentes contextos y prácticas humanas desde la ética aplicada, y uno original: el de explicabilidad y rendición de cuentas, que merecería una atención especial (Cortina, 2019, p. 388).

Este principio ético de explicabilidad y transparencia constituyen, junto al de rendición de cuentas y supervisión, los dos pilares argumentativos en la identificación de los riesgos éticos, así como en las recomendaciones del uso e integración de la inteligencia artificial en los contextos comunicativos. Por este motivo conviene una comprensión más profunda de los mismos, así como una interpretación adecuada de sus implicaciones.

El principio de explicabilidad y transparencia exige que los afectados puedan conocer qué algoritmos se han utilizado, de dónde proceden, quién los ha construido, con qué sesgos y con qué finalidades. Con este principio se sitúa la responsabilidad en las organizaciones y los profesionales que diseñan y utilizan la inteligencia artificial en la práctica periodística. La confiabilidad que se exige la inteligencia artificial es importante no confundirla con una cualidad antropomórfica de la tecnología (Ryan, 2020). Podremos confiar en la inteligencia artificial porque confiamos en la información que se nos proporciona sobre cómo y para qué se ha utilizado. Información que debemos recibir de modo inteligible, veraz y comprensible. Donde el ser humano como agente queda identificado. Así pues, es fundamental que quede claro quién ha elaborado, recopilado o distribuido la información, si es una persona o si es un sistema de inteligencia artificial. Sólo de ese modo podremos juzgar como afectados e interlocutores válidos si aceptamos o no ese uso y práctica periodística. Con este principio se exige que la autonomía y la dignidad de las personas sea respetada en todo momento reconociéndolas como interlocutores válidos que pueden ejercer su libertad.

El principio de rendición de cuentas y supervisión orienta las actuaciones para que en todo momento sea posible rastrear al agente que ha desarrollado y aplicado la inteligencia artificial, y por tanto, al sujeto al que cabe pedir responsabilidad, aunque ese sea un actor múltiple. Ellos son los responsables de las acciones que se generan o de los efectos —positivos o negativos— que produce el uso de la inteligencia artificial. En el caso del periodismo, los sujetos de responsabilidad deben quedar identificados en el medio de comunicación, de forma que no se diluya. Por otra parte, para que la rendición de cuentas sea adecuada debe existir un sistema de supervisión basado en una continua evaluación de los riesgos éticos, presentes o potenciales, junto con un sistema para garantizar que los diferentes stakeholders puedan informar de sus preocupaciones. De nuevo son los valores de la autonomía, dignidad y libertad los que se pretenden exigir al impulsar este principio ético en la práctica periodística en el contexto de la inteligencia artificial.

Como se ha venido señalando el uso de la inteligencia artificial en el contexto de la práctica comunicativa y periodística puede ser beneficioso siempre y cuando el progreso técnico que ofrece no menoscabe el progreso ético que es capaz de ofrecernos la actividad periodística a través de su bien interno: una información que nos permita ir formando en sociedades moralmente pluralistas con una opinión pública madura, desde la salvaguarda y exigencia de la autonomía, la libertad y la dignidad que son propiamente humanas. Para ello, es necesario seguir profundizando en cómo desplegar los principios de explicabilidad y rendición de cuentas en el terreno periodístico para avanzar en una autorregulación capaz de dar respuesta de las exigencias éticas que se erigen por parte de los afectados.

Referencias

Beckett, C. (2019). New powers, new responsibilities. A global survey of journalism and artificial intelligence | | Polis. https://blogs.lse.ac.uk/polis/2019/11/18/new-powers-new-responsibilities/

Bilbeny, N. (2012). Ética del periodismo : la defensa del interés público por medio de una información libre, veraz y justa [Book]. Publicacions i Edicions de la Universitat de Barcelona.

Calvo-Rubio, L.-M., & Ufarte-Ruiz, M.-J. (2021). Artificial intelligence and journalism: Systematic review of scientific production in Web of Science and Scopus (2008-2019). Communication & Society, 34(2), 159–176. https://doi.org/10.15581/003.34.2.159-176

Calvo-Rubio, L. M., & Ufarte-Ruiz, M. J. (2020). Perception of teachers, students, innovation managers and journalists about the use of artificial intelligence in journalism. Profesional de La Informacion, 29(1). https://doi.org/10.3145/epi.2020.ene.09

Chen, Y. N. K., & Wen, C. H. R. (2021). Impacts of Attitudes Toward Government and Corporations on Public Trust in Artificial Intelligence. Communication Studies, 72(1), 115–131. https://doi.org/10.1080/10510974.2020.1807380

Comisión Europea, U. . (2021). Propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de IA (Ley de IA) y se modifican determinados actos legislativos de la Unión. In Diario Oficial de las Comunidades Europeas: Vol. COM 206.

Conill, J., Gozálvez Pérez, V. E., & Camps, V. (2004). Ética de los medios : una apuesta por la ciudadanía audiovisual. Gedisa.

Cortina, A. (1996). El estatuto de la ética aplicada. Hermenéutica crítica de las actividades humanas. Isegoría: Revista de Filosofía Moral y Politica, 13, 119–134. https://doi.org/https://doi.org/10.3989/isegoria.1996.i13

Cortina, A. (2007). Ethica cordis. Isegoría: Revista de Filosofía Moral y Política, 37, 113–126. https://doi.org/10.3989/isegoria.2007.i37.112

Cortina, A. (2019). Ética de la inteligencia artificial. In Anales de la Real Academia de Ciencias Morales y Políticas (pp. 379–394). Real Academia de Ciencias Morales y Políticas.

Cortina, A. (2021). Periodismo ético en tiempos de polarización. Cuadernos de Periodistas, 43, 9–18. https://www.cuadernosdeperiodistas.com/periodismo-etico-en-tiempos-de-polarizacion/

de Haan, Y., van den Berg, E., Goutier, N., Kruikemeier, S., & Lecheler, S. (2022). Invisible Friend or Foe?How Journalists Use and Perceive Algorithmic-Driven Tools in Their Research Process. Https://Doi.Org/10.1080/21670811.2022.2027798. https://doi.org/10.1080/21670811.2022.2027798

Descampe, A., Massart, C., Poelman, S., Standaert, F. X., & Standaert, O. (2021). Automated news recommendation in front of adversarial examples and the technical limits of transparency in algorithmic accountability. AI and Society. https://doi.org/10.1007/s00146-021-01159-3

Diakopoulos, N. (2019a). Automating the News: How Algorithms Are Rewriting the Media. Harvard University Press.

Diakopoulos, N. (2019b). Towards a Design Orientation on Algorithms and Automation in News Production. Digital Journalism, 7(8), 1180–1184. https://doi.org/10.1080/21670811.2019.1682938

Diakopoulos, N., & Koliska, M. (2017). Algorithmic Transparency in the News Media. Digital Journalism, 5(7), 809–828. https://doi.org/10.1080/21670811.2016.1208053

Dörr, K. N., & Hollnbuchner, K. (2017). Ethical Challenges of Algorithmic Journalism. Digital Journalism, 5(4), 404–419. https://doi.org/10.1080/21670811.2016.1167612

Flores Vivar, J. M. (2019). Artificial intelligence and journalism: diluting the impact of disinformation and fake news through bots. Doxa Comunicación. Revista Interdisciplinar de Estudios de Comunicación y Ciencias Sociales, 29, 197–212. https://doi.org/10.31921/doxacom.n29a10

García-Marzá, D., Lozano Aguilar, J. F., Martínez Navarro, E., & Siurana Aparici, J. C. (Eds.). (2018). Ética y política. Homenaje a Adela Cortina. Tecnos.

Gonzales, H. M. S. (2017). Bots as a news service and its emotional connection with audiences. The case of Politibot | Publons. DOXA COMUNICACION, 25, 63–84. https://publons.com/publon/46955778/

González-Esteban, E. (2019). El reconocimiento de los stakeholders desde una ética empresarial cordis. In E. González-Esteban, J. C. Siurana Aparisi, J. L. López-González, y M. García-Granero (Eds.), Ética y Democracia. Desde la razón cordial (pp. 59–66). Comares.

González-Esteban, E., y Calvo, P. (2022). Ethically governing artificial intelligence in the field of scientific research and innovation. Heliyon, 8(2), 1–9. https://doi.org/10.1016/j.heliyon.2022.e08946

González Esteban, E., Siurana, J. C., López González, J. L., y García-Granero Gascó, M. (Eds.). (2019). Ética y democracia : desde la razón cordial [Book]. Editorial Comares.

Grmuša, T., & Prelog, L. (2020). The Role of New Technologies in Combatting Fake News –Experiences and Challenges of Croatian Media Organisations. Medijske Studije, 11(22), 62–80. https://doi.org/10.20901/MS.11.22.4

Hagendorff, T. (2020). The Ethics of AI Ethics: An Evaluation of Guidelines. Minds and Machines, 30(1), 99–120. https://doi.org/10.1007/s11023-020-09517-8

Hansen, M. , Roca-Sales, M. , Keegan, J. , & King, G. . (2017). Artificial Intelligence: Practice and Implications for Journalism. https://doi.org/10.7916/D8X92PRD

Helberger, N., Eskens, S., Van Drunen, M., Bastian, M., & Moeller, J. (2019). Implications of AI-Driven Tools in the Media for Freedom of Expression. Helberger, Natali Eskens, Sarah Van Drunen, Max Bastian, Mariella Moeller, Judith. https://rm.coe.int/coe-ai-report-final/168094ce8f#:~:text=While the introduction of AI,opportunities of access to information.

Jina, P. (2019). Legal issues related to artificially intelligent journalism. Science, Technology and Law, 10(2), 119–154.

Jobin, A., Ienca, M., & Vayena, E. (2019). The global landscape of AI ethics guidelines. Nature Machine Intelligence, 1(9), 389–399. https://doi.org/10.1038/s42256-019-0088-2

Kranzberg, M. (1986). Technology and History: “Kranzberg’s Laws.” Technology and Culture, 27(3), 544. https://doi.org/10.2307/3105385

Lewis, S. C., Sanders, A. K., & Carmody, C. (2018). Libel by Algorithm? Automated Journalism and the Threat of Legal Liability: Journalism & Mass Communication Quarterly, 96(1), 60–81. https://doi.org/10.1177/1077699018755983

Lie, J. W. (2021). How has the Entertainment News Production Practices Changed Since the Portal Site’s Introduction of AI News Curation?: An Exploratory Study. Korean Journal of Broadcasting & Telecommunications Research, 113, 93–121.

López-García, X., & Vizoso, Á. (2021). Periodismo de alta tecnología: signo de los tiempos digitales del tercer milenio. Profesional de La Información, 30(3). https://doi.org/10.3145/EPI.2021.MAY.01

Manfredi Sánchez, J. L., & Ufarte Ruiz, M. J. (2020). Artificial intelligence and journalism: A tool to fight disinformation. Revista CIDOB d’Afers Internacionals, 124, 49–72. https://doi.org/10.24241/RCAI.2020.124.1.49

Meyers, C. (2010). Journalism ethics : a philosophical approach (C. Meyers (Ed.)) [Book]. Oxford University Press.

Murcia Verdú, F. J., & Ufarte Ruiz, M. J. (2019). Risk map of hi-tech journalism. Hipertext.Net: Revista Académica Sobre Documentación Digital y Comunicación Interactiva, 0(18), 47–55. https://doi.org/10.31009/hipertext.net.2019.i18.05

Newman, N. (2022). Journalism, media, and technology trends and predictions 2022. Reuters Institute for the Study of Journalism. https://reutersinstitute.politics.ox.ac.uk/journalism-media-and-technology-trends-and-predictions-2022

Parratt-Fernández, S., Mayoral-Sánchez, J., & Mera-Fernández, M. (2021). The application of artificial intelligence to journalism: an analysis of academic production. Ediciones Profesionales de La Información SL, 30(3). https://doi.org/10.3145/EPI.2021.MAY.17

Pérez-Seijo, S., Gutiérrez-Caneda, B., & López-García, X. (2020). Periodismo digital y alta tecnología: de la consolidación a los renovados desafíos. INDEX COMUNICACION, 10(3), 129–151. https://doi.org/10.33732/ixc/10/03period

Rinehart, A., & Kung, E. (2022). Artificial Intelligence in Local News. A survey of US newsrooms’ AI readiness.

Robles Carrillo, M. (2020). La gobernanza de la inteligencia artificial: contexto y parámetros generales. Revista Electrónica de Estudios Internacionales, 2020(39). https://doi.org/10.17103/REEI.39.07

Ryan, M. (2020). In AI We Trust: Ethics, Artificial Intelligence, and Reliability. Science and Engineering Ethics, 26(5), 2749–2767. https://doi.org/10.1007/s11948-020-00228-y

Salaverría, R. (2015). Periodismo en 2014: balance y tendencias. Cuadernos de Periodistas, 29, 9–22. https://www.cuadernosdeperiodistas.com/periodismo-en-2014-balance-y-tendencias/

Salazar García, I. A. (2018). Los robots y la Inteligencia Artificial. Nuevos retos del periodismo. Doxa Comunicación. Revista Interdisciplinar de Estudios de Comunicación y Ciencias Sociales, 27, 295–315. https://doi.org/10.31921/doxacom.n27a15

Salnikovа, L. (2019). Robots Versus Journalists: Does Journalism Have a Future? Theoretical and Practical Issues of Journalism, 8(4), 668–678. https://doi.org/10.17150/2308-6203.2019.8(4).668-678

Sanahuja Sanahuja, R, y López Rabadán, P. (2021). Ámbitos de aplicación periodística de la Inteligencia Artificial. Mapa conceptual, funciones profesionales y tendencias en desarrollo en el contexto de la pandemia global de la Covid-١٩. Razón y Palabra, ٢٥(١١٢). https://doi.org/١٠.٢٦٨٠٧/RP.V٢٥I١١٢.١٨٢٧

Sanahuja Sanahuja, R., y López Rabadán, P. (2022). Aspectos éticos del uso de la inteligencia artificial en el periodismo: posicionamientos y preocupaciones desde el ámbito académico. En Nuevas tendencias en la comunicación y en la investigación: Su reflejo profesional y académico. Ed. Editorial Gedisa. Col·lección Biblioteca de la Educación. Herramientas Universitarias. ISBN 9788418914546. 

Shin, D. (2021). The perception of humanness in conversational journalism: An algorithmic information-processing perspective. New Media and Society. https://doi.org/10.1177/1461444821993801

Trattner, C., Jannach, D., Motta, E., Meijer, I. C., Diakopoulos, N., Mehdi Elahi, ·, Opdahl, A. L., Tessem, · Bjørnar, Borch, N., Fjeld, M., Øvrelid, L., Koenraad, ·, Smedt, D., & Moe, · Hallvard. (2021). Responsible media technology and AI: challenges and research directions. AI and Ethics 2021, 1, 1–10. https://doi.org/10.1007/S43681-021-00126-4

Túñez-López, J. M., Fieiras Ceide, C., & Vaz-Álvarez, M. (2021). Impacto de la Inteligencia Artificial en el Periodismo: transformaciones en la empresa, los productos, los contenidos y el perfil profesional . Communication & Society, 34 (I), 177–193. https://dadun.unav.edu/bitstream/10171/59967/2/12. Túñez et al. ESP VF.pdf

Túñez López, J. M. (2021). Tendencias e impacto de la inteligencia artificial en comunicación: cobotización, gig economy, co-creación y gobernanza. Fonseca, Journal of Communication, 22, 5–22. https://dialnet.unirioja.es/servlet/articulo?codigo=7955730&info=resumen&idioma=ENG

Ufarte Ruiz, M. J., Calvo Rubio, L. M., & Murcia Verdú, F. J. (2020). Las tecnologías hi-tech en los grados en Periodismo. Planes de estudios, formación de los periodistas y propuestas de inserción curricular. AdComunica. Revista Científica de Estrategias, Tendencias e Innovación En Comunicación, 20, 43–66. https://doi.org/10.6035/2174-0992.2020.20.3

Ufarte Ruíz, M. J., Calvo Rubio, L. M., & Murcia Verdú, F. J. (2021). Los desafíos éticos del periodismo en la era de la inteligencia artificial. Estudios Sobre El Mensaje Periodístico, 27(2), 673–684. https://doi.org/10.5209/esmp.69708

Ufarte Ruiz, M. J., Fieiras-Ceide, C., & Túñez-López, M. (2020). The teaching-learning of automated journalism in public institutions: Studies, feasibility proposals and future impact of artificial intelligence. Analisi, 62, 131–146. https://doi.org/10.5565/rev/analisi.3289

Ufarte Ruiz, M. J., & Manfredi Sánchez, J. L. (2019). Algorithms and bots applied to journalism. The case of Narrativa Inteligencia Artificial: structure, production and informative quality. Doxa Comunicación. Revista Interdisciplinar de Estudios de Comunicación y Ciencias Sociales, 29, 213–233. https://doi.org/10.31921/doxacom.n29a11

UNESCO. (2021). Proyecto de texto de la recomendación sobre la ética de la inteligencia artificial (Issue September).

Ventura, P. (2021). Algoritmos en las redacciones: Retos y recomendaciones para dotar a la inteligencia artificial de los valores éticos del periodismo. Consell de la Informació de Catalunya.