Ética digital discursiva: de la explicabilidad a la participación
Agenzie di supporto
- Este trabajo se enmarca dentro de los objetivos del Proyecto de Investigación Científica y Desarrollo Tecnológico «Ética aplicada y confiabilidad para una Inteligencia Artificial» [PID2019- 109078RB-C21] financiado por el Ministerio de Ciencia e Innovación, así como en las actividades del grupo de investigación de excelencia CIPROM/2021/072 de la Comunitat Valenciana.
Abstract
El presente artículo tiene como objetivo presentar los rasgos básicos de una ética digital dialógica a partir de una lectura crítica del documento elaborado por grupo independiente de expertos de alto nivel para la Comisión Europea Ethics Guidelines for Trustworthy AI (High-level expert Group on Artificial Intelligence, 2019). Una ética digital que tiene en el diálogo y acuerdo posible de todos los agentes implicados y afectados por la realidad digital su horizonte normativo de actuación, su criterio de justicia. La finalidad es mostrar que, en su esfuerzo por generar una voluntad común y una gobernanza europeas ante la actual revolución industrial, la participación de todas las partes implicadas no solo es recomendable sino moralmente exigible. El reconocimiento de la igual dignidad que implica una Inteligencia Artificial centrada en las personas no es ni siquiera pensable sin el horizonte de una participación igual. Sin ella, la confianza no puede generarse ni garantizarse. Como pretendemos mostrar, en este objetivo juega un papel decisivo el nuevo principio de explicabilidad, principio que posee un valor moral y no solo instrumental.Downloads
Riferimenti bibliografici
Apel, K.O., (1988). Diskurs und Verantwortung das Problem des Übergangs zur postkonventionellen Moral, Frankfurt: Suhrkamp.
Buruk, B., Ekmekci, P. E., & Arda, B. (2020). A critical perspective on guidelines for responsible and trustworthy artificial intelligence. Medicine, Health Care and Philosophy, 23(3), 387-399.
Calvo, P (2021). El gobierno ético de los datos masivos. Dilemata. Revista internacional de éticas aplicadas, (34), 31-49
Cortina, A., Conill,J; Autor (eds.) (2008). Public reason and applied ethics: The ways of practical reason in a pluralist society. Londres: Ashgate Publishing.
Dignum, V. (2018). Ethics in artificial intelligence: introduction to the special issue. Ethics Inf Technol (20), 1–3.
Etzioni, A., & Etzioni, O. (2017). Incorporating ethics into artificial intelligence. The Journal of Ethics, 21(4), 403-418.
European Data Protection Supervisor (2015). Hacia una nueva ética digital. Datos, dignidad y tecnología (Dictamen 4/2015). ESPD. Recuperado de: https://edps.europa.eu/sites/edp/files/publication/15-09-11_data_ethics_es.pdf.
COM(2019) 168 final (2019). Generar confianza en la inteligencia artificial centrada en el ser humano. Bruselas: Comisión Europea.
High-level expert Group on Artificial Intelligence (2019). Ethics Guidelines for Trustworthy AI. Brussels. European Commission. Recuperado de: https://op.europa .eu/en/publication-detail/-/publication/d3988569-0434-11ea-8c1f-01aa75ed71a1.
Floridi, L. (2018). Soft ethics and the governance of the digital. Philosophy & Technology, 31(1), 1-8.
Floridi, L. Cowls, J., Beltrametti, M., Chatila, R., Chazerand, P., Dignum, V., ... & Vayena, E. (2018). AI4People—an ethical framework for a good AI society: opportunities, risks, principles, and recommendations. Minds and Machines, 28(4), 689-707.
Floridi, L., Cowls, J., Beltrametti, M., Chatila, R., Chazerand, P., Dignum, V., Luetge, C., Madelin, R., Pagallo, U., Rossi, F., Schafer, B., Valcke, P., & Vayena, E. (2018). AI4People—An Ethical Framework for a Good AI Society: Opportunities, Risks, Principles, and Recommendations. Minds and Machines, 28(4), 689-707. https://doi.org/10.1007/s11023-018-9482-5
Floridi, L. (2019). Translating principles into practices of digital ethics: Five risks of being unethical. Philosophy & Technology, 32(2), 185-193.
García Marzá, D. (2004). Ética empresarial: del dialogo a la confianza. Madrid: Trotta
García Marzá, D. (2012). Kant´s Principle of Publicity, Kant-Studien. Philosophische Zeitschrift der Kant-Gesellsschaft, (103), 96-113.
García Marzá, D. (2017). From ethical codes to ethical auditing: An ethical infrastructure for social responsibility communication. El profesional de la información, 26(2), 268-276.
García Marzá, D. (2019). Repensar la democracia. Estrategia moral y perspectiva crítica en KO Apel. Daimon Revista Internacional de Filosofía, (78), 75-89.
García Marzá, D. & Calvo, P. (2022). Democracia algorítmica: ¿un nuevo cambio estructural de la opinión pública?. Isegoría, (67), e17-e17, 1-16. https://doi.org/10.3989/isegoria.2022.67.17
Generalitat Valenciana (2018). Estrategia de Inteligencia Artificial de la Comunitat Valenciana, Valencia: GVA.
Goodin, R. E. (Ed.) (1998). The theory of institutional design. Cambridge: Cambridge University Press.
Jobin, A., Ienca, M., & Vayena, E. (2019). The global landscape of AI ethics guidelines. Nature Machine Intelligence, 1(9), 389-399. https://doi.org/10.1038/s42256-019-0088-2
Kant, I. (1795). Zum ewigen Frieden. Ein philosophischer Entwurf, (ZeF), AA, VIII.
Mittelstadt, B., Allo, P., Taddeo, M., Wachter, S., & Floridi, L. (2016). The ethics of algorithms: Mapping the debate. Big Data & Society, 3(2), 205395171667967. https://doi.org/10.1177/2053951716679679
Rehg, W. (2015). Discourse ethics for computer ethics: a heuristic for engaged dialogical reflection. Ethics and Information Technology, 17, 27-39.
UNESCO (2022). Recomendación sobre la ética de la Inteligencia ArtificiaL de UNESCO. Montevideo, Uruguay: UNESCO.
Yuste, R., Goering, S., Arcas, B. A. Y., Bi, G., Carmena, J. M., Carter, A., Fins, J. J., Friesen, P., Gallant, J. L., Huggins, J. E., Illes, J., Kellmeyer, P., Klein, E., Marblestone, A. H., Mitchell, C., Parens, E., Pham, M. Q., Rubel, A., Sadato, N., . . . Wolpaw, J. R. (2017). Four ethical priorities for neurotechnologies and AI. Nature, 551(7679), 159-163. https://doi.org/10.1038/551159a
Copyright (c) 2023 Daimon
Questo articolo è soggetto a licenza Creative Commons Attribution-NonCommercial-NoDerivatives 3.0 International License.
Las obras que se publican en esta revista están sujetas a los siguientes términos:
1. El Servicio de Publicaciones de la Universidad de Murcia (la editorial) conserva los derechos patrimoniales (copyright) de las obras publicadas, y favorece y permite la reutilización de las mismas bajo la licencia de uso indicada en el punto 2.
2. Las obras se publican en la edición electrónica de la revista bajo una licencia Creative Commons Reconocimiento-NoComercial-SinObraDerivada 3.0 España (texto legal). Se pueden copiar, usar, difundir, transmitir y exponer públicamente, siempre que: i) se cite la autoría y la fuente original de su publicación (revista, editorial y URL de la obra); ii) no se usen para fines comerciales; iii) si remezcla, transforma o crea a partir del material, no podrá distribuir el material modificado.
3. Condiciones de auto-archivo. Se permite y se anima a los autores a difundir electrónicamente las versiones pre-print (versión antes de ser evaluada) y/o post-print (versión evaluada y aceptada para su publicación) de sus obras antes de su publicación, ya que favorece su circulación y difusión más temprana y con ello un posible aumento en su citación y alcance entre la comunidad académica. Color RoMEO: verde.