Discursive digital ethics: Discursive digital ethics: From explicability to participation
Supporting Agencies
- Este trabajo se enmarca dentro de los objetivos del Proyecto de Investigación Científica y Desarrollo Tecnológico «Ética aplicada y confiabilidad para una Inteligencia Artificial» [PID2019- 109078RB-C21] financiado por el Ministerio de Ciencia e Innovación, así como en las actividades del grupo de investigación de excelencia CIPROM/2021/072 de la Comunitat Valenciana.
Abstract
This article is intended to present a proposal for dialogic digital ethics on a critical reading of the European Commission's independent high-level expert group’s document Ethics Guidelines for Trustworthy AI (2019). These would be digital ethics with a normative horizon for action and criteria for justice based on dialogue and possible agreement between all agents involved and affected by the digital reality. The aim is to show that the participation of all parties involved is not merely advisable but morally required as part of the Commission’s effort to generate common European willingness and governance to deal with the fourth industrial revolution now going on. The acknowledgement of equal dignity implied by people-centric artificial intelligence (AI) is utterly unthinkable without this possibility of equal participation. Without it, trust cannot be generated or guaranteed. As we intend to show, the new principle of explicability plays a decisive role in this objective as a principle with a moral as well as an instrumental.
Downloads
References
Apel, K.O., (1988). Diskurs und Verantwortung das Problem des Übergangs zur postkonventionellen Moral, Frankfurt: Suhrkamp.
Buruk, B., Ekmekci, P. E., & Arda, B. (2020). A critical perspective on guidelines for responsible and trustworthy artificial intelligence. Medicine, Health Care and Philosophy, 23(3), 387-399.
Calvo, P (2021). El gobierno ético de los datos masivos. Dilemata. Revista internacional de éticas aplicadas, (34), 31-49
Cortina, A., Conill,J; Autor (eds.) (2008). Public reason and applied ethics: The ways of practical reason in a pluralist society. Londres: Ashgate Publishing.
Dignum, V. (2018). Ethics in artificial intelligence: introduction to the special issue. Ethics Inf Technol (20), 1–3.
Etzioni, A., & Etzioni, O. (2017). Incorporating ethics into artificial intelligence. The Journal of Ethics, 21(4), 403-418.
European Data Protection Supervisor (2015). Hacia una nueva ética digital. Datos, dignidad y tecnología (Dictamen 4/2015). ESPD. Recuperado de: https://edps.europa.eu/sites/edp/files/publication/15-09-11_data_ethics_es.pdf.
COM(2019) 168 final (2019). Generar confianza en la inteligencia artificial centrada en el ser humano. Bruselas: Comisión Europea.
High-level expert Group on Artificial Intelligence (2019). Ethics Guidelines for Trustworthy AI. Brussels. European Commission. Recuperado de: https://op.europa .eu/en/publication-detail/-/publication/d3988569-0434-11ea-8c1f-01aa75ed71a1.
Floridi, L. (2018). Soft ethics and the governance of the digital. Philosophy & Technology, 31(1), 1-8.
Floridi, L. Cowls, J., Beltrametti, M., Chatila, R., Chazerand, P., Dignum, V., ... & Vayena, E. (2018). AI4People—an ethical framework for a good AI society: opportunities, risks, principles, and recommendations. Minds and Machines, 28(4), 689-707.
Floridi, L., Cowls, J., Beltrametti, M., Chatila, R., Chazerand, P., Dignum, V., Luetge, C., Madelin, R., Pagallo, U., Rossi, F., Schafer, B., Valcke, P., & Vayena, E. (2018). AI4People—An Ethical Framework for a Good AI Society: Opportunities, Risks, Principles, and Recommendations. Minds and Machines, 28(4), 689-707. https://doi.org/10.1007/s11023-018-9482-5
Floridi, L. (2019). Translating principles into practices of digital ethics: Five risks of being unethical. Philosophy & Technology, 32(2), 185-193.
García Marzá, D. (2004). Ética empresarial: del dialogo a la confianza. Madrid: Trotta
García Marzá, D. (2012). Kant´s Principle of Publicity, Kant-Studien. Philosophische Zeitschrift der Kant-Gesellsschaft, (103), 96-113.
García Marzá, D. (2017). From ethical codes to ethical auditing: An ethical infrastructure for social responsibility communication. El profesional de la información, 26(2), 268-276.
García Marzá, D. (2019). Repensar la democracia. Estrategia moral y perspectiva crítica en KO Apel. Daimon Revista Internacional de Filosofía, (78), 75-89.
García Marzá, D. & Calvo, P. (2022). Democracia algorítmica: ¿un nuevo cambio estructural de la opinión pública?. Isegoría, (67), e17-e17, 1-16. https://doi.org/10.3989/isegoria.2022.67.17
Generalitat Valenciana (2018). Estrategia de Inteligencia Artificial de la Comunitat Valenciana, Valencia: GVA.
Goodin, R. E. (Ed.) (1998). The theory of institutional design. Cambridge: Cambridge University Press.
Jobin, A., Ienca, M., & Vayena, E. (2019). The global landscape of AI ethics guidelines. Nature Machine Intelligence, 1(9), 389-399. https://doi.org/10.1038/s42256-019-0088-2
Kant, I. (1795). Zum ewigen Frieden. Ein philosophischer Entwurf, (ZeF), AA, VIII.
Mittelstadt, B., Allo, P., Taddeo, M., Wachter, S., & Floridi, L. (2016). The ethics of algorithms: Mapping the debate. Big Data & Society, 3(2), 205395171667967. https://doi.org/10.1177/2053951716679679
Rehg, W. (2015). Discourse ethics for computer ethics: a heuristic for engaged dialogical reflection. Ethics and Information Technology, 17, 27-39.
UNESCO (2022). Recomendación sobre la ética de la Inteligencia ArtificiaL de UNESCO. Montevideo, Uruguay: UNESCO.
Yuste, R., Goering, S., Arcas, B. A. Y., Bi, G., Carmena, J. M., Carter, A., Fins, J. J., Friesen, P., Gallant, J. L., Huggins, J. E., Illes, J., Kellmeyer, P., Klein, E., Marblestone, A. H., Mitchell, C., Parens, E., Pham, M. Q., Rubel, A., Sadato, N., . . . Wolpaw, J. R. (2017). Four ethical priorities for neurotechnologies and AI. Nature, 551(7679), 159-163. https://doi.org/10.1038/551159a
Copyright (c) 2023 Daimon Revista Internacional de Filosofia
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivatives 3.0 Unported License.
Las obras que se publican en esta revista están sujetas a los siguientes términos:
1. El Servicio de Publicaciones de la Universidad de Murcia (la editorial) conserva los derechos patrimoniales (copyright) de las obras publicadas, y favorece y permite la reutilización de las mismas bajo la licencia de uso indicada en el punto 2.
2. Las obras se publican en la edición electrónica de la revista bajo una licencia Creative Commons Reconocimiento-NoComercial-SinObraDerivada 3.0 España (texto legal). Se pueden copiar, usar, difundir, transmitir y exponer públicamente, siempre que: i) se cite la autoría y la fuente original de su publicación (revista, editorial y URL de la obra); ii) no se usen para fines comerciales; iii) si remezcla, transforma o crea a partir del material, no podrá distribuir el material modificado.
3. Condiciones de auto-archivo. Se permite y se anima a los autores a difundir electrónicamente las versiones pre-print (versión antes de ser evaluada) y/o post-print (versión evaluada y aceptada para su publicación) de sus obras antes de su publicación, ya que favorece su circulación y difusión más temprana y con ello un posible aumento en su citación y alcance entre la comunidad académica. Color RoMEO: verde.