Llamada para aportaciones sobre «Desafíos éticos y epistemológicos en Inteligencia Artificial». Fecha límite para envíos: 31 de marzo de 2023.
LLAMADA PARA APORTACIONES
Número monográfico de Daimon. Revista Internacional de Filosofía sobre
«Desafíos éticos y epistemológicos en inteligencia artificial»,
bajo dirección editorial compartida:
Sección 1: Ariel Guersenzvaig (Elisava Escuela de Diseño e Ingeniería de Barcelona Uvic-UCC) y David Casacuberta (Universitat Autònoma de Barcelona).
Sección 2: Elsa González Esteban (Universitat Jaume I) y Domingo García Marzá (Universitat Jaume I).
El número 90 (septiembre – diciembre 2023) estará dedicado a reflexionar sobre las implicaciones, desafíos y condicionantes filosóficos, éticos y epistemológicos de los sistemas que emplean técnicas de Inteligencia Artificial.
La Inteligencia Artificial (en adelante, IA), y en particular los sistemas basados en aprendizaje automático, se están adoptando en multitud de ámbitos de actividad humana, suscitando un enorme interés que no proviene únicamente de personas vinculadas a las ciencias de la computación, sino que también concita la atención de académicos de distintas disciplinas, medios periodísticos, empresas, instituciones de la sociedad civil y gobiernos de todos los niveles.
Este interés viene motivado no solo por la creciente ubicuidad de estos sistemas y por su enorme potencial en ámbitos que van desde el arte a la medicina, desde la agricultura a la logística, sino que también generan atención y preocupación por los potenciales riesgos y efectos perniciosos que estos sistemas pueden tener sobre el bienestar, los intereses y los derechos fundamentales de las personas, así como la capacidad de los mismos de erosionar todo tipo de valores humanos.
Este número especial busca explorar estos desafíos en dos secciones con focos interrelacionados aunque específicos.
Sección 1: ¿El aprendizaje automático como un nuevo positivismo dataista?
Esta sección busca recibir contribuciones que exploren las implicaciones epistemológicas del procesamiento de la información basado en grandes volúmenes de datos y aprendizaje automático.
Con la popularización de los sistemas de IA, los datos y los cálculos estadísticos se consolidan como el estándar de facto del conocimiento científico aplicado. Así, a partir de técnicas de IA se otorgan o deniegan préstamos o subsidios, se evalúa el desempeño de los empleados, o se otorga el tercer grado carcelario a personas privadas de libertad.
Buscamos artículos que examinen cómo los sistemas de aprendizaje automático pueden significar una revigorización de las corrientes estadísticas del proyecto naturalista en ciencia, tecnología y filosofía, cuyo origen se remonta a la revolución probabilística de finales del siglo XVIII, con Galton, Quetelet y otros. Al aunar datos, cálculos y análisis estadísticos como instrumentos de objetividad, la IA refuerza una interpretación dataísta del mundo basada en la detección de patrones y correlaciones estadísticas que no requieren de modelos conceptuales o teóricos previos. Mediante el atractivo de los datos y los análisis estadísticos en los que se basan, los procesos y resultados se postulan como imparciales al estar desprovistos de valores y aspectos normativos previos, satisfaciendo así, supuestamente, la exigencia moral de justicia.
En suma, tanto la cuestión de la supuesta objetividad de estos sistemas, como la interpretación dataísta del proyecto naturalista que conforman, son los temas centrales de esta sección. De manera más específica, y sin agotar las posibilidades, algunos temas o enfoques de exploración sugeridos son:
- Los procesos de reificación de los resultados generados por estos sistemas.
- La distinción hecho-valor en relación a la facticidad y objetividad de los conjuntos de datos utilizados en IA.
- La discusión naturalismo vs. normativismo a través de la consideración de los valores y maneras de entender el mundo presentes en el diseño de los propios sistemas.
- La adquisición de facto de un carácter normativo por parte de los criterios estadísticos y de optimización empleados.
- Las tensiones entre criterios estadísticos y éticos, por ejemplo en las diferencias entre sesgos estructurales vs. sesgos estadísticos o en las diferentes métricas de equidad (fairness metrics) existentes.
- La comparativa de los desarrollos ingenieriles actuales con las propuestas de Condorcet, Quetelet o Galton en el s. XVIII.
Sección 2: Ética Aplicada para una Inteligencia Artificial Confiable
Esta sección quiere llamar a la reflexión ética, con un énfasis en las propuestas ético-discursivas, sobre la nueva situación creada por la creciente penetración y colonización de la IA en todos los órdenes de la vida humana.
En concreto se hace necesario avanzar en tres líneas de estudio:
- Los presupuestos conceptuales en materia de ética y principios éticos utilizados en el contexto de la Inteligencia Artificial
- Las directrices y normativas internacionales y nacionales que se están proponiendo para regularla desde sistemas de regulación jurídica o de autorregulación
- La profundización desde la ética aplicada sobre los desafíos éticos a los que se están enfrentando las diferentes esferas de la vida humana y sus profesiones, por ejemplo, el periodismo, la atención en salud, la economía, la administración pública, etc.
A través de la llamada a estos trabajos se pretende avanzar en la definición de la confiabilidad en la Inteligencia Artificial, desde la perspectiva de los propios afectados. El objetivo es avanzar en la definición de confiabilidad desde sus expectativas sobre la IA a corto y medio plazo para evitar las consecuencias negativas que está produciendo o puede llegar a producir el diseño, producción y uso de la misma. En definitiva, se trata de concretar qué significa y cómo se puede garantizar la acción y supervisión humanas en el diseño, uso y aplicación de la inteligencia artificial.
El grupo promotor de esta sección es el grupo que lleva a cabo el proyecto coordinado de investigación del Plan Estatal I+D+I “Ética discursiva y democracia ante los retos de la Inteligencia Artificial” (EDDERIA) [PID2019-109078RB-C21 y PID2019-109078RB-C22 financiado por MCIN/ AEI /10.13039/501100011033] de la Universitat Jaume I y la Universitat de València. Se admitirán aportaciones de otras personas ajenas a este grupo.
En cualquier caso, todas las aportaciones serán sometidas a revisión ciega por pares. El número recibirá contribuciones en cualquiera de los idiomas aceptados por Daimon. Además de aportaciones provenientes de la filosofía, también se aceptarán colaboraciones provenientes de las ciencias sociales, las humanidades y de otros ámbitos científicos como las ciencias de la computación, siempre que su contenido esté dirigido al público de Daimon.
En la página electrónica de la revista se han abierto dos secciones especiales destinadas al envío de trabajos originales sobre este tema. Las propuestas serán remitidas a una de las dos secciones. Los editores se reservan la decisión de situar las aportaciones revisadas en la sección que sea más adecuada para la edición final del monográfico. Secciones:
- ¿El aprendizaje automático como un nuevo positivismo dataista?
- Ética Aplicada para una Inteligencia Artificial Confiable
El plazo de envío de originales para su evaluación y posible publicación finalizará el día 31 de marzo de 2023.
Además de trabajos en forma de Artículos, también se podrán enviar Notas críticas y Reseñas de libros, ateniéndose a las instrucciones habituales que figuran en las Normas para Autores (https://revistas.um.es/daimon/about/submissions).