Daimon. Revista Internacional de Filosofía, nº 90 (2023), pp. 147-161
ISSN: 1130-0507 (papel) y 1989-4651 (electrónico) http://dx.doi.org/10.6018/daimon.551741
Licencia Creative Commons Reconocimiento-NoComercial-SinObraDerivada 3.0 España (texto legal): se pueden copiar, usar, difundir, transmitir y exponer públicamente, siempre que: i) se cite la autoría y la fuente original de su publicación (revista, editorial y URL de la obra); ii) no se usen para fines comerciales; iii) se mencione la existencia y especificaciones de esta licencia de uso (CC BY-NC-ND 3.0 ES)
Sobre los diferentes ritmos del derecho y la Inteligencia Artificial. La desincronización como patología social
On the different rhythms of law and Artificial Intelligence
De-synchronization as a social pathology
CÉSAR ORTEGA-ESQUEMBRE*
Resumen. El objetivo de este trabajo es estudiar el desajuste temporal que se produce, dentro de la Unión Europea (UE), entre las innovaciones tecnológicas en materia de Inteligencia Artificial y sus regulaciones jurídicas1. Para ello se parte de una tesis formulada por Hartmut Rosa, sociólogo alemán cercano a la Teoría Crítica de la sociedad, de acuerdo con la cual las estructuras temporales de la política no resultan hoy ya compatibles con el ritmo de cambio de algunas esferas sociales. Esto produce una nueva forma de patología social, que Rosa denomina “riesgos de la desincronización”, y cuyo efecto más preocupante hay que buscar en el desplazamiento de los procesos de toma de decisiones desde el ámbito de la política hacia otros ámbitos de la sociedad más rápidos, fundamentalmente el mercado. Para analizar esta problemática se reconstruye, en primer lugar, la tesis de la desincronización como patología social derivada de la aceleración. Tras ello, se hace un mapeo del proceso de legislación en materia de IA a nivel de la UE. Por último, se defiende la tesis de que este proceso legislativo, ciertamente muy admirable, ha llegado sistemáticamente tarde.
Palabras clave: desincronización, Inteligencia Artificial, Unión Europea, aceleración, derecho
Abstract. The aim of this paper is to study the temporal de-synchronization that occurs, within the European Union (EU), between technological innovations in Artificial Intelligence and its legal regulations. To do that, I base on a thesis formulated by Hartmut Rosa, a German sociologist close to the Critical Theory of society, according to which the temporal structures of politics are no longer compatible with the pace of change in some others social spheres. This produces a new form of social pathology, which Rosa calls “risks of de-synchronisation”, and whose most worrying effect must be sought in the displacement of decision-making processes from the political sphere to faster areas of society, fundamentally the market. To analyze this problem, I first reconstruct the thesis of desynchronization as a social pathology derived from acceleration. Then, I map the AI legislation process at EU level. Finally, I defend the thesis that this legislative process, which is certainly very admirable, has consistently come too late.
Keywords: de-synchronisation, Artificial Intelligence, European Union, acceleration, law
Recibido: 19/12/2022. Aceptado: 04/06/2023.
* Profesor Ayudante Doctor en el Departamento de Filosofía de la Universidad de Valencia. Correo electrónico: cesar.ortega@uv.es Líneas de investigación: teoría crítica de la sociedad, filosofía social, filosofía política. Publicaciones recientes: “La prehistoria filosófica de la Teoría Crítica como crítica de la racionalización socio-cultural. ¿Patologías sociales o patologías culturales?”. Anales del Seminario de Historia de la Filosofía. 39 -1, 2022, pp. 157 – 168; Habermas ante el siglo XXI. Madrid, Tecnos, 2021.
1 Este estudio se inserta en el Proyecto Coordinado de Investigación Científica y Desarrollo “Ética discursiva y Democracia ante los retos de la Inteligencia Artificial” PID2019-109078RB-C21 y PID2019-109078RB-C22 financiado por MCIN/ AEI /10.13039/501100011033. Asimismo, quisiera agradecer a los profesores Jesús Conill, Agustín Domingo, Juan Carlos Siurana, Pedro Jesús Teruel y José Luís López los estimulantes comentarios que formularon a la primera versión de este trabajo, así como a los dos revisores anónimos por sus sugerencias de mejora.
Introducción
Es conocida la historia de los denominados “ludditas”. Entre 1811 y 1812, algunos condados centrales de Gran Bretaña, entre ellos Yorkshire, Lancashire o Nottinghamshire, vieron nacer un curioso movimiento que tomó su nombre de Ned Ludd, un personaje legendario cuya identidad no es del todo cierta. Los integrantes de este movimiento, en su mayoría trabajadores artesanales del sector textil, reaccionaron de manera organizada y más o menos violenta contra el proceso de industrialización, cuyo símbolo más diabólico veían encarnado en las máquinas textiles de las incipientes factorías. Muy al contrario de lo que solamente medio siglo después Marx establecería como condición sine qua non para la emancipación del ser humano, estas “víctimas del progreso” no veían en el desarrollo de las fuerzas productivas precisamente la avanzadilla de la evolución social (Marx, 1970), sino más bien el camino directo hacia la decadencia de sus tradicionales, y muy queridas, formas de vida. Por eso la acción principal de su lucha fue la destrucción sistemática de telares automáticos.
Que los procesos de racionalización social resultaron finalmente un estadio necesario en el camino hacia la emancipación es algo tan evidente, que hoy se utiliza el término “luddita” en un sentido puramente despectivo2. A mi modo de ver, esta utilización del término no resulta, sin embargo, enteramente justa. La intuición que aquellos primitivos críticos del progreso solamente pudieron articular en forma muy tosca no deja de contener el germen de una idea de la que aún hoy podemos aprender algo. Pues lo cierto es que los ludditas no eran sujetos esencialmente tecnófobos, sino más bien ciudadanos con la conciencia de clase suficiente como para saber que únicamente podrían aceptar la introducción de las nuevas técnicas de producción cuando éstas estuvieran al servicio de la satisfacción general de las necesidades (Jones, 2006). Cuestionarse al servicio de qué fines se encuentran los avances técnicos, así como los posibles peligros que pueda entrañar una aplicación precipitada, no es desde luego una extravagancia propia de artesanos enloquecidos, sino algo que cada generación debería practicar de manera cuidadosa.
La dialéctica entre los progresos técnicos y los movimientos de reacción ha resultado una constante a lo largo de las cuatro hornadas de la revolución industrial —mecanización; producción en masa y electricidad; informática y automatización; y espacios ciberfísicos e Inteligencia Artificial (IA)—. En esta dialéctica, los movimientos de reacción no siempre han ocupado el espectro político que denominamos “conservador”, sino que son y han sido muchos los críticos del progreso que han motivado sus posturas en convicciones estrictamente progresistas. Basta echar un vistazo, por ejemplo, a los “críticos del crecimiento” que se encuentran normalmente a la izquierda de los partidos socialdemócratas en los parlamentos europeos. Sea como fuere, es evidente que la cuarta revolución industrial, también denominada Industria 4.0, ha reeditado esta dialéctica. Y acaso de una forma más extrema que nunca, pues parece existir consenso sobre el hecho de que algunos de los elementos que componen esta nueva hornada, especialmente los que tienen que ver con la IA, están transformando nuestra forma de vida de una manera nunca vista hasta el momento.
Preguntarse por las posibles consecuencias adversas de la IA no constituye un acto de reacción antimoderna, sino un ejemplo de ese venerable ejercicio de discernimiento al que solemos dar el nombre de “crítica”. Ciertamente, nuestro Zeitgeist o espíritu de la época parece ser tan entusiasta con respecto a los avances que traerán los sistemas de IA —muchos de los cuales, sin duda, constituyen ya un progreso incontrovertible—, que hoy uno apenas puede plantearse la pregunta sobre la conveniencia de esos avances sin ser tachado inmediatamente de reaccionario. Que la respuesta a esta pregunta no es en todos los casos afirmativa es algo que puede constatarse observando un hecho muy sencillo: todo el mundo reconoce que la introducción de sistemas de IA en nuestras vidas requiere el establecimiento de ciertas normas —de tipo ético y/o jurídico— que lo limite y regule.
Ahora bien, los ordenamientos normativos no siempre transcurren a la misma velocidad que los progresos tecnológicos, de suerte que suelen darse casos en los que aparecen nuevas tecnologías para cuya regulación no tenemos a disposición normas operativas3. El desarrollo de la IA, muy particularmente, se encuentra acelerado hasta un punto tal, que los procesos legislativos de creación de derecho están condenados a irle siempre a la zaga. El objetivo de este trabajo es estudiar el desajuste temporal que se produce, dentro de la Unión Europea (UE), entre las innovaciones tecnológicas en materia de IA y sus regulaciones jurídicas. Para ello voy a partir de una tesis formulada por Hartmut Rosa, sociólogo alemán cercano a la llamada Teoría Crítica, de acuerdo con la cual las estructuras temporales de la política, es decir, el tiempo requerido para la toma de decisiones políticas traducibles al lenguaje del derecho, no resulta ya compatible con el ritmo de cambio de algunas esferas sociales. Esto produce una curiosa forma de patología social, que Rosa denomina “riesgos de la desincronización”, y cuyo efecto más preocupante hay que buscar en el desplazamiento de los procesos de toma de decisiones desde el ámbito de la política hacia otros ámbitos de la sociedad más rápidos. Para analizar esta problemática daré tres pasos. En primer lugar, reconstruiré la tesis de la desincronización como patología social derivada de la aceleración. Tras ello, haré un mapeo del proceso de legislación en materia de IA a nivel de la UE. Por último, defenderé la tesis de que este proceso legislativo, ciertamente muy admirable y sin duda en consonancia con los valores y principios supremos de la Unión, ha llegado tarde.
1. La desincronización como patología social
En su estudio sobre la aceleración social, Hartmut Rosa parte de la idea de que nuestra forma de estar en el mundo depende de las “estructuras temporales” de la sociedad en que vivimos. Sobre la base de esta idea, su tesis central es que la modernidad occidental está sometida a un proceso creciente de aceleración social, proceso que en la modernidad tardía –la que arranca aproximadamente en los años setenta del siglo XX– supera un umbral tal que comienza a ocasionar efectos patológicos (Rosa, 2005; Ortega-Esquembre, 2021). En términos abstractos, la aceleración puede ser entendida como un «incremento en cantidad por unidad de tiempo (o, lógicamente equivalente, una reducción de la cantidad de tiempo para cantidades fijas)» (Rosa, 2005). Esta definición no resulta sin embargo operativa para apresar las múltiples formas de aceleración social empíricamente observables. Para resolver este déficit, Rosa propone distinguir tres dimensiones, que permanecen por lo demás conectadas entre sí: la aceleración técnica, la aceleración del cambio social y la aceleración del ritmo de vida.
Los ejemplos paradigmáticos de la aceleración técnica se encuentran en las transformaciones de los medios de transporte, en las comunicaciones y en la producción de bienes. Con la aceleración de los medios de transporte —primero con el ferrocarril y más tarde con el surgimiento del avión y el automóvil—, la conciencia del espacio sufrió una importante transformación. El espacio se convierte, por así decirlo, en una mera función del tiempo: tardamos tantas horas en llegar de un país a otro, en atravesar un país de norte a sur, en recorrer una ciudad. Este proceso ha sufrido a su vez un impulso de consecuencias incalculables con la revolución digital y la transmisión electrónica de información. Por otro lado, la aceleración masiva de la producción ha hecho posible a juicio de Rosa satisfacer el imperativo de la sociedad capitalista, es decir, la conversión de los objetos en mercancías que se vuelven obsoletas cada vez más rápidamente.
En segundo lugar, la aceleración del cambio social tiene que ver con el mayor ritmo de cambio en prácticas y orientaciones de acción. Para definir esta forma de aceleración, Rosa se sirve del concepto, acuñado por Hermann Lübbe, de “contracción del presente”, siendo el presente un periodo temporal en el que las experiencias y expectativas permanecen estables (Lübbe, 1988). La contracción del presente se aprecia de forma especialmente clara desde el punto de vista de los ritmos generacionales: si en las sociedades de la modernidad temprana los cambios en las prácticas y orientaciones de acción —por ejemplo, los cambios de profesión— ocurrían solo a lo largo de varias generaciones, en la modernidad clásica estos cambios pasan a sincronizarse con la secuencia de generaciones. En la modernidad tardía o postmodernidad, en tercer lugar, nos encontramos con un ritmo de cambio intrageneracional. Tres son las consecuencias más preocupantes de esta contracción del presente: en primer lugar, el rápido deterioro del acervo de saber cultural; en segundo lugar, la creciente brecha intergeneracional que se abre con la creación de mundos de la vida generacionales totalmente extraños entre sí; en tercer lugar, la creación de una pendiente resbaladiza de cambio social a la que los sujetos no pueden sustraerse más que al precio de quedar fuera de la carrera —y el consecuente incremento de trastornos de ansiedad, estrés o depresión—.
En tercer lugar, la aceleración del ritmo de vida es entendida como un incremento de episodios de acción por unidad de tiempo. Objetivamente, la aceleración del ritmo de vida implica una condensación de episodios de acción —por ejemplo, el acortamiento del tiempo dedicado a comer, la reducción de las horas de sueño o la implementación de multitareas—. Subjetivamente, este proceso se expresa en la creciente experiencia de terror ante la posibilidad de perder el tiempo y la sensación de no tener nunca tiempo suficiente para emprender lo que se considera “realmente importante”.
Rosa se esfuerza por analizar algunas de las consecuencias más preocupantes de estos procesos de aceleración social. La última ola de aceleración, que tuvo lugar a finales de los años setenta, conduce a una transformación de las formas individuales y colectivas de identidad. Los elementos que caracterizan los diagnósticos de las identidades postmodernas tienen que ver con esto: la disolución de estructuras del sujeto antes estables en favor de una identidad abierta, experimental y constantemente transitoria. Este estado situacional de la identidad se traslada, como segunda consecuencia patológica de los procesos de aceleración, al ámbito de la política. Y éste es justamente el aspecto de mayor relevancia para los propósitos de nuestro trabajo. Si en la modernidad clásica los tiempos requeridos para la institucionalización de la formación de la voluntad política, la toma de decisiones democrática y su implementación eran compatibles con el ritmo de los desarrollos sociales, de suerte que el sistema político disponía de tiempo suficiente para tomar decisiones sobre cómo organizar estos desarrollos, con la última ola de aceleración esto cambia, y la posibilidad del auto-control social queda puesta en duda. Surge así una forma de patología social nunca vista hasta el momento, a la que Rosa da el nombre de “riesgos de la desincronización”. Efectivamente, es claro que la temporalidad intrínseca a la política deliberativa solo puede ser acelerada hasta cierto punto —uno no puede, por así decirlo, acelerar el propio acto de argumentación racional en la esfera pública—. Sin embargo, los desarrollos en otros terrenos, como la economía o las nuevas tecnologías, que requieren ser legislados por dicha política, no están sujetos a estas limitaciones temporales. En ellos el proceso de aceleración opera de una forma prácticamente incontrolable.
¿En qué sentido, sin embargo, podemos decir que esta desincronización constituye una patología social? Aunque, ciertamente, existe un gran debate sobre el significado preciso del término “patología social” (Honneth, 2011; Neuhouser, 2022), a mi modo de ver podemos hablar de ellas en sentido estricto únicamente cuando se trata de prácticas o dinámicas sociales que reúnen, al menos, los siguientes rasgos: ser inducidas por el propio sistema social, y no por agentes externos o por elementos internos individuales; poseer una dinámica claramente identificable, que les ofrezca un carácter permanente en lugar de esporádico; y tener como consecuencia no solamente una distribución injusta de recursos, sino una paralización de la posibilidad de desarrollar formas de vida autorrealizadas y autodeterminadas. Parece claro que la desincronización entre las esferas de la política y el desarrollo tecnológico reúne estas características. En primer lugar, el proceso de desincronización es la consecuencia de una dinámica interna al propio sistema social, a saber, la permanente tendencia a la aceleración. En segundo lugar, este proceso no constituye un fenómeno esporádico, sino un rasgo permanente de dicha dinámica sistémica. Por último, la desincronización no tiene como resultado, o al menos no prioritariamente, una distribución material asimétrica, sino un impedimento sistemático para la consecución de vidas logradas. Al afirmar que la desincronización constituye una patología social, no quiero decir que cualquier desajuste temporal entre dos esferas sociales diferentes sea necesariamente patológico. Naturalmente, existen esferas más rápidas que otras, y es natural que la creación de derecho acontezca después de la aparición de fenómenos nuevos que reclaman su regulación. Lo patológico, esto es lo que quiero defender, es que el ritmo de aceleración de una de esas esferas, en este caso los avances en materia de IA, sea hasta tal punto mayor que el ritmo de los procesos de creación de derecho, que sus “regulaciones” sean asumidas finalmente por una esfera no siempre sometida al control democrático, a saber, el mercado4. Sea como fuere, Aunque Rosa ha analizado algunos de los corolarios patológicos de este proceso en obras posteriores (Rosa, 2009; 2016a), a nosotros nos interesa conectar ahora el diagnóstico sobre la desincronización con la rápida implementación de los sistemas de IA y los procesos de regulación jurídica que se dan en la UE.
2. La legislación europea sobre Inteligencia Artificial
Antes de analizar la legislación vigente en la UE en materia de IA, tal vez convendría ofrecer una breve caracterización de esta tecnología, así como de sus beneficios y riesgos presentes y potenciales. En el denominado “Libro Blanco sobre la Inteligencia Artificial”, elaborado por la Comisión Europea en el año 2020, se ofrece la siguiente definición:
Los sistemas de IA son programas informáticos (y posiblemente también equipos informáticos) diseñados por seres humanos que, dado un objetivo complejo, actúan en la dimensión física o digital mediante la percepción de su entorno mediante la adquisición de datos, la interpretación de los datos estructurados o no estructurados, el razonamiento sobre el conocimiento o el tratamiento de la información fruto de estos datos y la decisión de las mejores acciones que se llevarán a cabo para alcanzar el objetivo fijado (COM (2020) 65 final (19-02-2020): 20).
La IA permite que operaciones o decisiones tradicionalmente ejecutadas por seres humanos sean emprendidas por algoritmos, que se “nutren” de datos recogidos de su entorno a fin de obtener outputs en principio más racionales. Los ejemplos son muy numerosos, y van desde los vehículos sin conductor hasta la recomendación de canciones en plataformas de música online, pasando por la emisión de diagnósticos médicos, la toma de decisiones en los procesos de selección de candidatos para un puesto de trabajo o las técnicas de reconocimiento facial en tiempo real. Las ventajas actuales y potenciales de la utilización de esta nueva tecnología son evidentes, y no es descabellado afirmar que se trata del instrumento más importante del que dispondremos a corto plazo para afrontar retos tan apremiantes como el diagnóstico temprano de enfermedades crónicas, el cambio climático o la seguridad ciudadana.
Aunque negar estas virtualidades sería propio, naturalmente, de un neo-luddismo más bien romántico y reaccionario, lo cierto es que el hecho de que nuestra interacción con el medio y con el resto de seres humanos quede crecientemente mediada por algoritmos presenta riesgos y problemas de magnitud comparable a sus ventajas (Mittelstadt et al, 2016). En primer lugar, es evidente que los algoritmos son diseñados por personas, y aunque el supuesto punto fuerte de estos sistemas es que están libres de los sesgos típicos del ser humano5, en principio no hay razón para creer que los programadores no trasmitirán, consciente o inconscientemente, sus propios prejuicios al sistema diseñado. En segundo lugar, incluso cuando el diseño y los parámetros sean transparentes y aceptados, ello no garantiza la consecución de decisiones éticamente aceptables, como se puede ver, por ejemplo, en algoritmos que discriminan inadvertidamente a ciertos grupos sociales marginados (Mittelstadt et al, 2016). Los sistemas algorítmicos no son, en una palabra, éticamente neutrales, lo cual exige, como dice Adela Cortina, reflexionar sobre «cómo orientar el uso humano de estos sistemas de forma ética» (Cortina, 2019).
Según Tsamados et al, son seis fundamentalmente los problemas éticos planteados por los algoritmos. En primer lugar, el problema de la “evidencia no concluyente”, es decir, el hecho de que los algoritmos produzcan outputs que no se basan en conexiones causales, sino en meras correlaciones estadísticas identificadas entre los datos disponibles. Este hecho puede conducir a acciones injustificadas. En segundo lugar, el problema de la “evidencia impenetrable”, que tiene que ver con la opacidad que caracteriza a los algoritmos a la hora de tomar decisiones, lo cual puede traducirse en la inexistencia de una “rendición de cuentas”. En tercer lugar, el problema de la evidencia errónea, que puede conducir al surgimiento de sesgos. En cuarto lugar, el problema de los “resultados injustos”, que es la consecuencia de que los algoritmos realicen su “minería de datos” sin tener en cuenta criterios de tipo ético como la no discriminación por sexos o estratos sociales. En quinto lugar, el problema de los “efectos transformadores”, es decir, el riesgo de que los sistemas algorítmicos obstaculicen la autonomía humana, por ejemplo prefigurando las decisiones humanas mediante el envío de información política dirigida y segmentada en función de los datos generados por cada persona. En sexto y último lugar, el problema de la trazabilidad. La falta de transparencia y explicabilidad de los algoritmos dificulta el trazado de la responsabilidad moral/jurídica que se deriva de las decisiones adoptadas (Tsamados et al, 2021).
Ciertamente, la literatura sobre los problemas éticos derivados de la IA es muy prolija6. Pero a nosotros no nos interesa analizar en detalle estos problemas, sino más bien estudiar la forma en que la “conciencia de riesgo” por ellos suscitada ha empujado a la UE a establecer un marco jurídico común sobre la materia. La preocupación de la UE por esta cuestión se hizo patente, por ejemplo, en la constitución del “Comité especial sobre Inteligencia Artificial en la Era digital” puesto en marcha por el Parlamento Europeo en septiembre de 2020. Este comité se ha venido reuniendo periódicamente desde entonces, y en abril de 2022 emitió el llamado “European Parliament final Report on Artificial Intelligence in a digital age” (2020/2266(INI)).
En abril de 2021, la Comisión Europea publicó un documento que establece las reglas que deben regir la producción, comercialización y uso de sistemas de IA dentro de la UE. Este documento constituye el primer marco legal unificado sobre IA que se lleva a cabo a nivel planetario, y busca hacer de Europa el centro mundial de una IA “digna de confianza” (trustworthy) (COM (2021) 206 final). Pero este marco constituye el resultado último de un proceso de regulación que se inició bastante tiempo antes. Para los objetivos de este trabajo, resulta especialmente importante rastrear los orígenes de este proceso.
Si no me equivoco, el primer documento de la Comisión que abordó sistemáticamente la necesidad de una regulación jurídica de la IA —dejando de lado documentos que, de forma tangencial, trataron algunos de los aspectos vinculados a esta nueva tecnología, como las regulaciones en materia de automatización de la fuerza de trabajo y digitalización (COM (2016) 180 final)— es la denominada “Estrategia Europea para la IA”, publicada en abril de 2018 (COM (2018) 237 final). En este texto ya se llama la atención sobre la necesidad de trabajar en un marco europeo sólido que permita «aprovechar al máximo las oportunidades que brinda la IA y abordar los nuevos retos que conlleva». Resulta muy significativo que ya en la primera página se advierta que dicho marco, que naturalmente no debe obstaculizar, sino favorecer una innovación tecnológica que permita a Europa jugar un rol relevante en el panorama internacional, debe estar basado en los valores y derechos fundamentales de la Unión. La regulación en materia de IA debe ser coherente con los valores enunciados en el Artículo 2 del Tratado de la Unión Europea, es decir, con los valores del respeto hacia la dignidad humana, la libertad, la igualdad, el pluralismo, la tolerancia o la solidaridad. Asimismo, dicha regulación debe garantizar la correcta protección de los derechos reconocidos en la Carta de los Derechos Fundamentales de la Unión Europea.
Aunque este documento supone sin duda una declaración de intenciones, lo cierto es que no se trata más que de una estrategia sin especificaciones concretas, y, obviamente, también sin carácter vinculante. La Estrategia Europea para la IA describe el camino a seguir para lograr «poner al servicio del progreso humano el potencial de la IA» (COM (2018) 237 final: 22). Pocos meses después de la publicación de esta Estrategia, la Comisión presentó un plan coordinado con los Estados miembro para armonizar estrategias (COM (2018) 795 final), a lo que siguió la redacción, por parte del Grupo de Expertos de Alto Nivel en IA de la UE, de unas directrices no vinculantes para una IA confiable, seguido de una comunicación de la Comisión en la que se acogían favorablemente dichas directrices (COM (2019) 168 final). Tras la publicación de todos estos documentos, en febrero del año 2020 apareció el denominado “Libro Blanco sobre la IA”, sin duda uno de los textos más importantes para comprender el enfoque ético-jurídico de la UE en relación con la IA (COM (2020) 65 final).
Dos son los conceptos fundamentales en torno a los que se articula el Libro Blanco: “excelencia” y “confianza”. Su objetivo es formular una serie de alternativas políticas para alcanzar un modelo de IA que, promoviendo el desarrollo y adopción de esta nueva tecnología por parte de ciudadanos, empresas y administraciones públicas, así como la inversión pública y privada, minimice sus riesgos potenciales y sea consistente con el orden normativo europeo. En este sentido, se afirma que uno de los obstáculos principales para la implementación de la IA es la falta de un marco regulador vinculante para todos los Estados miembro. Solo una regulación jurídica a escala de la Unión, tal es la convicción, puede prevenir los riesgos considerados más inminentes, entre los que se menciona la fragmentación del mercado interior europeo, la vigilancia masiva por parte de las autoridades estatales, las cuestiones vinculadas con la responsabilidad civil7, la inseguridad, la desprotección de los datos personales, la falta de privacidad y la discriminación. Aunque, obviamente, muchas de las normas ya existentes en la UE, por ejemplo el Reglamento General de Protección de Datos, pueden resultar operativas para combatir algunos de estos riesgos, la tesis de la Comisión es que resulta imprescindible la creación de una legislación específica sobre IA.
Tras la publicación del Libro Blanco, la Comisión abrió un proceso de consulta pública a todos los stakeholders, incluidas empresas, administraciones públicas, grupos de investigación y ciudadanos particulares. Esta consulta estuvo abierta entre el 19 de febrero y el 14 de junio de 2020, y recibió un total de 1215 contribuciones. Teniendo en cuenta las respuestas ofrecidas, así como algunas resoluciones adoptadas entretanto por el Parlamento Europeo8, el 21 de abril de 2021 la Comisión publicó su “Proposal for a regulation of the European Parliament and of the Council laying down harmonised rules on Artificial Intelligence (Artificial Intelligence Act) and amending certain Union legislative acts” (COM (2021) 206 final). Este documento constituye la propuesta para un marco jurídico común y vinculante para todos los Estados miembro de la UE en materia de IA.
Este marco establece normas de obligado cumplimiento para el uso y la comercialización de sistemas de IA, normas que se aplican a proveedores que comercializan estos sistemas dentro la UE, independientemente de si están establecidos en la Unión o en un país tercero, así como a los usuarios de sistemas de IA localizados dentro de nuestras fronteras. La regulación adopta un enfoque basado en el riesgo (risk-based approach), y el punto de partida es que la intervención debe limitarse a los casos que presentan riesgos claros. En este sentido, se diferencian tres niveles de riesgo: aquellos sistemas de IA que crean un “riesgo inaceptable”, aquellos que crean un “riesgo alto”, y aquellos que crean un “riesgo bajo” o “mínimo”. Mientras que los primeros quedan estrictamente prohibidos, en la medida en que contravienen los valores de la Unión, los segundos quedan sometidos a una serie de restricciones específicas en relación con ciertos usos. Para los sistemas que entrañan un riesgo bajo o mínimo, en tercer lugar, se recomienda diseñar y adoptar códigos de conducta ética.
Con respecto al primer tipo, se establece que quedan prohibidos los siguientes sistemas de IA: aquellos que «implementan técnicas subliminales más allá de la conciencia de una persona con el fin de distorsionar materialmente su comportamiento de una forma que causa o es probable que cause daños físicos o psicológicos»; aquellos que «explotan cualquiera de las vulnerabilidades de un grupo específico de personas debido a su edad, minusvalía física o mental, con el fin de distorsionar materialmente el comportamiento de una persona perteneciente a ese grupo»; aquellos sistemas «establecidos por una autoridad pública para la evaluación o clasificación de la fiabilidad de una persona natural durante cierto periodo de tiempo basándose en su comportamiento social o sus características personales conocidas o predichas» ; y aquellos «sistemas de identificación biométrica remota en tiempo real en espacios de acceso público para el propósito de la aplicación de la ley».
Con respecto al segundo tipo, la Comisión ha publicado un anexo donde aparecen detallados los sistemas considerados de alto riesgo. Entre ellos se incluyen los siguientes: sistemas de identificación biométrica y categorización de personas naturales; sistemas destinados a determinar la idoneidad de candidatos para el disfrute de ayudas y servicios sociales; o sistemas utilizados por autoridades judiciales para detectar el estado emocional de una persona natural. Estos sistemas están permitidos siempre y cuando cumplan con una serie de requisitos obligatorios, para lo cual se establece un sistema de gestión de riesgo y de evaluación del seguimiento de las normas.
Asentado en este enfoque, el reglamento detalla un sistema de gobernanza a nivel de la Unión y a nivel nacional. Siguiendo el espíritu del principio de subsidiariedad, se crea un Equipo Europeo de Inteligencia Artificial, cuyo objetivo es «proveer consejo y asistencia a la Comisión con el fin de contribuir a la cooperación efectiva entre las autoridades supervisoras nacionales y la Comisión». En todo caso, las normas propuestas serán aplicadas a través de un sistema de gobernanza nacional, construyéndose dicho sistema sobre la base de estructuras y autoridades ya existentes. Corresponde pues a los Estados miembro establecer las reglas específicas sobre las sanciones aplicables a la infracción de las normas recogidas en este documento, así como asegurar su correcto cumplimiento. No obstante, la Comisión establece una serie de multas administrativas a las que necesariamente deben estar sujetas determinadas infracciones.
Una vez analizado brevemente el contenido del marco jurídico común europeo sobre IA, así como el histórico de documentos europeos que han conducido a dicho marco, ahora estamos en condiciones de estudiar, utilizando para ello la categoría de “desincronización” desarrollada en la primera sección, la problemática relación entre los ritmos temporales de este proceso de legislación y los ritmos de la innovación tecnológica en materia de IA.
3. Comparativa entre dos ritmos temporales
Hemos visto que, si bien la IA está presente en documentos y planes presupuestarios europeos desde hace algunos años, el primer documento que aborda de forma sistemática la necesidad de una regulación jurídica de esta tecnología está fechado en abril de 2018. Aunque, ciertamente, la UE es pionera en esta regulación, llama la atención que la legislación en materia de IA haya llegado tan tarde, sobre todo si se tiene en cuenta que, en sentido estricto, no ha habido legislación hasta abril de 2021. ¿Cuándo apareció, así pues, la IA?
Parece existir consenso académico en torno a la idea de que el primer gran ejemplo de sistema de IA es el llamado “Logic Theorist”, un programa diseñado en 1956 por Allen Newell, John Clifford Shaw y Herbert Simon que era capaz de hallar demostraciones de teoremas de lógica pura. Aunque éste fue el primer hito significativo de la IA, el nacimiento de la disciplina suele ubicarse en la celebración, también en 1956, del famoso congreso organizado por John McCarthy bajo el título “The Dartmouth Summer Research Project on Artificial Intelligence”. Por lo demás, la investigación en torno a la pregunta de si las máquinas son capaces de pensar se retrotrae todavía más, al menos hasta el célebre artículo de Alan Turing publicado en 1950 con el título “¿Puede pensar una máquina?” (Copeland, 1966: cap. 1). Durante los años cincuenta se desarrollan también sistemas capaces de participar en diversos juegos, como el ajedrez o las damas, con una habilidad muchas veces superior a la humana (Caparrini, 2018).
Ante la presencia de esta impresionante explosión de innovaciones en IA acontecida durante los años cincuenta y sesenta, uno podría preguntarse cómo es posible que hayamos tenido que esperar más de medio siglo para contar con una regulación jurídica sólida en Europa. Esta pregunta resultaría, sin embargo, injusta, pues el proceso de desarrollo de la IA no se ha mantenido en los niveles de aceleración vistos en sus orígenes. A comienzos de los años 70, los fondos para la investigación en IA, así como el interés de los departamentos universitarios, habían sufrido una fuerte caída. Este proceso de desaceleración, que duró hasta 1980, se conoce con el nombre de “the first AI Winter”. A comienzos de los años ochenta, el interés por la IA vuelve a resurgir de la mano de la creación de los llamados “sistemas expertos”. Tras un nuevo periodo de desaceleración entre 1987 y 1993, conocido como “the second AI Winter”, la IA se adentra en una especie de “nueva primavera” que dura hasta nuestros días, y cuyos impulsos fundamentales hay que buscar en el surgimiento de los llamados “agentes inteligentes” capaces de comunicarse con el ser humano en un lenguaje natural, el desarrollo de las “redes neuronales artificiales”, el “Machine Learning” y, ya durante la segunda década del siglo XXI, las técnicas de entrenamiento de algoritmos y la “minería de datos” basada en las nuevas tecnologías de la comunicación (Foote, 2016).
Aunque la existencia de estadios de ralentización de la IA explica que no se desarrollaran marcos jurídicos durante las últimas décadas del siglo XX, resulta llamativo que la “nueva primavera” haya operado a la intemperie de cualquier paraguas normativo. Siguiendo la tesis de Rosa, creo que la desincronización entre el proceso de creación de derecho y el proceso de innovación tecnológica en materia de IA no es una mera casualidad, sino algo que tenía que ocurrir dada la diferencia de los ritmos temporales de cada esfera. Esta tesis, sin embargo, no debería conducir a la asunción de una especie de filosofía de la historia de carácter negativo o catastrofista. Que la desincronización sea más o menos inevitable –como hemos visto más arriba, normalmente no ocurre que los fenómenos necesitados de regulación jurídica surjan al mismo tiempo que dicha regulación– no significa que la sociedad esté conducida necesariamente a una patología social, pues el rasgo patológico solamente se da cuando el grado de diferencia en los ritmos temporales es tan alto, que nuevas esferas más rápidas (mercado) aparecen para sustituir a otras menos rápidas (legislación) en las tareas de “regulación”.
La diferencia de los ritmos temporales en las esferas de la legislación y las innovaciones tecnológicas es algo que podemos observar sin muchas dificultades. El progreso tecnológico posee unas dinámicas temporales concretas, que dependen de factores tan diversos como el éxito en la formación educativa de talentos, las inversiones de los sectores público y privado o el cambio en las exigencias de la industria. Por su parte, el proceso de creación de derecho posee también su propia dinámica temporal. Antes de que un parlamento pueda adentrarse en el proceso de legislación sobre un determinado asunto han de ocurrir muchas cosas. En primer lugar, hace falta que exista en la sociedad una conciencia suficiente sobre la relevancia de dicho asunto; es decir, hace falta que la opinión pública tematice ese asunto como algo que debería ser regulado jurídicamente. En segundo lugar, hace falta desde luego que los legisladores dispongan de los conocimientos técnicos suficientes como para tomar decisiones suficientemente fundadas, lo cual exige, por ejemplo, la creación de comisiones de expertos. Por último, es preciso ponerse de acuerdo sobre el contenido y el alcance de dicha legislación9.
Estos tres procesos no son algo que pueda acelerarse sin más. Uno no puede acortar los tiempos necesarios para que la opinión pública adquiera la conciencia de que un determinado fenómeno es lo suficientemente importante como para ser regulado jurídicamente. De la misma manera, tampoco puede acelerar el proceso a través del cual los representantes de la soberanía, que se supone han de haber dispuesto del tiempo suficiente para informarse del fenómeno a tratar, se ponen de acuerdo sobre el contenido de una ley. El intercambio de argumentos, la elevación de pretensiones de validez que han de ser confrontadas con una refutación racional por parte de todos los afectados —o por sus representantes democráticamente elegidos— no es algo que pueda hacerse a una velocidad ilimitadamente creciente.
Cuando la velocidad de las transformaciones tecnológicas es tan apabullantemente superior a la velocidad de los procesos de creación de derecho, la desincronización ocasionada puede tener como consecuencia una progresiva migración de las tareas supuestamente propias de la segunda esfera hacia terceras esferas más rápidas. Cuando ello ocurre, entonces ya no son las leyes creadas por un parlamento soberano, sino las leyes de la oferta y la demanda, las leyes de la revalorización del capital de las grandes multinacionales tecnológicas, las que “regulan”, por así decirlo, los avances.
Ciertamente, podríamos pensar que una posible solución para este problema residiría en que esta migración no fuera hacia la esfera del mercado, sino hacia una cuarta esfera que, tal vez, podría asumir tareas regulatorias a una velocidad mayor que la de la esfera legislativa. Esta cuarta esfera podría ser la de una sociedad civil éticamente articulada, en la que podríamos incluir también la propia esfera mercantil (Conill, 2013; García-Marzá, 2013)10. La auto-obligación que nos ofrecen las consideraciones morales es absolutamente central también en el terreno de la IA, y existen razones para pensar que este proceso podría resultar más ágil que el de la regulación jurídica. Ahora bien, aunque la ética ofrece herramientas fundamentales para abordar el problema de las consecuencias indeseables derivadas de la IA, sobre todo porque la propia regulación jurídica está inspirada por valores y principios de naturaleza moral, creo que sería un error considerar que esta esfera puede sustituir sin más a la esfera legislativa en este terreno. En primer lugar, es evidente, como ha mostrado Jürgen Habermas (2010), que la institucionalización de normas jurídicas es esencial a la hora de compensar los déficits cognitivos, organizacionales y motivacionales de la moral postconvencional. En segundo lugar, creo que la “mayor velocidad” de la ética sobre el derecho no es algo que podamos dar por sentado sin más. Desde luego, la regulación ética “ahorra tiempo” en lo que hace al acto de aprobación de normas. No obstante, comparte con la legislación el resto de condiciones que hacen de ésta un proceso más lento que el de las innovaciones tecnológicas: también en este caso hace falta que la opinión pública tematice el asunto como algo que debería ser regulado, y también es preciso que las personas que lo tematizan dispongan de los conocimientos técnicos suficientes como para tomar decisiones fundadas. La deliberación en el terreno moral, igual que la deliberación en el terreno jurídico, no es algo que pueda acelerare de forma ilimitada.
Conclusiones
La UE ha desarrollado un marco jurídico sobre IA sin duda garantista y comprometido con los valores, principios y derechos fundamentales sobre los que ella misma se asienta. Aunque este admirable proyecto hace de Europa el centro de una IA confiable y éticamente articulada, lo cual sin duda supone una “ventaja competitiva” (!) con respecto a otras regiones del planeta, lo cierto es que ha llegado más tarde de lo que hubiera sido deseable, y amenaza con volverse obsoleto a la misma velocidad a la que avanzan las vertiginosas innovaciones de la IA. Ciertamente, es preferible contar con una regulación ético-jurídica lenta que no contar con ninguna regulación en absoluto. Pero reconocer la necesidad de regulación no significa adoptar una postura reaccionaria sobre el objeto a regular. Negar las virtualidades de la IA resulta hoy una postura insostenible. No obstante, es preciso reconocer al mismo tiempo la existencia de peligros presentes y potenciales, que de ninguna manera pueden quedar sustraídos a una orientación normativa. Tienen razón, a mi modo de ver, aquellos que tachan de “neo-luddismo” las posturas que se oponen por principio al avance de la IA, permaneciendo insensibles a las muchas mejoras que su implementación puede traer a nuestras vidas. No la tienen, sin embargo, aquellos que aplican esta categoría despectiva a cualquier postura que considera necesaria la reflexión crítica sobre la idoneidad, y no solamente sobre la viabilidad, de algunos de estos avances tecnológicos. Muchos de ellos presentan amenazas tan evidentes contra nuestros principios fundamentales, que solamente el derecho positivo puede ofrecer los instrumentos adecuados para su contención. Otros, sin embargo, no presentan riesgos manifiestos, aunque tampoco ventajas que justifiquen su implementación.
Pero nuestro Zeitgeist, en ocasiones tan naif en lo que hace a las bondades de las nuevas tecnologías, conduce hoy a una generalizada sensación de “tensión de lo posible”, de acuerdo con la cual todo lo que técnicamente puede ser realizado, ha de serlo de hecho. No hace falta que un proyecto sea monstruosamente peligroso para que nos cuestionemos si es deseable llevarlo a la realidad. Basta con que sea, por ejemplo, innecesario o ridículo. En los foros de discusión sobre IA, es más o menos habitual escuchar a sus entusiastas defensores esgrimir ejemplos como el que sigue para probar sus virtudes. Existen hoy, se dice, algoritmos lo suficientemente inteligentes como para completar, por ejemplo, la “Sinfonía inacabada” de Schubert. O como para producir composiciones poéticas tan absolutamente parecidas a las de un Rilke o un Hölderlin, que ni siquiera un experto sería capaz de distinguirlas. La primera reacción del asistente a estas exuberantes apologías es, sin duda, de asombro y admiración. Uno se siente, por de pronto, abrumado ante la gigantesca capacidad de estos algoritmos. Pero pasados unos minutos, los primeros asombros del impresionado asistente van dando lugar a una sensación diferente. Uno puede ver que éstas no son, desde luego, implementaciones “monstruosamente peligrosas”. Pero se pregunta, con un talante cada vez menos asombrado y cada vez más suspicaz, y hasta diríase que cada vez más triste, en qué sentido un mundo sin Rilkes ni Hölderlins, pero con algoritmos capaces de producir cosas muy parecidas a las que ellos, desde su absoluta singularidad, desde su biografía absolutamente única, lograron producir, es un mundo mejor.
Referencias
Calvo, P. (2019). “Democracia algorítmica: consideraciones éticas sobre la dataficación de la esfera pública”. Revista del CLAD Reforma y Democracia, 74, 5-30
Caparrini, F. S. (2018). “Breve historia de la Inteligencia Artificial”. Revista de Occidente, 446/7, 19-33
Carta de los Derechos Fundamentales de la Unión Europea. Diario Oficial de la Unión Europea (07.06.2016)
Copeland, J. (1996). Inteligencia Artificial. Madrid: Alianza
Conill, J. (2013). Horizontes de economía ética: Aristóteles, Adam Smith, Amartya Sen. Madrid, Tecnos
Cortina, A. (2019). “Ética de la Inteligencia Artificial”. Anales de la Real Academia de Ciencias Morales y Políticas, 96
Digitalización de la industria europea Aprovechar todas las ventajas de un mercado único digital. COM (2016) 180 final (19.04.2016)
Domingo, A. (2020). “Cuidado generativo y ciudadanía digital: confianza, pandemia y proximidad”. Corintios XIII, 176, 101-125
Estrategia Europea para la IA. COM (2018) 237 final (25.04.2018)
European Parlamient resolution of 20 October 2020 on a framework of ethical aspects of artificial intelligence, robotics and related technologies 2020/2012(INL)
European Parliament Draft Report, Artificial Intelligence in criminal law and its use by the police and judicial authorities in criminal matters 2020/2016(INI)
European Parliament Draft Report, Artificial intelligence in education, culture, and the audiovisual sector 2020/2017(INI)
European Parliament final Report on Artificial Intelligence in a digital age 2020/2266(INI)
Foote, K. D. (2016). “A Brief History of Artificial Intelligence”. Dataversity. 05.04.2016
García Marzá, D. (2013). “Democracia de doble vía: el no-lugar de la empresa en la sociedad civil”. Revista del CLAD Reforma y Democracia, 57, 67-92
Generar confianza en la Inteligencia Artificial centrada en el ser humano. COM (2019) 168 final (08.04.2019)
Habermas, J. (2010). Facticidad y validez. Madrid: Trotta
Honneth, A. (2011). “Patologías de lo social: tradición y actualidad de la filosofía social”. En Honneth, A. La sociedad del desprecio. Madrid: Trotta, 75-126
Jones, S. E. (2006). Against Technology: From the Luddites to Neo-Luddism. Routledge
Libro Blanco sobre la Inteligencia Artificial. Un enfoque europeo orientado a la excelencia y la confianza. COM (2020) 65 final (19-02-2020)
López, J. L. (2022). La ética ante la cinética del turismo. Aportaciones desde la teoría crítica de la resonancia de Hartmut Rosa Tesis doctoral. (Universitat Jaume I, 2022)
Lübbe, H. (1988). “Gegenwartsschrumpfung”. En Backhaus, K. y Bonus, H. (Eds.). Die Beschleunigungsfalle oder der Triumph der Schildkröte. Stuttgart, Schäffer/ Pöschel, 129-164
Marx, K. (1970). Contribución a la crítica de la economía política. Madrid, Alberto Corazón Editor, Prefacio
Mittelstadt, B. D.; Alli, P.; Taddeo, M.; Wachter, S. y Floridi, L. (2016). “The ethics of algorithms. Mapping the debate”. Big Data & Society, 1-21
Neuhouser, F. (2022). Diagnosing Social Pathology: Rousseau, Hegel, Marx, and Durkheim. Cambridge University Press
Ortega-Esquembre, C. (2021). Habermas ante el siglo XXI. Madrid: Tecnos
Plan Coordinado sobre la IA. COM (2018) 795 final (07.12.2018)
Proposal for a regulation of the European Parliament and of the Council laying down harmonised rules on Artificial Intelligence (Artificial Intelligence act) and amending certain Union legislative acts. COM (2021) 206 final (21.04.2021)
Rosa, H. (2005). Beschleunigung. Suhrkamp: Frankfurt a. M.
Rosa, H. (2016a). “Kritik der Zeitverhältnisse; Beschleunigung und Entfremdung als Schlüsselbegriffe der Sozialkritik”. En Jaeggi, R. & Wesche, T. (Eds.). Was ist Kritik. Frankfurt a.M., Suhrkamp, 2009, 23-54 Rosa, H. Alienación y aceleración. Buenos Aires: Katz
Rosa, H. (2016). Resonanz. Eine Soziologie der Weltbeziehung. Suhrkamp
Snow, C. P. (2000). Las dos culturas. Buenos Aires: Ediciones Nueva Visión
Tsamados, A.; Aggarwal, N.; Cowls, J.; Morley, J.; Roberts, H.; Taddeo, M.; y Floridi, L. (2021). “The ethics of algorithms: key problems and solutions”. AI and Society
Versión consolidada del Tratado de la Unión Europea. Diario Oficial de la Unión Europea (26.10.2012)
2 Véase, por ejemplo, el uso que hace del término C. P. Snow en su famosa conferencia “Las dos culturas” (Snow, 2000). Mucho más evidente es el caso de la Information Technology & Innovation Foundation, un lobby tecnológico estadounidense que ha adoptado la curiosa tradición de repartir anualmente los denominados Premios Ludditas, cuyos galardonados son supuestos enemigos del progreso socio- económico.
3 Tal y como me han hecho ver con mucho acierto Jesús Conill y Juan Carlos Siurana, aunque las regulaciones jurídicas suelen aparecer, como es natural, después de las innovaciones tecnológicas que reclaman dicha regulación, esto no siempre ocurre así. Por ejemplo, aunque hoy todavía no parece existir la tecnología necesaria para la clonación de seres humanos, lo cierto es que existe desde hace tiempo una regulación jurídica que prohíbe su uso.
4 Jesús Conill me ha llamado la atención sobre este problemático asunto, que sin esta aclaración adicional conduciría a la sorprendente conclusión de calificar como patológico un fenómeno natural y necesario.
5 Éste es el argumento principal de los defensores de lo que se ha dado en llamar “democracia algorítmica”. Para un estudio crítico de esta propuesta véase Calvo, 2019.
6 Una excelente aproximación a esta problemática, que además disecciona analíticamente los problemas éticos derivados de cada uno de los tres tipos diferentes de IA –superior, general y especial– se encuentra en Cortina, 2019. Agustín Domingo, por su parte, ha analizado los posibles riesgos derivados de una aplicación de los sistemas de IA a las tareas de cuidado. Véase Domingo, 2020.
7 Este problema afecta sobre todo a aquellos sistemas capaces de aprendizaje. Efectivamente, la imputación de responsabilidad resulta muy sencilla cuando los resultados pueden preverse en la fase de diseño, pero no cuando el propio sistema algorítmico es capaz de aprender y tomar decisiones imposibles de anticipar por el programador.
8 De especial interés entre ellas resultan las siguientes: European Parlamient resolution of 20 October 2020 on a framework of ethical aspects of artificial intelligence, robotics and related technologies 2020/2012(INL); European Parliament Draft Report, Artificial Intelligence in criminal law and its use by the police and judicial authorities in criminal matters 2020/2016(INI); European Parliament Draft Report, Artificial intelligence in education, culture, and the audiovisual sector 2020/2017(INI).
9 Me baso aquí en el modelo de “democracia de doble vía” desarrollado por Jürgen Habermas. Según este modelo, la legislación acontecida en el interior del Parlamento es solamente el último estadio de una secuencia que se inicia ya con los procesos de deliberación acontecidos en la sociedad civil. Véase Habermas, 2010.
10 Agradezco muy especialmente a José Luís López la estimulante discusión a propósito de las virtualidades y límites de esta posible salida al problema de la desincronización. Para su posición, véase López, 2022.