Proper use of Artificial Intelligence

The role of Artificial Intelligence (AI) in the scientific field has revolutionized the way science is conducted, facilitating and optimizing scientific research. However, there is some concern about its use in the scientific field, especially regarding research integrity, data use, and privacy. Therefore, ethics becomes imperative for creating guidelines for the honest and responsible use of AI.

Anales de Psicología adheres to the recommendations developed by the R4C-IRG Interdisciplinary Research Group: Complex Thinking for All and the Educational Technology Unit of the Institute for the Future of Education (IFE) at the Polytechnic of Monterrey for scientific work and the European Union's General Data Protection Regulation (GDPR).
Based on these recommendations, Anales de Psicología suggests that if AI is to be used in research for which manuscripts are submitted to this journal, the following should be taken into account:

1. Garantizar la integridad científica y ética al emplear IA en la investigación: se debe considerar como una herramienta auxiliar, pero no como una solución definitiva puesto que no puede reemplazar el juicio académico, la autoría intelectual ni la responsabilidad ética. Una IA no puede ser autora, ya que carece de intención, conciencia y responsabilidad legal.

2. Efectuar un análisis crítico de la información generada por IA: debe ser revisada, contrastada y validada por los/as autores/as. Estos deben asegurar la validez y la relevancia de los resultados y asumir la responsabilidad en su interpretación y aplicación. Deben actuar activamente para identificar, reducir y evitar sesgos en la investigación

3. Documentar detalladamente los métodos y herramientas utilizados: especificar claramente la autoría y el grado de contribución de la IA en los resultados de la investigación. El uso de cualquier herramienta basada en IA debe ser declarado explícitamente en la carta de presentación (autoría), indicando el tipo de herramienta, su finalidad y el grado de intervención en los resultados

4. Asegurar la confidencialidad de datos personales, el consentimiento informado y el cumplimiento de las normativas globales de protección de datos (del RGPD – Reglamento General de Protección de Datos) durante todo el proceso de su uso.

5. Mantenerse continuamente actualizado sobre los avances en IA: diversificar la experimentación con herramientas, y fomentar su uso creativo y efectivo en la investigación. Con revisiones periódicas y adaptaciones de las normativas de IA, asegurando una alineación continua de los principios éticos con la integridad científica. Esta política será revisada periódicamente para incorporar los avances técnicos, normativos y editoriales de la IA de manera responsable, responsabilidad que debe ser una tarea compartida por toda la comunidad académica (investigadores/as, autores/as, revisores/as, editores/as y lectores/as)

6. Fomentar la colaboración interdisciplinaria para enriquecer el intercambio de conocimientos: aprovechar la sinergia entre la IA y el conocimiento humano y también compartir activamente fuentes de IA relevantes para la investigación y ofrecer formación a otros investigadores sobre su aplicación efectiva.

7. Vigilancia de malas prácticas con la IA: el Consejo de Redacción tomará medidas razonables para identificar y evitar la publicación de trabajos en los que se haya producido una mala conducta en el uso de la IA en la elaboración del manuscrito.