Política del uso AI generativa

El  creciente uso de la IA generativa, nos ha impulsado a  establecer las primeras políticas  en torno a su uso para la orientación de los editores, autores y evaluadores.

El editor, como responsable del proceso editorial, recibe el manuscrito, como un documento confidencial, y tiene la obligación de guardarlo como tal durante todo el proceso de evaluación, hasta su publicación. El manuscrito no debe ser cargado a ninguna herramienta artificial. Hacerlo puede violar la confidencialidad, los derechos de propiedad de los autores o los derechos de privacidad de los datos. Esta confidencialidad se extiende a las comunicaciones sobre el manuscrito.

Los autores, como responsables de sus obras,  deben declarar con precisión el uso de la IA generativa, la herramienta usada, el contenido generado, y el propósito correspondiente. Pueden usarse únicamente como apoyo al investigador en tareas operativas, no para interpretar datos o extraer conclusiones, dado que sus resultados pueden ser incorrectos, incompletos o sesgados.

La IA no debe citarse como autor; como tecnología informática, carece de la capacidad humana de asumir responsabilidad o dar consentimiento. 

Los autores humanos son responsables sobre la exactitud, integridad y originalidad de sus documentos.  

Los evaluadores, no deben usar la IA generativa en sus procesos de revisión. El manuscrito se mantiene como documento confidencial en esta etapa. La evaluación es un ejercicio crítico de responsabilidad humana, y existe el riesgo de que la tecnología genere conclusiones incorrectas, incompletas o sesgadas.