#datasets en Zenodo de universidades españolas: crecimiento y nuevos retos

logo Ciencia Abierta - Open Science Fuente; wikipedia - commons

El camino hacia la ciencia abierta amplía el foco de la comunicación científica hacia un nuevo paradigma: ya no se trata de publicar en abierto los artículos científicos para exponer y difundir los resultados de investigación, sino también de hacer públicos y accesibles los conjuntos de datos que sustentan la investigación. Estos conjuntos (o ‘datasets’ en la jerga) se han convertido en un elemento fundamental para mejorar la transparencia en la investigación (y la rendición de cuentas), facilitar la reproducibilidad y permitir la reutilización del conocimiento científico.

logotipo de Zenodo

En nuestro contexto, el repositorio Zenodo desempeña un papel clave dentro de las infraestructuras de ciencia abierta. Desarrollado por el CERN (donde nació la web) y financiado por la Comisión Europea, permite depositar ‘datasets’, software, documentos y otros resultados de investigación, asignándoles un DOI que facilita su citación, preservación y difusión.

Hace un año (más o menos) analizamos en este blog la presencia de datasets generados por investigadores adscritos a las universidades públicas españolas en Zenodo (en las privadas se investiga menos). En ese estudio, con fecha de 31-12-2024, identificamos 6.944 contribuciones institucionales de conjuntos de datos y aportaba dos conclusiones principales: (1) el crecimiento progresivo del depósito de datos desde el año 2020 y (2) la existencia de grandes diferencias entre universidades en cuanto a su participación en este tipo de repositorios.

resumen descriptivo del informe de 2025 sobre los datasets de universidades públicas en Zenodo

Hace pocos días, finalizamos un nuevo informe, actualizado hasta 31-12-2025, que confirma la aceleración de este depósito. En un año, el número total de conjuntos de datos de investigación asociados a investigadores de universidades públicas españolas ha pasado de 6.944 a 11.241 (62% de incremento). Esto refleja un cambio progresivo en las prácticas de investigación, impulsado tanto por políticas institucionales (ENCA) como por los requisitos de financiación y evaluación relacionados con la ciencia abierta. El hecho de que ANECA también los valore como mérito para sexenios y acreditación puede tener algo que ver, aunque quizá el efecto sea muy reciente.

Crece muy rápido el depósito de datos

La evolución anual muestra una tendencia claramente ascendente, especialmente a partir de 2020.

evolución anual del número de datasets españoles en Zenodo

El pasado año 2025 destaca por el fuerte incremento de los conjuntos de datos de investigación depositados, que supera con mucho los valores registrados en años anteriores. Este crecimiento sólo es posible por la asunción por parte de los investigadores de la necesidad de considerar el depósito de los datos como parte natural del ciclo de investigación (además de la «obligación» que hay cuando recibimos financiación pública). El crecimiento no se concentra en unas pocas universidades, ha sido generalizado (incluso en aquellas que forman parte del «furgón de cola»). La media por universidad ha pasado de 141 a 229 conjuntos de datos, mientras que la mediana prácticamente se duplica. Esto significa que el depósito se extiende progresivamente por el conjunto del sistema universitario español.

Top 15 de universidades españolas con datasets en zenodo

Se observa un aumento significativo del número de universidades de alta actividad. Si en 2024 solo dos superaban los 400 conjuntos de datos, en 2025 ya son siete, destacando especialmente Valencia, Barcelona, Sevilla, Granada y la Politécnica de Valencia. Esto apunta a la consolidación y aceptación de estrategias institucionales más activas en lo relacionado con la gestión de datos de investigación.

Más conjuntos de datos, pero menos descripción

Los datos de este nuevo informe confirman una tendencia negativa: a medida que aumenta el volumen de conjuntos de datos depositados, la calidad de su descripción documental disminuye. Se ha utilizado como indicador la presencia del metadato ‘subject‘ en la descripción del conjunto de datos porque permite describir su contenido y facilita su posterior recuperación en el repositorio. En 2024, aproximadamente el 65 % incluían este tipo de metadatos, mientras que en 2025 la media desciende hasta un 56 %, quedando muy lejos en el tiempo aquellos años en los que este porcentaje alcanzaba el 75%. Esta tendencia a la baja sugiere que el crecimiento del volumen se produce más rápido que la adopción de buenas prácticas de documentación de los conjuntos de datos. Aunque cada vez se depositan más, no siempre se acompañan de una descripción suficiente que facilite su localización y reutilización.

Un indicador para analizar el equilibrio entre volumen y calidad

En el primero de los informes introdujimos un indicador sintético inspirado en la medida I₀ de Borko, originalmente diseñada para evaluar la eficacia de sistemas de recuperación de información, y que adaptamos a este contexto (lo denominamos igual un poco en «homenaje» a esta medida que utilizamos en nuestra tesis doctoral en una época muy, pero que muy lejana, el año 2002). Esta medida combina dos dimensiones: el volumen de conjuntos de datos depositados por cada universidad y el nivel de descripción documental de los mismos. Según este indicador, las que muestran un mejor equilibrio entre ambas dimensiones en 2025 son Sevilla, Jaume I, Barcelona, Autónoma de Madrid y Alcalá, que ocupan las primeras posiciones del ranking.

relación entre volumen de datasets publicados y nivel de descripción de los mismos

Conclusión

Los resultados muestran que el ecosistema de conjuntos de datos de investigación en el sistema universitario español crece con rapidez. Cada vez más investigadores efectúan el depósito en abierto en repositorios y varias universidades comienzan a consolidar estrategias institucionales para la gestión de datos. Sin embargo, el crecimiento cuantitativo debe ir acompañado de mejoras en la documentación y descripción de los conjuntos de datos. Si no se incorporan los metadatos adecuados, estos conjuntos de datos pueden ser técnicamente «abiertos», pero serán difíciles de encontrar, interpretar o reutilizar, para ello no hace falta el depósito.

El reto de los próximos años no será solo publicar más conjuntos de datos de investigación, sino también describirlos y publicarlos mejor.

Fuentes:

  • Martínez Méndez, Francisco Javier: López Carreño, Rosana; Baptista, Ana Alice, Castelló Cogollos, Lourdes y Delgado Vázquez, Ángel M. (2023). Implementación de los repositorios de datos de investigación en las universidades públicas españolas: estado de la cuestión. Scire: representación y organización del conocimiento, 29(2), 39-49. https://doi.org/10.54886/scire.v29i2.4914
  • Martínez Méndez, Francisco Javier: López Carreño, Rosana; Baptista, Ana Alice, Castelló Cogollos, Lourdes y Delgado Vázquez, Ángel M. (2023). (2025). #datasets de universidades españolas en Zenodo – 2024. Zenodo. https://doi.org/10.5281/zenodo.18085406
  • Martínez Méndez, Francisco Javier: López Carreño, Rosana; Baptista, Ana Alice, Castelló Cogollos, Lourdes y Delgado Vázquez, Ángel M. (2026). #datasets de universidades españolas en Zenodo a 31-12-2025. Zenodo. https://doi.org/10.5281/zenodo.18903560

Nota técnica.

Cuando en un conjunto de datos de investigación aparecen investigadores de dos o más universidales, ese conjunto de datos se computa en cada institución. Por tanto, el número de conjuntos de datos total es algo inferior al que mostramos.

Cuando el diseño web por delante del modelado de contenido

Aprovecho que estoy preparando las clases de esta semana en la asignatura «Sistemas de Gestión de Contenidos» del 2º curso del grado en Gestión de Información y Contenidos Digitales para reflexionar brevemente sobre una cuestión: ¿qué pasa cuando se dedica muchas horas a un diseño «muy visual» del sitio web con nuestro CMS y «pasamos» un poco (o un bastante) del modelado del contenido?.

Vemos qué pasa cuando se dedica muchas horas a un diseño "muy visual" del sitio web con nuestro CMS y "pasamos" un poco (o un bastante) del modelado del contenido.

No es raro encontrarnos sitios web donde se ha puesto todo el interés en un diseño visual muy atractivo que atrae, sin duda alguna, a nuevos usuarios pero que, a nivel de modelado de contenidos, presenta graves problemas. Cuando el diseño va por delante, nos centramos en el desarrollo de unas plantillas visuales espectaculares, animaciones, banners y carruseles de diapositivas de gran calidad visual, maquetación de la interfaz web atractiva, todo ello dentro de una gran coherencia visual (el «tema» del CMS).

cosas que pasan cuando se dedica poco esfuerzo al modelado de contenidos en el desarrollo de un sitio web

Si el sitio web no va más allá de un blog, un pequeño catálogo de productos o una pequeña web institucional, no se plantearían muchos problemas. En estos casos, puede resultar suficiente con los tipos de contenido base «página» y «entrada» (‘post’), con introducir las fechas en formato de texto libre («12/06/2025» o «12-jun-26», a elección del usuario incluso), no tener normalización alguna de cómo introducir el nombre de un autor de un libro («Juan Antonio Pérez López» o «Juan A. Pérez López» o «Pérez López, Juan Antonio»), que la taxonomía del sitio web no esté muy trabajada (o sin trabajar directamente, dejando a los usuarios construirla sin consistencia alguna) y, finalmente, no existe relación entre tipos de contenido específicos (básicamente por su escasez o ausencia). En definitiva, mucho diseño y poca gestión de información, algo parecido a lo que le está ocurriendo ahora al equipo Aston Martin de F1, que ha contratado un «mago» del diseño como Adrian Newey y unos motores Honda que no son capaces de llevar a cabo quince vueltas seguidas a un circuito.

En estos sitios web, poco más se puede hacer que navegar por las distintas secciones, usar el buscador o esperar que la nube de etiquetas esté construida con algún criterio. Si quisiéramos consultar un histórico de «actividades culturales»desarrolladas en el último año, tendríamos el problema de que no existe ese tipo de contenido específico y que, además, la búsqueda por fechas puede resultar complicada al no esta normalizado el formato de entrada.

El CMS termina convirtiéndose casi en un editor de texto "glorificado".

La solución suele terminar siendo manual, se copia contenido de entradas que recuperamos (manualmente casi siempre) de la web para pegarlo en listas elaboradas a mano (como si trabajáramos con el editor de texto normal, de ahí el apelativo de «glorificado» de la imagen). El resultado final es escasa y frágil agregación de contenidos (poco se puede extraer por medio de consultas automáticas), mucho trabajo repetitivo, algo que debería obviar el uso de un CMS, produciéndose una situación de «deuda técnica», algo parecida a la que Honda tiene ahora con la escudería Aston Martin y con todos los aficiones a la Fórmula 1 que ven que Fernando Alonso difícilmente podrá aspirar a un podio en esta su última temporada (o no) en los circuitos.

Esperemos que el CMS no nos lleve a acompetircon un coche normal en las carreras. Para ello hace falta modelado, metadatos, relaciones, agregación y diseño reutilizable.

Siguiendo con esta metáfora, hay que intentar que el diseño del CMS no nos obligue con un coche normal en las carreras. Para ello hace falta modelado de contenido adeucado, metadatos bien definidos, relaciones entre tipos de contenidos, vistas del contenido a partir de agregación, todo ello en un marco de diseño web útil y reutilizable.

El «contrato para la web» de Berners-Lee

entrada actualizada

Actualizo una entrada de noviembre en 2019 sobre el «Contrato para la Web» que puso en marcha el inventor de todo esto, Sir Tim Berners-Lee, para intentar asegurar que internet debe seguir siendo un bien público para toda la sociedad.

fragmento del contrato para la web de Sir Tim Berners Lee

«La web se diseñó para unir a la gente y hacer que el conocimiento fuese accesible para todos y todas. Ha cambiado el mundo para bien y ha mejorado la vida de miles de millones de personas. Sin embargo, todavía hay muchas personas que no pueden acceder a sus ventajas y muchas otras para las que la Web supone un coste demasiado elevado.

Todos tenemos un papel que cumplir a la hora de salvaguardar el futuro de la Web. Los representantes de más de 80 organizaciones redactaron el Contrato para la Web en nombre de gobiernos, empresas y la sociedad civil. En él se establecen los compromisos que deben guiar las políticas digitales. Con el fin de alcanzar los objetivos del Contrato, los gobiernos, las empresas, la sociedad civil y las personas deben comprometerse con el desarrollo sostenido de dichas políticas, así como con la defensa y la implementación de este texto».

Así presentaba en el año 2019 Sir Tim Berners-Lee, el inventor de la web, su iniciativa llamada «Contrato para la Web«. El objeto de la misma era garantizar que todos tenemos acceso a ella, no solo las personas que viven en países donde el nivel de vida lo permitiera y el gobierno sea democrático. La idea de Berners-Lee iba en la línea de conseguir el verdadero acceso universal a «su criatura», la que propuso casi de escondidas a sus jefes del CERN hace más de 30 años.

Este contrato se estructuraba en 9 principios básicos que presentamos de forma resumida:

  1. Asegurarse de que todo el mundo pueda conectarse a internet para que cualquier persona, independientemente de quién sea o dónde viva, pueda participar de forma activa en la red.
  2. Hacer que la totalidad de internet esté disponible en todo momento para que a nadie se le niegue el derecho a disfrutar de un acceso completo a la red.
  3. Respetar y proteger los derechos básicos de las personas sobre sus datos y su privacidad en la red para que todo el mundo pueda usar Internet libremente de forma segura y sin miedo.
  4. Hacer que el acceso a internet sea asequible y accesible para todo el mundo para que nadie quede excluido del uso y el desarrollo de la web.
  5. Respetar y proteger la privacidad y los datos personales, con el fin de generar confianza en la red para que las personas tengan el control sobre sus vidas en Internet y que cuenten con opciones claras y relevantes en lo relativo a sus datos y su privacidad.
  6. Desarrollar tecnologías que promuevan lo mejor de la humanidad y contribuyan a mitigar lo peor para que la web sea realmente un bien público en donde prevalezca el interés de las personas.
  7. Crear y colaborar en la web para que la web tenga un contenido rico y relevante para todos.
  8. Construir comunidades sólidas que respeten el discurso civil y la dignidad humana para que todo el mundo se sienta seguro y bienvenido en la red.
  9. Luchar por la web para que siga siendo abierta y un recurso público global para las personas de todo el mundo, ahora y en el futuro.

Estos principios afectan («reclaman» más bien) a gobiernos, empresas y ciudadanos. Están dirigidos a gran parte (a lo mejor a toda) de la sociedad actual. Asegurar que la red tenga infraestructura suficiente, que el acceso sea lo más barato posible, que se respeten los derechos de los usuarios y que su uso esté dirigido a mejorar a las personas, son causas por las que vale la pena postularse, más allá de rellenar el formulario de adhesión y hacer clic con el dedo en la pantalla del teléfono.

Actualización a fecha de 2026.

Portada de la declaración por el futuro de la internet
Portada de la declaración

Al momento de su lanzamiento, gobiernos como Francia y Alemania se sumaron a la iniciativa.  El gobierno alemán anunció su apoyo a la iniciativa en noviembre de 2018, destacando internet como un «bien público» y un derecho fundamental que debe ser protegido, asegurando el acceso para todos y respetando la privacidad. El gobierno francés también se adhirió a la iniciativa en términos similares. Además, la Unión Europea se ha alineado estrechamente con los principios básicos dictados por Berners-Lee, al igual que los esfuerzos conjuntos de Estados Unidos y otros 60 países firmantes de la «Declaración para el Futuro de Internet«, que busca un internet abierto, seguro y libre. Países como Ghana y Brasil han tenido intervenciones directas apoyadas por la Web Foundation para mejorar la asequibilidad y los derechos digitales. 

Cartel de Women's Right Online

En el caso brasileño, apoyó activamente el desarrollo y aprobación del Marco Civil da Internet en Brasil, considerado el primer «proyecto de ley de derechos» de internet en el mundo. Esta legislación consagraba derechos fundamentales como la neutralidad de la red, la privacidad y la libertad de expresión. En Ghana, la fundación trabajó para abordar la brecha digital, particularmente la brecha de género, a través de la red Women’s Rights Online (WRO). Esto incluye la promoción de políticas de TIC que sean sensibles al género, fomentando el acceso a internet asequible y garantizando los derechos digitales de las mujeres.

Las políticas públicas influenciadas por el contrato se centran en los tres pilares de gobierno del documento:

  • 1. Asegurar la conectividad (acceso): Políticas destinadas a reducir la brecha digital y garantizar que todo el mundo pueda conectarse a internet, haciendo que sea asequible y accesible.
  • 2. Mantener la red abierta (neutralidad y disponibilidad): Normativas que prohíben el cierre o la censura total de internet por parte de los gobiernos.
  • 3. Respetar la privacidad y datos (gobernanza): Políticas alineadas con el cumplimiento de derechos de datos, similares al RGPD (Reglamento General de Protección de Datos) en la UE. 

Principales aliados tecnológicos:
Más de 150 organizaciones respaldan la iniciativa, incluyendo grandes tecnológicas como Google, Facebook (Meta), GitHub, Reddit y DuckDuckGo, que han ajustado sus políticas de producto a estos principios. 

Para finalizar, queremos recordar que el contrato no es solo una aspiración, es una verdadera «hoja de ruta» para políticas concretas para asegurar que internet siga siendo una herramienta para el bien público.

¿Recuperamos información o datos?

Nota de actualización de entracda antigua en el blog

Actualizo una entrada antigua de este blog que escribí en el año 2006 sobre la cierta confusión existente sobre si, en una búsqueda, recuperamos información o datos. Vamos a ver cómo queda.

En el campo de la recuperación de información (‘information retrieval‘), casi al principio de la disciplina, era normal encontrar autores que empleaban la expresión «recuperación de datos» cuando en realidad de lo que estaban hablando era de recuperar información. Teniendo en cuenta las fechas de lasque hablamos (años 80, cuando el tecnopop), Esto se debía, fundamentalmente, a una clara influencia de la terminología informática, disciplina cuya rapidísima evolución llevó a muchos autores a cometer el error de considerar sinónimos ambos conceptos, llegándose a olvidar, como afirmaba Brookes, que se puede recuperar información sin emplear procedimientos informáticos (hecho indiscutible aunque no sea lo más común hoy en día, evidentemente).

Portda del Diccionaro MacMillan de Tecnologías de la Informació

El frecuente y necesario empleo de una tecnología no sustituye la obligatoriedad de utilizar adecuadamente los conceptos terminológicos. Un ejemplo de este desacierto lo hallamos en el Glosario ALA que define “information retrieval” como “recuperación de la información» en su primera acepción y como “recuperación de datos” en una segunda, considerando sinónimos ambos términos en lengua inglesa. De parecida opinión es el Diccionario Mac Millan de Tecnología de la Información, que considera la recuperación de información como el conjunto de “técnicas empleadas para almacenar y buscar grandes cantidades de datos y ponerlos a disposición de los usuarios”.

Afortunadamente, es mayor el grupo de autores que establecen diferencias entre ambos conceptos. Entre ellos destaca Meadow, para quien la recuperación de la información es “una disciplina que involucra la localización de una determinada información dentro de un almacén de información o base de datos”. Este autor establece de forma implícita una ligazón entre recuperación de información y el concepto de «selectividad» a la hora de presentar esa información al usuario siguiendo algún tipo de criterio discriminatorio (selectivo por tanto) entre una gran colección de documentos. Meadow marca un poco más estas diferencias, al afirmar que no es lo mismo la recuperación de información entendida como traducción del término inglés information recovery que cuando se traduce el término information retrieval, porque “en el primer caso no es necesario proceso de selección alguno”. Pérez-Carballo Strzalkowski refuerzan esta idea afirmando que “una típica tarea de la recuperación de información es traer documentos relevantes desde una gran archivo en respuesta a una pregunta formulada por un usuario y ordenar estos documentos de acuerdo con su relevancia.

Grossman y Frieder indican que la recuperación de información es “hallar documentos relevantes, no encontrar simples correspondencias a unos patrones de bits”. De similar criterio es el W3C que define recuperar información como “dado un conjunto de documentos y una pregunta, encontrar el conjunto de documentos más relevantes con la pregunta”.

En clase, explico a mis estudiantes que, en la recuperacíón de datos, las preguntas son altamente formalizadas y la respuesta  es directamente toda la información deseada. Así, “recuperar los títulos de los libros escritos por Jorge Luis Borges en la década de los 50” sería la ecuación “SELECT titulo WHERE autor=’Jorge Luis Borges’ AND fecha>1949  AND fecha<1960”. Otra pregunta fácil es saber cuántos ciudadanos de Murcia tienen alguna multa de tráfico sin abonar al Ayuntamiento de la ciudad y cuánto totaliza esa deuda para las arcas municipales. Nos movemos en un paradigma determinista, el territorio del modelo relacional de bases de datos. También les explico que en la recuperación de información, las preguntas son más difíciles de trasladar a un lenguaje formal y la respuesta es un conjunto de documentos que probablemente contendrá la información deseada, siempre con un factor de cierta indeterminación. En este modelo, el territorio de los SRI, La consulta sería, por ejemplo, «Obras Borges década 50”.

Foto de C.J: Rijsbergen, de la Universidad de Glasgow

El gran profesor ‘Keith’ Rijsbergen establece en la siguiente tabla las diferencias entre recuperar datos e información:

Diferencias entre recuperación de datos y recuperación de información según Keith Risjbergen

Finalizo siempre esta cuestión presentando la siguiente cita de Ricardo Baeza-Yates:

dada una necesidad de información (consulta + perfil del usuario + … ) y un conjunto de documentos, ordenar los documentos de más a menos relevantes para esa necesidad y presentar un subconjunto de aquellos de mayor relevancia

¿Sigue este tema vigente?

Creo que esta distinción conceptual sigue siendo especialmente pertinente hoy en día. Si se observa la evolución reciente de los sistemas de búsqueda y acceso a la información. Las tecnologías actuales —como la búsqueda semántica, el uso de representaciones vectoriales (embeddings) o los modelos de lenguaje de gran tamaño (LLMs)— no han eliminado el problema clásico de la recuperación de información, sino que han añadido nuevas capas de complejidad. Estos sistemas ya no se limitan a la coincidencia literal entre términos (‘matching‘), sino que operan sobre representaciones semánticas del contenido, aproximándose con mayor eficacia a la noción de relevancia, aunque sin resolverla plenamente.

Datos, información y recuperación en sistemas de búsqueda actuales
Datos, información y recuperación en sistemas de búsqueda actuales.
Imagen elaborada por chatGPT.

Muchos de los SRI contemporáneos combinan, de forma híbrida, procedimientos propios de la recuperación de datos y de la recuperación de información. La indexación estructurada, las búsquedas exactas o las consultas sobre bases de datos conviven con mecanismos de ranking, inferencia semántica y estimación de relevancia. Esta convergencia tecnológica no invalida la distinción conceptual entre ambos enfoques; al contrario, la hace más necesaria, ya que permite comprender mejor los límites, fortalezas y riesgos interpretativos de cada tipo de sistema. En este contexto, los sistemas basados en modelos de lenguaje de gran tamaño y arquitecturas de retrieval-augmented generation (RAG) reintroducen, bajo nuevas formas, el debate clásico entre datos e información. Aunque estos modelos pueden generar respuestas coherentes y contextualmente plausibles, su funcionamiento depende en gran medida de procesos previos de recuperación y selección de documentos relevantes. La calidad informativa del resultado no reside únicamente en la capacidad generativa del modelo, sino en la adecuación del proceso de recuperación que lo alimenta, confirmando la vigencia de los principios fundamentales de la recuperación de información.

Fuentes bibliográficas

[1] Brookes afirma esto en la presentación del primer capítulo de la obra Information Retrieval Research titulado ‘Information Technology and Information Science’, donde recuerda que el problema de la recuperación de información no ha de aplicarse sólo a lo automático, sino también a lo manual. (Oddy et al, 1981). Salton también lo recalca al comentar que no siempre se recupera información textual (Salton & McGill, 1983).

[2] Meadow, C.T. (1992) Text Information Retrieval

[3] Pérez-Carballo, J. and Strzalkowski, T. ‘Natural language information retrieval: progress report’. Information Processing and Management 36, 2000. p. 155-178

[4] (Grossman and Frieder, 1998) Grossman, D.A. and Frieder, O. Information retrieval: algorithms and heuristics. Boston: Kluwer Academia Publishers, 1998.

Los CRIS y su papel en la Ciencia Abierta

CRIS son las siglas de ‘Current Research Information System‘ (sistemas de información de investigación), plataformas que representan un pilar esencial para que las instituciones de investigación adopten plenamente la estrategia de la Ciencia Abierta. Su importancia va más allá del registro de la producción científica —como artículos, capíutlos de libros o proyectos— ya que operan como una infraestructura de metadatos que lleva a cabo la conexión entre personas, publicaciones, datos, financiación e impacto de la investigación, facilitando la trazabilidad, visibilidad, interoperabilidad y reutilización del conocimiento. En un contexto en que las agencias financiadoras, las universidades y los repositorios convergen hacia la apertura, la transparencia y la responsabilidad en la investigación como pilares del tránsito a la Ciencia Abierta, los CRIS permiten que esa transformación se realice de forma sistemática y estructurada.

El CRIS como elemento conector en el contexto de la Ciencia (imagen elaborada con chatGPT).
El CRIS como elemento conector en el contexto de la Ciencia (imagen elaborada con chatGPT).

Un aspecto central del valor de un CRIS es su capacidad para articular el ciclo completo de la investigación: desde la financiación y la planificación de proyectos hasta la publicación, el depósito de datos, la transferencia y la evaluación. Esta visión sistémica favorece que las instituciones puedan cumplir con mandatos de acceso abierto y datos abiertos (por ejemplo, enlazando las publicaciones con sus versiones en repositorio o monitoreando embargos), que gestionen resultados más allá del artículo tradicional (conjuntos de datos de investigación, código de software libre, materiales docentes, etc.) y que generen métricas e informes para evaluación responsable. En este sentido, el CRIS actúa como una “capa de información contextual”: quién, qué, cuándo, con qué financiación, bajo qué proyecto, qué impacto, etc., mientras que los repositorios suelen limitarse de la preservación y difusión del objeto digital.

A nivel internacional encontramos ejemplos de CRIS que ilustran tanto el modelo como su relación con la Ciencia Abierta. Por ejemplo, el sistema nacional noruego CRIStin (Current Research Information System in Norway) permite documentar toda la producción académica de los investigadores noruegos y complementa su uso para evaluación del sistema de investigación público.

Cabecera del sitio web Cristin
Cabecera del sitio web Cristin

En Finlandia, Alemania y los Países Bajos también se han desarrollado modelos nacionales de gestión de la información de investigación, como documenta el informe de OCLC Research. También en Europa, la asociación euroCRIS promueve el estándar CERIF (Common European Research Information Format) con el fin de asegurar la interoperabilidad entre los CRIS.

Esquema general del estándar CERIF
Esquema general del estándar CERIF

Estos ejemplos muestran cómo los CRIS institucionales y nacionales se integran en un ecosistema mayor de datos e infraestructuras de Ciencia Abierta. En el caso de un país que adopte un CRIS nacional o regional, la ventaja es que se construye una infraestructura homogénea para la agregación de datos de múltiples instituciones, lo cual permite realizar análisis nacionales, comparativos y soportar políticas de Ciencia Abierta a gran escala.

En España, los CRIS institucionales de las universidades funcionan en estrecha relación con los llamados “portales de investigación” públicos, es decir, las interfaces visibles donde se exponen perfiles de personal investigador, grupos, publicaciones, proyectos y métricas. Dichos portales, alimentados por la base de datos de Dialnet y por el CRIS de cada institución académica, permiten la visibilidad institucional y cumplen una función de transparencia hacia la sociedad. La integración entre CRIS y portal es clave: el primero organiza, vincula y valida los metadatos, el segundo los presenta al público de forma navegable.

Este marco es fruto del Proyecto Hércules, impulsado por Crue Universidades Españolas, que proponía una arquitectura semántica común para los CRIS universitarios españoles, basada en estándares compartidos, ontologías alineadas y una solución de gestión de la investigación común. El resultado final facilita que los datos de diferentes universidades se puedan comparar, agregar y explotar de forma interoperable. Sin duda alguna, la clave de bóveda de este proyecto ha sido el papel de Dialnet, si el trabajo previo de esta fundación, todo el desarrollo de este proyecto hubiera resultado valdío. Una vez más se demuestra la frase de Bill Gates: ‘content is king‘. Poco a poco, se van implementando los portales de investigación de las universidades españolas y se está configurando un sistema de información científica agregado que puede asumir funciones similares a las de un CRIS colectivo para aquellas instituciones que no cuentan con soluciones propias completas. Estas plataformas son elementos articuladores de un ecosistema de investigación abierta, interoperable y de alcance cada vez mayor. A nivel internacional, los sistemas que adopten el estándar CERIF muestran cómo la gestión de la información investigadora se ha transformado en una infraestructura de infraestructuras (“infraestructura de segundo orden”) para la Ciencia Abierta. En España, esta convergencia entre CRIS, portales de investigación y plataformas cooperativas como Dialnet, señala una evolución hacia un modelo más integrado, transparente y orientado al bien público del sistema de investigación.

Tres importantes universidades británicas «abandonan» Elsevier, ¿por qué y cómo lo hacen?

Las universidades de Sheffield (la de nuestro «Tío Tom» tenía que ser), Lancaster y Surrey decidieron rechazar un nuevo acuerdo de suscripciones ‘read and publish‘ y abandonan la suscripción masiva de revistas científicas con Elsevier.

Esta decisión está impulsada por restricciones financieras de estas instituciones y por la demanda de mejores condiciones de acceso abierto, pone de manifiesto la creciente presión sobre los costes de suscripción a las revistas científicas de alto nivel. Las editoriales privadas venden paquetes completos de este tipo de publicaciones, junto con otros servicios y productos, elevando los costes hasta cantidades que representan un esfuerzo, no siempre justificado en términos de aprovechamiento, para las instituciones de educación superior.

Estas tres universidades se unieron a un grupo creciente en el Reino Unido (York, EssexKent y Sussex, entre otras) que optaron por priorizar modelos sostenibles centrados en el acceso abierto (¡el de verdad! no el que firman las universidades españoles a través de CRUE y con ayuda del ministerio), frente a los paquetes tradicionales «todo incluido» que ofrecen las grandes editoriales de pago y que se convierten en insostenibles en épocas donde la inversión en lo público se reencamina más hacia gastos militares que hacia la mejora de la financiación de las universidades públicas.

En la línea marcada anteriormente por UCLA, las universidades de Sheffield, Lancaster y Surrey han dispuesto medidas de contingencia para no «dejar desabastecidos» a sus estudiantes e investigadores:

  • Préstamo interbibliotecario de «alta velocidad». Es la «joya de la corona» de su estrategia, se ha optimizado el préstamo para que los investigadores puedan solicitar artículos específicos que ya no están bajo suscripción. El éxito se basa en la rapidez (entregas digitales en menos de 30 minutos en muchos casos) y búsqueda ampliada (plataformas como StarPlus de Sheffield que permiten buscar más allá de la colección propia y generar solicitudes automáticas). 
  • Suscripciones selectivas y acceso histórico: las universidades «no cortan el grifo» por completo. De hecho, sus bibliotecas mantienen títulos individuales (se seguirá pagando de forma independiente por las revistas de Elsevier que tengan el mayor uso e impacto real en su comunidad) y se mantiene acceso post-cancelación (se conserva el derecho a leer artículos publicados durante los años en que la suscripción estuvo activa).
  • Fomento del uso de software que rastrea versiones gratuitas y legales de los artículos, recomendando las extensiones del navegador como LibKey Nomad o sistemas como Unpaywall que detectan si un artículo tiene una versión en abierto mientras el usuario navega.
  • Uso intensivo de los repositorios institucionales impulsando sus propios archivos digitales (como White Rose Research Online) donde los autores depositan sus manuscritos aceptados.
  • Las universidades de Surrey y Lancaster han implementado políticas de «Rights Retention«. Esto obliga a sus investigadores a mantener la propiedad intelectual de sus manuscritos para que puedan subirse a la web de la universidad inmediatamente, sin esperar a que la editorial levante el «muro de pago». 

Alternativas implantadas en la Universidad de California para "superar" el fin de las suscripciones masivas a Elsevier y otras editoriales. Fuente: Universo Abierto.

Alternativas implantadas en la Universidad de California para «superar» el fin de las suscripciones masivas a Elsevier y otras editoriales. Fuente: Universo Abierto.

Es posible que a los mayores les suene este modelo de acceso a la literatura científica (que podríamos llamar «bajo demanda»). De alguna manera, reproduce el cómo se accedía a los artículos a principios de este siglo, con una visión algo más actual en cuanto al uso de la tecnología donde la Ciencia Abierta comienza a abrirse paso. Si esto funcionaba antes del tremendo derroche acometido por universidades y autoridades gubernamentales que lo han financiado. Es muy posible que el rendimiento y la excelencia investigadora no vayan a sufrir deterioro alguno y, teóricamente, se podrán dedicar esos recursos a financiar más y mejores equipos de investigación, en lugar de, literalmente, regalarlos a editoriales privadas como Elsevier, cuando no a editoriales directamente depredadoras.

Cantimplora con la famosa frase de Newton grabada

El avance científico no se va a detener, seguro que siempre habrá alguien que pueda ver más allá porque está aupado sobre los hombros de muchos sabios que le han precedido (Newton dixit). Y quizá deberíamos volver a confiar en las bibliotecas que siguen estando ahí, internet no las jubiló (aunque para muchos así lo haya parecido).

Pedro Díaz, in memoriam

Fotografía del profesor Pedro Miguel Díaz Ortuño, compañero y amigo desde primero de carrera.

Nota: adaptación del editorial de homenaje de la revista Anales de Documentación al compañero y amigo más querido.

Desde el pasado verano, la pequeña familia formada en torno a la revista Anales de Documentación, en particular, y a la facultad de Comunicación y Documentación de la Universidad de Murcia en general, ha perdido a uno de sus miembros más queridos y destacados, el profesor Pedro Manuel Díaz Ortuño quien nos dejó a la temprana edad de 59 años tras luchar varios meses contra una larga y penosa enfermedad.

Pedro Manuel – así le llamaba su madre – era profesor de Tecnologías de la Información en nuestra Universidad desde 1989. Logró la titularidad en el año olímpico de 1992. Su docencia, en almacenamiento y acceso a la información, la desarrolló en nuestra facultad y también en la de Informática, el centro donde se formó en los años ochenta (nos formamos para ser correctos, somos compañeros de promoción, además de amigos desde esos días), como diplomado universitario. Años después, como también hice yo aunque en otra universidad, cursó la licenciatura en Documentación en la Universidad Politécnica de Valencia y los estudios de doctorado en nuestra universidad). Miembro del grupo de investigación en Tecnologías de la Información, participó en varios proyectos de transferencia. En el más reciente, e-labor@, analizamos la necesaria transformación digital en las entidades del Tercer Sector de Acción Social (TSAS). Resultado de este proyecto es el informe La transformación digital de entidades del Tercer Sector de Acción Social: un marco para la gestión documental, donde es autor del capítulo “Prospectiva de sistemas de gestión documental: factores claves para entidades TSAS”, dedicado a presentar la gestión documental actual y los sistemas que la implementan y que hemos reeditado en formato de artículo en el último número de la revista (sección de Estudios y Experiencias). Fue vicedecano de la facultad en varios equipos directivos y a él le debemos, entre otras cosas, el seguimiento de la construcción del edificio tan bonito que alberga nuestra facultad, una de las más dinámicas y creativas de la Universidad de Murcia.

Vista general de la Facultad de Comunicación y Documentación de la Universidad de Murcia

Su relación con nuestra revista se remonta a los inicios de nuestra singladura, Pedro Manuel formó parte del primer comité editorial asumiendo la secretaría del mismo en ese y otros períodos. También fue el responsable del diseño de la maquetación de la edición impresa estableciendo (a nivel interno) las primeras normas, formatos y flujos de trabajo para la publicación de los artículos y de otras secciones de la revista. La solidez, claridad y pertinencia de estos criterios son tales que muchas de esas recomendaciones e instrucciones continúan plenamente vigentes hoy, veintiocho años después, con Anales de Documentación plenamente integrada en el ecosistema digital de la comunicación científica.

Precisamente, toda la tarea de puesta en marcha de la edición electrónica de la revista recayó en su persona, instalando la plataforma Open Journal System para la gestión editorial dentro de los servidores informáticos de nuestra facultad, lo que facilitó, unos años después, su migración al servidor revistas.um.es de nuestra editorial universitaria. Otro apartado donde destacó sobremanera fue en el rigor aplicado a la tarea de revisor. De hecho, raro es el número publicado donde no evaluara la pertinencia de uno o dos manuscritos al menos. También colaboró activamente en la sección de Reseñas, reforzando así su decisiva contribución editorial, gracias a la cual nuestra revista ha alcanzado los actuales niveles de calidad. Sin duda, ha sido uno de los grandes artífices del desarrollo de Anales de Documentación como vehículo de referencia en la comunicación científica del área. Sin su trabajo y dedicación, no estaríamos en este nivel.

Quienes hemos asumido responsabilidades en la revista a lo largo de los años le debemos un profundo agradecimiento por tan valiosa aportación, aunque ese sentimiento se nos antoja ahora como una isla ínfima dentro del océano ante la pérdida de la persona: el compañero de trabajo, el amigo de sus amigos, el esposo, el padre, el hijo y el hermano que nos ha dejado demasiado pronto. Pedro – así lo llamábamos los amigos, colegas y estudiantes – por fortuna pudimos despedirnos de ti y te has marchado sabiendo que, como dice la canción, tú “nunca caminarás solo”, siempre permanecerás acompañándonos en nuestra memoria y en las huellas que dejaste en la revista y en quienes compartimos camino contigo.

La Ciencia Abierta también te va a echar mucho de menos Pedro, y más ahora en estos tiempo donde los avances tecnológicos están abriéndose camino de forma imperativa e imparable.

Murcia, octubre de 2025

El Comité Editorial

Tom Wilson e Information Research: pioneros del acceso abierto diamante

En la revista científica ‘Information Research: an electronic international journal‘ hemos dedicado un número especial a los 30 años de la puesta en marcha de la misma por parte de nuestro querido maestro Tom Wilson de la Universidad de Sheffield (y de la de Borâs en los últimos años). Para nosotros ha sido un honor haber participado en este número y casi en los treinta años de vida de esta revista gracias a la generosidad de su fundador.

Fragmento del sitio web de la revista (versión histórica
Fragmento del sitio web de la revista (versión histórica en https://informationr.net/ir/).
Fotografía de Tom Wilson (2010). Fuente: wikipedia
Fotografía de Tom Wilson (2010). Fuente: wikipedia

En nuestra aportación, que reproducimos en versión HTML a continuación, destacamos los vínculos que se han establecido entre nuestra Universidad, la revista y Tom, además de resaltar que esta revista es acceso abierto antes incluso de que se acuñara ese término y se difudiera tras el acuerdo de la Iniciativa por el Acceso Abierto firmada en Budapest en el año 2002. Sin duda alguna, Tom es un maestro, un genio y mejor persona.


Texto del artículo:

Son muchos los méritos contraídos por Tom Wilson a lo largo de toda su carrera docente e investigadora, en la que ha venido introduciéndonos en el estudio de la gestión de información y del comportamiento informacional en contexto prácticamente desde el inicio de estas disciplinas. En ambos casos, se produce el mismo fenómeno: con el paso del tiempo, ambas forman un binomio de muy difícil separación, por no decir indivisible, tal como dijo José Vicente Rodríguez Muñoz la mañana en la que le investimos Doctor Honoris Causa por nuestra Universidad (septiembre de 201). Es posible que, con anterioridad a Tom Wilson, otros autores pudieran haber realizado aproximaciones parciales alrededor de estos conceptos, pero quien, con su esfuerzo, dedicación y sabiduría, muchas veces acompañado de un grandísimo equipo de colaboradores, ha permitido su desarrollo e implantación dentro de la comunidad científica como temas de interés.

Acto de investidura de Tom Wilson como Doctor Honoris Causa por la Universidad de Murcia en el año 2010.
Acto de investidura de Tom Wilson como Doctor Honoris Causa por la Universidad de Murcia (2010).

De gran parte de todo ese trabajo ha sido testigo y depositaria la revista ‘Information Research: an electronic international journal‘, cuyo trigésimo aniversario celebramos con este número especial. Tal como informa la sección ‘About the Journal’ de su sitio web, fue fundada en 1995 por Tom Wilson en la Universidad de Sheffield y la ha dirigido casi todo este tiempo. En la presentación de la revista se comenta que ‘the Internet and the World ide Web were in their infancy, and the idea was to create a journal that covered the information disciplines in general’, recordando los significativos cambios acaecidos en nuestro campo durante todo este período, de proporciones exponenciales (casi hipergeométricas) en comparación con otros períodos anteriores donde la evolución seguía ritmos mucho más pausados.

Portada de un número de la revista Information Research en su diseño actual.
Portada de un número de la revista Information Research en su diseño actual (https://publicera.kb.se/ir).

La vocación internacional de la revista se observa claramente en el título de esta y constituye uno de sus puntos fuertes. No cabe duda alguna que esto es fiel reflejo de otro aspecto destacado de la personalidad de Tom Wilson: su afán por visitar la mayor parte de países del mundo posible para entrar en contacto con colegas y estudiantes. Gracias a esa actitud abierta y colaborativa tuvimos ocasión de conocerle personalmente y, desde entonces, ha sido para nosotros ese faro que guía a los barcos en la noche hacia puerto seguro donde descansar y avituallarse. Su primera visita a Murcia fue por motivo de un seminario sobre ‘Information Management’ justo el mismo curso que iniciábamos los estudios de Biblioteconomía y Documentación (1989-1999). Desde entonces, el contacto ha sido permanente y el vínculo se fue fortaleciendo hasta el punto de que es la única persona a quien se le ha concedido el Doctorado Honoris Causa a propuesta de nuestra facultad. Hicimos coincidir la ceremonia de investidura con esta distinción académica con la celebración de la conferencia ISIC-2010 para que una parte importante de sus amigos pudiera percibir en primera persona el alto nivel de reconocimiento y devoción que sentimos en esta humilde universidad del sureste de España por nuestro amigo, casi familia, Tom Wilson.

Durante este período de tiempo, el profesor Wilson participó como ponente invitado en el seminario de puesta en marcha de la Cátedra UNESCO en Gestión de Información en las Organizaciones, proyecto que coordinamos en colaboración con la Universidad de La Habana y que tuvo lugar en la Facultad de Economía de la Universidad Nacional Autónoma de México en el año 1995, unos meses antes de la puesta en marcha de la Maestría Internacional en Gestión de Información de la que llevamos realizadas más de 25 ediciones en distintos países de Latinoamérica y que ha permitido a muchos docentes e investigadores acceder al doctorado y progresar en su carrera académica.

En relación con ese progreso de la carrera académica y volviendo a la revista, no recordamos con precisión exacta la fecha, seguro que prácticamente en sus comienzos, el profesor Wilson abrió la posibilidad de publicar artículos en los idiomas portugués y español para colaborar en la difusión de los estudios e investigaciones realizadas en el ámbito iberoamericano, encargando en ese momento la responsabilidad de editar esa sección al profesor José Vicente Rodríguez Muñoz, nuestro maestro y compañero. Este hecho resultó fundamental para la comunicación de nuestras investigaciones en un ámbito internacional al que nos introdujo Tom Wilson, no sólo a los miembros de nuestra universidad, sino a muchos colegas de España, Portugal e Iberoamérica que aprovecharon ese espacio que gentilmente nos abrió el profesor Wilson. En el caso particular de nuestro departamento, Information Research ha sido depositaria de la buena parte de los artículos derivados de las tesis doctorales que hemos realizado a lo largo de estos 30 años, algunos de ellos con una considerable atención e interés por parte de la comunidad investigadora.

Fragmento del artículo 'Advantages of thesaurus representation using the Simple Knowledge Organization System (SKOS) compared with proposed alternatives' publicado en Information Research.
Fragmento del artículo ‘Advantages of thesaurus representation using the Simple Knowledge Organization System (SKOS) compared with proposed alternatives’ publicado en Information Research. Fuente: https://informationr.net/ir/14-4/paper422.html

Hoy en día esa sección sigue recibiendo de forma periódica abundantes peticiones de publicación de artículos, si bien la tendencia actual es presentarlos en inglés (la lingua franca de la Ciencia). Podemos asegurar, sin temor a equivocarnos, que tanto la revista como su director, tienen una pequeña parte de culpa en esa internacionalización de la comunicación de la ciencia en nuestro entorno.

Information Research ha sido siempre una revista digital con el mismo nivel de gestión editorial que otras revistas de más longevas en el tiempo y con mayor presupuesto (algo imaginario en nuestro caso particular). Todo ha sido posible por la disposición de una multitud de compañeros y colegas que nunca han dudado a responder afirmativamente a la “llamada” de Tom Wilson para colaborar con la revista. En todos estos años hemos aprendido muchas cosas y queremos resaltar algunas de ellas. La primera fue la inmensa sorpresa que percibimos ante el nivel de dedicación y atención que investigadores y autores de referencia mundial prestaban a las tareas de revisión y edición de los artículos dentro de un contexto colaborativo impregnado de armonía, equidad y respeto por las decisiones adoptadas por todos los compañeros participantes. Esto nos ha servido a muchos de nosotros para replicarlo en otros proyectos editoriales en los que participamos, aprendiendo todos de todos. Otro aspecto que destacar es la formalidad del proceso editorial, al que muchos autores no estábamos acostumbrados en nuestros entornos locales en aquella época. El uso de una plantilla XHTML para la maquetación rigurosa de los artículos ha permitido además una mayor interoperabilidad y difusión de los textos dentro del ecosistema de la Web Semántica, también embrionario e incipiente cuando se implantó su uso. Continuando con los aspectos formales, la revisión de estilo, que se mantiene en la actualidad, es otra de las fortalezas de nuestra revista, a pesar de que se ha ido trivializando en otras revistas con el paso del tiempo.

Quizá los lectores más antiguos de esta revista recuerden que, al poco de haber sido indexada por la base de datos Social Science Citation Index (hoy parte de la WOS), hubo que introducir algunos cambios en la denominación de los artículos y guardar una copia de este y de las referencias empleadas en un sistema de archivo digital (webcitation.org) para intentar obviar la futilidad propia del ecosistema de la web de aquella época. Tom Wilson condujo inteligentemente este proceso y llevó a cabo la asignación de identificaciones permanentes de artículos para favorecer una preservación de los documentos cuando prácticamente esos conceptos eran embrionarios. Hace un par de años realizamos un sondeo para verificar la existencia de “citas perdidas” de los artículos de nuestra revista en la Web of Science (WOS), un problema presente en muchas publicaciones de acceso abierto y que añade otra tarea más sus comités editoriales. Cuál fue nuestra sorpresa, en realidad no tanto, cuando verificamos que Information Research tenía debidamente computadas todas. La rigurosidad editorial por bandera forma parte de nuestro genoma vital.

En los relativo a la indexación en bases de datos y la posición de la revista en los índices de impacto (estos últimos no han preocupado en exceso a Tom Wilson), la revista siempre ha estado recopilada por los principales productores y distribuidores, además de tener factor de impacto tanto en JCR/JCI como en el índice SJR donde nuestra publicación recibe más citas debido al mayor alcance geográfico del mismo, volviendo a poner de manifiesto que la internacionalización de la revista es una de nuestras fortalezas.

Lo que no ha cambiado nunca es el acceso abierto a los contenidos publicados en nuestra revista sin aplicar coste alguno a los autores de los artículos (las tan controvertidas como perniciosas APCs). Nuestra revista es, desde sus inicios, una revista de acceso abierto “diamante”. Y he aquí la paradoja, Information Research es acceso abierto cuando aún no se había redactado la Declaración de Budapest (2002); incluso Information Research es “diamante” cuando aún no se había tenido que establecer esta categoría de publicaciones para distinguir el verdadero acceso abierto del que pretenden instaurar las editoriales comerciales intenta hacer frente al acoso de las editoriales comerciales, financiadas con dinero público por culpa de una deficiente aplicación del Plan “S” que ha dado pábulo a la proliferación de revistas predadoras y/o de escaso nivel científico que dañan mucho a la comunicación de la ciencia. IR es un claro ejemplo de lo contrario, de cómo el sueño de Tom Wilson se ha consolidado en una publicación de referencia internacional, abierta a todo tipo de autores, consolidados y noveles, y a todas las disciplinas relacionadas con la investigación en información. Por todo ello, creemos de justicia afirmar que, tanto la revista como su impulsor y director hasta el año pasado, son “pioneros del acceso abierto” junto a todos quienes hemos dedicado una parte de nuestro tiempo a la misma.

Autores

Jose-Vicente Rodriguez-Munoz, Francisco-Javier Martinez-Mendez, Pedro-Manuel Diaz-Ortuno, Gregorio Moya-Martinez y Rosana Lopez-Carreno, miembros del Grupo de Investigación en Tecnologías de la Información de la Universidad de Murcia y colaboradores habituales con la revista en los últimos 30 años.

References

Budapest Open Access Initiative. (2002). https://doi.org/10.4403/jlis.it-8629

Fuchs, C., & Sandoval, M. (2013). The diamond model of open access publishing: Why policy makers, scholars, universities, libraries, labour unions and the publishing world need to take non-commercial, non-profit open access serious. TripleC: Communication, capitalism & critique, 11(2), 428-443.  https://doi.org/10.31269/vol11iss2pp428-443  

Rodríguez Muñoz, J.V. et al. (2010) Discursos pronunciados en el acto de investidura del profesor Thomas Daniel Wilson como Doctor Honoris Causa por la Universidad de Murcia. http://hdl.handle.net/10201/40450

cOAlition S. (2019). Accelerating the transition to full and immediate Open Access to scientific publications. Science Europe. https://archive.org/details/plan-s-rationale-310519

Retos de las universidades en el paradigma de la Ciencia Abierta

Fachada de la Universidad de Murcia pintada por Falgas
portada del informe

El informe Open Science: The Challenge for Universities, elaborado por la International Association of Universities (IAU), analiza el papel y los retos de las universidades en el nuevo paradigma de la Ciencia Abierta. Hoy vamos a prestar atención a dos de sus capítulos.

  • Capítulo 2: papel de las universidades y fundamentos de la Ciencia. Este capítulo establece las bases del rol de las universidades en la generación y transmisión del conocimiento. Explica la interacción entre investigación y educación, el acceso al conocimiento global y cómo las universidades pueden aprovechar la ciencia para la innovación local y nacional. Se destaca la importancia de la integridad académica y la naturaleza de la ciencia como un proceso de autocrítica y corrección.
  • Capítulo 3: retos actuales de las universidades. Aquí se identifican los desafíos clave para las universidades en la era de la Ciencia Abierta. Se abordan temas como la confianza en la ciencia, la diversidad epistemológica, el acceso a la información científica y los riesgos que enfrentan las universidades modernas. Se señala la influencia de la política y la economía en la investigación, así como las amenazas de la comercialización del conocimiento.

Ambos capítulos sirven como marco para comprender por qué las universidades son actores clave en la promoción de la Ciencia Abierta y cómo deben adaptarse para responder a los retos actuales.

El papel de las universidades

El resultado de la investigación es el nuevo conocimiento, mientras que la educación ayuda a formar nuevas personas. Ambos están interconectados: el nuevo conocimiento respalda la educación, y los estudiantes mejor formados contribuyen a la creación de conocimiento. El nuevo conocimiento proviene de los investigadores universitarios y de otros creadores de conocimiento, cuyas contribuciones combinadas generan un flujo global de conocimiento, principalmente a través de publicaciones.

El acceso libre a este flujo global de conocimiento es esencial para todos, tanto para investigadores como para estudiantes. Incluso para los equipos de investigación más avanzados, este flujo de conocimiento supera con creces sus contribuciones individuales. Las habilidades de los grupos de investigación les permiten explorar cómo aplicar mejor este conocimiento existente en la actividad docente y en la innovación en sus contextos locales o nacionales, además de inspirarlos a generar nuevas ideas científicas.

El conocimiento académico no solo beneficia a los investigadores, sino también a los estudiantes y a la sociedad en su conjunto como bien público. La interacción entre investigación y enseñanza en un entorno de debate racional y respetuoso es lo que crea el verdadero potencial de la universidad.

Las universidades poseen capacidades diversas y cumplen roles sociales específicos, ya sea con un enfoque internacional y de investigación intensiva, con un fuerte compromiso local, centradas en la educación o con vínculos estrechos con el tejido empresarial. Pueden especializarse en humanidades, ingeniería, medicina u otras disciplinas, o bien combinar varias de ellas. A pesar de su diversidad, todas las universidades que merecen ese nombre (muchas privadas no alcanzan los mínimos necesarios) comparten un mismo género: ser un espacio en el que expande el límite del conocimiento y la comprensión.

Desafíos contemporáneos para las universidades

3.1. Confiabilidad y confianza

La confiabilidad de la ciencia radica en la integridad de sus procesos. Existen prácticas que garantizan esta integridad a través de la revisión crítica y la exposición abierta de métodos de trabajo. Sin embargo, como ya hemos comentado en este blog, también hay pruebas crecientes de malas prácticas, negligencia e incluso fraude. Aunque la confiabilidad es vital, por sí sola no garantiza la confianza pública. Acciones populistas han desacreditado investigaciones y universidades, fomentando «hechos alternativos» en plataformas digitales. El escepticismo hacia la ciencia ha sido alimentado por la desinformación y el uso de la inteligencia artificial para manipular la opinión pública. La confianza en la ciencia y en las universidades es crucial para enfrentar estos desafíos.

3.2. Respeto a la diversidad

En la era de la Ciencia Abierta, las universidades deben reconocer, respetar y beneficiarse de la diversidad global de culturas, prácticas y prioridades. De lo contrario, este nuevo paradigma podría ser percibido como una extensión de un sistema dominado por los valores occidentales. Los rankings académicos refuerzan prioridades y metodologías predominantemente occidentales (o «norte global«), subvalorando el conocimiento desarrollado en otras regiones, en particular en el «sur global«, así como en saberes vocacionales, prácticos y artísticos. Es fundamental que las universidades promuevan una colaboración internacional basada en el aprendizaje mutuo en lugar de en relaciones de tutela o imposición.

3.3. Acceso al flujo global de conocimiento

El acceso a la información global es un activo esencial para la investigación y la docencia en las universidades. Sin embargo, algunas editoriales comerciales controlan este acceso, requiriendo pagos tanto para acceder como para publicar, lo que perjudica a las instituciones menos favorecidas económicamente. Este modelo limita la diversidad inclusiva de la Ciencia Abierta y perpetúa desigualdades en la generación y difusión del conocimiento.

3.4. Riesgos para la universidad moderna

La mayoría de las universidades públicas enfrentan presiones financieras (en España destacan los problemas de la universidades de Madrid y de Andalucía especialmente) que las llevan a priorizar actividades más rentables en detrimento de la experimentación y la investigación con beneficios a largo plazo. La dependencia de financiamiento gubernamental y privado (siempre escaso) puede generar restricciones en la difusión del conocimiento en favor de intereses económicos o nacionales a corto plazo. Además, la revolución digital y el avance de la inteligencia artificial han creado oportunidades y desafíos para las universidades. La cuestión es si las universidades serán capaces de aprovechar estas tecnologías para fortalecer la Ciencia Abierta o si, por el contrario, su papel será absorbido por corporaciones tecnológicas que privatizan el conocimiento a través de la inteligencia artificial y la propiedad intelectual.

El futuro de la universidad dependerá de su capacidad para equilibrar la presión financiera con su misión de fomentar el conocimiento, la inclusión y el progreso social, sin merma alguna en la calidad y la excelencia que, a pesar de todo, continu atesorando.

#datasets en universidades españolas: avance de resultados 2024

Conjunto de datos de investigación: icono.

A finales del año 2023 publicaba con Ana Alice Baptista (Universidade do Minho), Rosana López Carreño (Universidad de Murcia) y Ángel María Delgado Vázquez (Universidad Pablo de Olavide) el artículo ‘Implementación de los repositorios de datos de investigación en las universidades públicas españolas: estado de la cuestión‘ en la revista Scire de la Universidad de Zaragoza analizando varios aspectos de los datasets en las universidades españolas.

En el artículo, con datos del año 2022, aventurábamos un incremento del número de datasets (conjuntos de datos de investigación) depositados en los repositorios institucionales de las universidades públicas españolas. Este impulso venía propiciado por la apuesta por la Ciencia Abierta reflejada en el lanzamiento de la Estrategia Nacional de Ciencia Abierta en junio de 2023 y se confirmó con el cambio en el paradigma de evaluación de los sexenios de investigación de 2024 por parte de ANECA donde estos conjuntos de datos pasaron a ser considerados méritos evaluables.

Hace más o menos un año actualizábamos los resultados obtenidos en el primero de los estudios y presentábamos la nota ‘Aumentan los datasets de investigación publicados por las universidades públicas‘ en este mismo blog. En el mismo se verificaba nuestra hipótesis porque en el año 2023 se depositaron más del doble de datasets que en el año anterior, como se puede ver en la imagen,

datasets en universidades públicas españolas a finales de 2023

Ya estamos en el año 2025 y hemos comenzado a actualizar los datos del estudio de hace dos años, vamos a computar el total de datasets publicado y, tal como hicimos entonces, los clasificaremos por rama de investigación, plataforma software empleada para el repositorio y el porcentaje que corresponde a los consorcios autonómicos (que siguen «a la cabeza», por cierto). Esto aún tardará un poco (esperemos que no mucho), pero de momento y a modo de de aperitivo de Año Nuevo, ya tenemos la gráfica de total de conjuntos de datos depositados actualizada (a falta del dato exacto de la Universidad del País Vasco cuyo repositorio parece estar ahora en modo de mantenimiento).

datasets depositados en las universidades públicas españolas a fecha 1 de enero de 2025

Como podemos ver, continua el aumento del número de datasets depositados aunque a un ritmo algo menor (400 por 523 del año anteiror). Tal como comentábamos en el post del año pasado, estos valores deberían complementarse con el número de datasets depositados en Zenodo, el repositorio del i+d de la Unión Europea, para verificar si el aumento también se está produciendo en el mismo (pensamos que sí). En los dos consorcios autonómicos (Cataluña y Madrid) se han depositado 981 datasets, más del doble que en el resto de las universidades españolas (en la serie histórica estos dos consorcios totalizan 2830 de 4470 datasets depositados, la desigualdad es menor). Esto confirma que el apoyo que prestan a la comunicación de la ciencia desarrollada en su entorno territorial es algo que deberían seguir otras universidades, especialmente en aquellas autonomías donde existan varios centros (Andalucía o Comunidad Valencia por ejemplo). Sigue llamando la atención que la Universidad Complutense de Madrid no participe en su consorcio regioal y el escaso nçumero de datasets sportados, teniendo en cuenta el tamaño e importancia de esta universidad (aunque han cambiado la plataforma y ahora usan Dspace, eso es positivo). .

En cuanto tengamos actualizado el informe, lo depositaremos en el repositorio DIGITUM e informaremos del mismo en otro post.

Feliz Año 2025
#CienciaAbiertaYa!!