CERN

#datasets en Zenodo de universidades españolas: crecimiento y nuevos retos

logo Ciencia Abierta - Open Science Fuente; wikipedia - commons

El camino hacia la ciencia abierta amplía el foco de la comunicación científica hacia un nuevo paradigma: ya no se trata de publicar en abierto los artículos científicos para exponer y difundir los resultados de investigación, sino también de hacer públicos y accesibles los conjuntos de datos que sustentan la investigación. Estos conjuntos (o ‘datasets’ en la jerga) se han convertido en un elemento fundamental para mejorar la transparencia en la investigación (y la rendición de cuentas), facilitar la reproducibilidad y permitir la reutilización del conocimiento científico.

logotipo de Zenodo

En nuestro contexto, el repositorio Zenodo desempeña un papel clave dentro de las infraestructuras de ciencia abierta. Desarrollado por el CERN (donde nació la web) y financiado por la Comisión Europea, permite depositar ‘datasets’, software, documentos y otros resultados de investigación, asignándoles un DOI que facilita su citación, preservación y difusión.

Hace un año (más o menos) analizamos en este blog la presencia de datasets generados por investigadores adscritos a las universidades públicas españolas en Zenodo (en las privadas se investiga menos). En ese estudio, con fecha de 31-12-2024, identificamos 6.944 contribuciones institucionales de conjuntos de datos y aportaba dos conclusiones principales: (1) el crecimiento progresivo del depósito de datos desde el año 2020 y (2) la existencia de grandes diferencias entre universidades en cuanto a su participación en este tipo de repositorios.

resumen descriptivo del informe de 2025 sobre los datasets de universidades públicas en Zenodo

Hace pocos días, finalizamos un nuevo informe, actualizado hasta 31-12-2025, que confirma la aceleración de este depósito. En un año, el número total de conjuntos de datos de investigación asociados a investigadores de universidades públicas españolas ha pasado de 6.944 a 11.241 (62% de incremento). Esto refleja un cambio progresivo en las prácticas de investigación, impulsado tanto por políticas institucionales (ENCA) como por los requisitos de financiación y evaluación relacionados con la ciencia abierta. El hecho de que ANECA también los valore como mérito para sexenios y acreditación puede tener algo que ver, aunque quizá el efecto sea muy reciente.

Crece muy rápido el depósito de datos

La evolución anual muestra una tendencia claramente ascendente, especialmente a partir de 2020.

evolución anual del número de datasets españoles en Zenodo

El pasado año 2025 destaca por el fuerte incremento de los conjuntos de datos de investigación depositados, que supera con mucho los valores registrados en años anteriores. Este crecimiento sólo es posible por la asunción por parte de los investigadores de la necesidad de considerar el depósito de los datos como parte natural del ciclo de investigación (además de la «obligación» que hay cuando recibimos financiación pública). El crecimiento no se concentra en unas pocas universidades, ha sido generalizado (incluso en aquellas que forman parte del «furgón de cola»). La media por universidad ha pasado de 141 a 229 conjuntos de datos, mientras que la mediana prácticamente se duplica. Esto significa que el depósito se extiende progresivamente por el conjunto del sistema universitario español.

Top 15 de universidades españolas con datasets en zenodo

Se observa un aumento significativo del número de universidades de alta actividad. Si en 2024 solo dos superaban los 400 conjuntos de datos, en 2025 ya son siete, destacando especialmente Valencia, Barcelona, Sevilla, Granada y la Politécnica de Valencia. Esto apunta a la consolidación y aceptación de estrategias institucionales más activas en lo relacionado con la gestión de datos de investigación.

Más conjuntos de datos, pero menos descripción

Los datos de este nuevo informe confirman una tendencia negativa: a medida que aumenta el volumen de conjuntos de datos depositados, la calidad de su descripción documental disminuye. Se ha utilizado como indicador la presencia del metadato ‘subject‘ en la descripción del conjunto de datos porque permite describir su contenido y facilita su posterior recuperación en el repositorio. En 2024, aproximadamente el 65 % incluían este tipo de metadatos, mientras que en 2025 la media desciende hasta un 56 %, quedando muy lejos en el tiempo aquellos años en los que este porcentaje alcanzaba el 75%. Esta tendencia a la baja sugiere que el crecimiento del volumen se produce más rápido que la adopción de buenas prácticas de documentación de los conjuntos de datos. Aunque cada vez se depositan más, no siempre se acompañan de una descripción suficiente que facilite su localización y reutilización.

Un indicador para analizar el equilibrio entre volumen y calidad

En el primero de los informes introdujimos un indicador sintético inspirado en la medida I₀ de Borko, originalmente diseñada para evaluar la eficacia de sistemas de recuperación de información, y que adaptamos a este contexto (lo denominamos igual un poco en «homenaje» a esta medida que utilizamos en nuestra tesis doctoral en una época muy, pero que muy lejana, el año 2002). Esta medida combina dos dimensiones: el volumen de conjuntos de datos depositados por cada universidad y el nivel de descripción documental de los mismos. Según este indicador, las que muestran un mejor equilibrio entre ambas dimensiones en 2025 son Sevilla, Jaume I, Barcelona, Autónoma de Madrid y Alcalá, que ocupan las primeras posiciones del ranking.

relación entre volumen de datasets publicados y nivel de descripción de los mismos

Conclusión

Los resultados muestran que el ecosistema de conjuntos de datos de investigación en el sistema universitario español crece con rapidez. Cada vez más investigadores efectúan el depósito en abierto en repositorios y varias universidades comienzan a consolidar estrategias institucionales para la gestión de datos. Sin embargo, el crecimiento cuantitativo debe ir acompañado de mejoras en la documentación y descripción de los conjuntos de datos. Si no se incorporan los metadatos adecuados, estos conjuntos de datos pueden ser técnicamente «abiertos», pero serán difíciles de encontrar, interpretar o reutilizar, para ello no hace falta el depósito.

El reto de los próximos años no será solo publicar más conjuntos de datos de investigación, sino también describirlos y publicarlos mejor.

Fuentes:

  • Martínez Méndez, Francisco Javier: López Carreño, Rosana; Baptista, Ana Alice, Castelló Cogollos, Lourdes y Delgado Vázquez, Ángel M. (2023). Implementación de los repositorios de datos de investigación en las universidades públicas españolas: estado de la cuestión. Scire: representación y organización del conocimiento, 29(2), 39-49. https://doi.org/10.54886/scire.v29i2.4914
  • Martínez Méndez, Francisco Javier: López Carreño, Rosana; Baptista, Ana Alice, Castelló Cogollos, Lourdes y Delgado Vázquez, Ángel M. (2023). (2025). #datasets de universidades españolas en Zenodo – 2024. Zenodo. https://doi.org/10.5281/zenodo.18085406
  • Martínez Méndez, Francisco Javier: López Carreño, Rosana; Baptista, Ana Alice, Castelló Cogollos, Lourdes y Delgado Vázquez, Ángel M. (2026). #datasets de universidades españolas en Zenodo a 31-12-2025. Zenodo. https://doi.org/10.5281/zenodo.18903560

Nota técnica.

Cuando en un conjunto de datos de investigación aparecen investigadores de dos o más universidales, ese conjunto de datos se computa en cada institución. Por tanto, el número de conjuntos de datos total es algo inferior al que mostramos.

La web: motor del cambio en internet

las primeras web

Cuando Berners-Lee volvió al CERN el uso de la propia red internet había cambiado: “el mundo había cambiado. La internet, aunque todavía desconocida para gran parte del público, estaba ahora firmemente arraigada. Era esencialmente una escueta infraestructura, un enrejado de tubos vacíos. Había formas de recuperar los datos, pero no existían maneras muy fáciles para llevarlo a cabo, y ciertamente, no había nada y nada con la estructura intuitiva y neuronal estructura del hipertexto” (Wright, 1997).

La propuesta de solución de hipertexto para la gestión de información prosperó. La misma conllevó la creación de la web. Para ello, Berners-Lee no se anduvo con medias tintas planteando propuestas teóricas pendientes de implantación posterior, todo lo contrario, buscó una solución a partir de nuevos desarrollos y adaptaciones de algunas aportaciones anteriores. Así, desarrolló el protocolo ligero de comunicaciones que permite llevar a cabo la navegación por la web – http – y desarrolló el lenguaje HTML de marcado que permite elaborar páginas. A estas dos propuestas unió las soluciones informáticas para el soporte (servidor web), para la navegación (cliente web o navegadore), y la edición de textos en HTML. Con ello se puso en marcha el sistema de información que todo lo revolucionó.

fragmento de la primera página web de la historia
Vista parcial de la primera página web en el CERN (sigue activa en https://info.cern.ch/hypertext/WWW/TheProject.html).

Siendo, sin duda alguna, la mayor creación tecnológica jamás desarrollada en nuestro campo desde la creación de internet, su importancia queda algo reducida si la comparamos con el resultado unos años después: un orbe infinito de información de acceso libre y universal (sin limitaciones en lo geográfico como en las posibles discapacidades personales o tecnológicas, al menos al principio, hasta que muchos intereses espúreos se hicieron presentes en la web).

infografía que ilustra el concepto de nativo digital, uno joven dentro de un móvil

Si alguna vez, Berners-Lee fue consciente de la grandiosidad de su invento sólo él lo sabe, y sólo a él, en justicia cabe preguntarle, los demás sólo podemos elucubrar al respecto. Lo que sí es cierto es el hecho irrefutable de que la web y sus tecnologías asociadas forman parte del modo de vida cotidiano de todos nosotros. De hecho, quienes han nacido este siglo (y en los últimos años del anterior), los llamados “nativos digitales”, no conciben la vida sin su existencia, especialmente desde la popularización del uso de aplicaciones como el correo electrónico outlook o los motores de búsqueda Google o Yahoo! (por citar algunas de las tecnologías más clásicas), o la mensajería por Whatsapp o el intercambio de fotos, opiniones y comentarios en la red de microblogging Twitter (ahora X).

Vista de un sistema de información Gopher con interface web y vista original.
Vista de un sistema de información Gopher con interface web y vista original.

La implantación de la web fue meteórica. En pocos meses había ocupado el espacio que había ocupado Gopher, sistema de información en formato de tablero electrónico (parecido al teletexto de la televisión) muy popular entre las comunidades universitarias que permitió plasmar en la red dos ideas importantes: (1) la interconexión de servidores (a modo de enlace) y (2) la interoperabilidad con aplicaciones a las que se accedía por acceso remoto o telnet, como era el caso de los primeros módulos de consulta en línea de catálogos de bibliotecas (OPACs). Hacia 1995 existían en internet más de dos millones de servidores basados en esta tecnología que fueron rápidamente sustituidos por la web por la mejor experiencia de usuario y la multitud de ventajas aportadas por la web, convirtiendo el uso de esta aplicación en un recuerdo casi romántico en la mente de aquellos que la llegamos a manipular. Sobre Gopher se construyó la primera Hytelnet que interconectaba los catálogos de las bibliotecas (luego se implementó en la web).

Hytelnet and telnet access

Leonard Kleinrock, uno de los inventores de internet, comentó en una entrevista hace unos años que lo más le gustaba de su invento era el hecho de “haber estado allí«. A un nivel infinitamente menor de relevancia y desde la perspectiva de un humilde profesor, muchos profesores de Tecnologías de la Información y Documentación Automatizada en los estudios de Biblioteconomía y Documentación en España tenían que utilizar diapositivas o versiones de demostración para simular a los alumnos la recuperación de información online en bases de datos bibliográficas (Medline, ERIC o Lisa por ejemplo) porque no podíamos asumir los costes de la conexión telefónica. Conectar las universidades a internet de y la creación de la web acercó a los profesores y estudiantes a una industria de la información hasta entonces prácticamente inaccesible. Estos profesores y estudiantes pudieron, de una manera humilde obviamente, colaborar en el desarrollo de este nuevo entorno que además ayudó a aumentar el conocimiento de la tecnología que lo sustentaba. De hecho, la creación de la web coincidió con la mejora y liberalización del acceso a la internet en muchos lugares del mundo, por lo que en el imaginario colectivo de buena parte de los ciudadanos reside la idea de que la web trajo la internet a nuestra vida, algo que tiene algo de cierto, incluso puede ser que mucho pero que no es así del todo.

Y por una vez, que no la única afortunadamente (véase el tremendo empujón que los investigadores del mundo llevaron a cabo para diseñar vacunas contra la COVID-19), acompañando a profesores e investigadores en el descubrimiento de los posibles usos y aplicaciones de la web ahí estaban también los profesionales de la información, participando en su desarrollo, no dejándolo (como ocurre con otras tecnologías) en las manos exclusivas de los informáticos.

Página principal de la Universidad de Murcia más antigua conservada en la web Wayback Machine. Octubre de 1997.
Página web más antigua de la Universidad de Murcia conservada en Wayback Machine (12-10-1997).

Y con ello comenzaron a publicarse las primeras páginas web – la mayoría con un diseño manifiestamente mejorable como la que hicimos en la Universidad de Murcia – y se comenzó a dar forma a los primeros sitios web para, poco a poco, conseguir la integración de la información con servicios y aplicaciones en el formato de portal web (López Carreño, 2004). Todo esto no fue flor de un día, sino que precisó de algunos años para su consolidación y desarrollo, período de tiempo que, obviamente, no resultó igualitario entre países y organizaciones. En esa primera etapa se trataba de una web de un sólo sentido: desde el editor (autor) al usuario (lector). Al principio no había retroalimentación ni interactividad alguna, algo que hoy en día parece imposible de concebir para muchos. En estos primigenios sitios web – la ahora llamada “Web 1.0” – solía incluirse una página con enlaces a un conjunto de otras páginas que el autor consideraba interesantes para sus lectores a modo de miscelánea. Esta acción no era otra cosa que la traslación del muy tradicional servicio de referencia que desde tiempos inmemoriales llevan a cabo los profesionales de la información en las bibliotecas y constituyó el germen para el desarrollo de los primeros sistemas de recuperación de información en la web: los índices o directorios, sistemas de los cuales Yahoo! fue durante un tiempo el mejor ejemplo. Los directorios, como todos recordarán son un producto documental considerado una fuente de información de carácter secundario porque dirige a la fuente original, justo lo que hacían y actualmente hacen estos sistemas de recuperación. Una actividad de gestión de información vuelve a confluir con la tecnología de la web.

pantalla principal de Yahoo Search cuando era un directorio en los años 90
Pantalla de inicio de Yahoo Search cuando era un directorio.

El tremendo crecimiento de la edición y publicación de contenidos en la web, hizo muy pronto imposible la gestión manual de estos directorios que sólo alcanzaban a realizar una revisión muy superficial de lo publicado. Esto llevó al desarrollo de los motores de búsqueda, sistemas que alimentan sus bases de datos a partir de la ejecución de unos programas de rastreo (‘crawlers‘) que recopilan direcciones de páginas a partir de los enlaces insertos en las mismas y las indexan de forma automática llevando a cabo una revisión mucho más profunda de lo publicado y de los cambios producidos en los documentos ya recopilados anteriormente. Altavista, Lycos y AlltheWeb fueron algunos de estos sistemas y representaron una innovación de gran impacto en su momento, por primera vez se podía acceder a grandes cantidades de documentos con sólo introducir unas pocas palabras en la ecuación de búsqueda sin necesidad de tener apenas que estudiar el lenguaje de recuperación de información.

Página principal del motor Altavista hacia 1999, cuando todo comenzó a cambiar.
Página principal del motor Altavista hacia 1999.

1990: nace la web en el CERN, el más famoso laboratorio de física

Bernes Lee delante de la primera página web, la del CERN

Durante la década de los años 80, además del tecno-pop, va cogiendo fuerza la idea de que el hipertexto puede ser la mejor solución para la gestión de la información porque la tecnología ya comenzaba a ofrecer soluciones para ello y porque cada vez se veía más claro que las bases de datos relacionales no se ajustaban bien del todo a las exigencias de unos sistemas de información cada vez más grandes y más multimedia. En aquella época es cuando surgen los primeros sistemas de hipertexto de uso más o menos corriente:

IBM BookMaster (1980s). Herramienta de autoría de documentos con capacidades de hipertexto y estructuración. Estaba concebida para crear manuales técnicos y documentación corporativa pero que introdujo ideas que posteriormente aparecieron en otras herramientas de hipertexto.

Pantalla de inicio de Guide Hypertext de OWL

Guide (1982). Sistema desarrollado por Peter J. Brown en la Universidad de Kent y comercializado por Owl International, fue pionero en la navegación hipertextual estructurada. Se usaba para crear documentos extensos y complejos, como manuales técnicos y enciclopedias, en los que los usuarios exploraban la información por medio de enlaces integrados en el texto. Recuerdo de este sistema (llegué a usarlo a principio de los años 90) que introdujo el concepto de «expansión y contracción» del texto, en el que las secciones vinculadas se desplegaban o contraían dentro del mismo documento, ofreciendo una experiencia fluida sin necesidad de cambiar de pantalla (algo que no hace la web). Esta característica era especialmente útil para gestionar grandes cantidades de información de manera organizada y estos enlaces de expansión eran tremendamente útiles y sólo los vemos ahora en las barras de menús.

NoteCards (1984). Creado en el mítico Xerox PARC, fue otro sistema pionero que permitía gestionar ideas interconectadas con informaciones mediante «notas» que podían representar texto, imágenes o gráficos y estaban organizadas en «tarjetas» vinculadas por enlaces. Estaba programado en LISP (uno de los lenguajes de programación más emblemáticos en el campo de la IA creado por John McCarthy, uno de los padres de estas «inteligencias») y permitía a los autores usar comandos de este lenguaje para personalizar o crear tipos de nodos completamente nuevos (recuerda en algo las IA de gramática generativa, ¿verdad?).

Una pantalla típica de trabajo con la aplicación Notecards

HyperCard (1987). Fue la aplicación más conocida aunque solo funcionaba en los ordenadores Macintosh. Desarrollado por Bill Atkinson para Apple era una aplicación que combinaba características de bases de datos, programación y diseño multimedia. Así, permitía crear «pilas» de tarjetas interconectadas. En estas tarjetas podía haber texto, imágenes y botones interactivos que conducían a otras tarjetas, creando así una experiencia de navegación hipertextual. Si bien no pudimos usarlo en nuestra entonces pequeña escuela universitaria (no había presupuesto para adquirir un ordenador de la empresa de la «manzanita»), sí tuve ocasión de leer un manual del sistema. El mismo destacaba enormemente por su facilidad de uso y, además, incluía el lenguaje de programación HyperTalk que permitía a usuarios sin experiencia técnica crear aplicaciones personalizadas. Esta flexibilidad lo convirtió en una herramienta popular para la enseñanza, el desarrollo de juegos y la creación de aplicaciones interactivas. Influyó en el diseño de interfaces gráficas y en la concepción de la web al popularizar los enlaces que conectan diferentes piezas de información.

Pantalla principal de trabajo de Hypercard de Apple

La disponibilidad de una tecnología capaz de gestionar la información de forma gráfica y, especialmente, que propiciase una lectura de forma no estrictamente secuencial, «cierra el ciclo» y termina «conectando» en el tiempo de Vannevar Bush y Ted H. Nelson con Tim Berners-Lee, joven (entonces) investigador británico que trabajaba en el CERN a principios de los 90 y quien asistía incrédulo a principios de esta década a la paradoja de comprobar día a día cómo en este laboratorio (un lugar donde todos los días se llevan a cabo pequeños milagros”, escucha el imaginario historiador Robert Langdon de boca de un también imaginario director del CERN en la novela “Ángeles y demonios” de Dan Brown), perdía información o tenía problemas para localizar proyectos desarrollados por científicos de muy alto nivel tras costosísimas horas de trabajo.

Collage con fotos de Tim Berners-Lee hace unos pocos años, de Ted Nelson en la actualidad y de Vannevar Bush a mediados de los años 40

A Berners-Lee le desesperaba que esa “maravillosa organización” adoleciera de este problema, especialmente cuando en ella trabajaban miles de personas de alta cualificación intelectual, muy creativas la mayoría. Si bien estaban organizados en una estructura jerárquica, esto no limitaba la manera en la que se comunicaba y compartía información, equipo y software en todos los grupos. En realidad, más que de una jerarquía, la estructura de trabajo real del CERN era una red conectada que, además, aumentaba su tamaño con el paso del tiempo.

En este entorno, una persona que se incorporase a este laboratorio, como mucho recibía alguna pista sobre quiénes serían contactos útiles para recabar información verbal de lo disponible acerca de su proyecto y poco más: el resto consistía en un proceso de autoaprendizaje. Por entonces, no se tomaba esto como un problema porque las investigaciones del CERN alcanzaban un éxito notable (y alcanzan hoy en día), a pesar de los malentendidos ocasionales y de la duplicación de esfuerzos en la transmisión interna del conocimiento, sin olvidar las pérdidas de información (los detalles técnicos de proyectos anteriores a veces se perdían para siempre o sólo se recuperaban tras llevar a cabo una investigación típica de detective en una emergencia). El problema se agrandaba por la alta rotación de este personal investigador (muchos investigadores solo llegan a dos años de estancias en este centro).

Tim Berners Lee delante del ordenador consultando la primera web: la del CERN.

También detectó otro problema que había pasado desapercibido: el modo de registrar la documentación de un proyecto. Si un experimento analizaba un fenómeno estático y particular, toda la información se podía registrar en un libro para posteriores consultas, pero esto no era lo frecuente. Cuando había que introducir un cambio en un proyecto que afectaba a una pequeña parte de la organización (cambiar una parte del experimento o comprar un nuevo detector de señales), el investigador debía averiguar qué otras partes de la organización y otros proyectos se iban a ver afectados. Con el tipo de libro de registro utilizado era prácticamente imposible de mantener actualizado y no ofrecía respuestas a cuestiones

Con el paso del tiempo esto se hubiera hecho insostenible. Era un problema a resolver en ese momento que no podía ser visto como un hecho aislado. La supervivencia de una organización de investigación está íntegramente ligada a su capacidad de mejorar su gestión de información. Para hacerla posible, el método de almacenamiento no debería imponer restricciones a la información. Una «red» de notas con enlaces (referencias) entre los documentos era una solución mucho más útil que un sistema jerárquico fijo (tipo carpetas de un administrador de ficheros).

Para describir un sistema complejo, muchas personas recurren a diagramas con círculos y flechas, esto permite describir relaciones entre los objetos de una manera que las tablas o directorios no pueden. Si llamamos a los círculos “nodos” y “enlaces” a las flechas e imaginamos cada nodo como una pequeña nota o pieza de información (da igual que sea un artículo, un resumen o una foto), se puede construir un sistema vinculado de información entre personas y piezas informativas en constante evolución. Así, la información de un proyecto no residirá sólo en una carpeta de documentos que difícilmente un nuevo investigador iba a reutilizar, ahora formaría parte de la red informativa organizacional en la que se establecerían vínculos entre otras personas y departamentos, garantizando la supervivencia de la información. Esta propuesta de sistema de almacenamiento iba va a conseguir implantar, al fin, la idea del hipertexto como sistema de gestión de información.

esquema del hipertexto que sería luego la WWW de Berners Lee

Lo verdaderamente curioso, algo que poca gente conoce, es que cuando Berners-Lee presentó su memorándun ‘Information Management: a proposal‘, su jefe de equipo le dio permiso para hacerlo «cuando no tuviera algo más importante que hacer«.

Foto de personas creativas

Menos mal que era gente «creativa«.


Fuente recomendada: Berners-Lee. T. (1989-1990). Information Management: a proposal.

1989-2014: WWW, de una propuesta de gestión de información a un universo de información

En noviembre de 2014 estuve de visita en la Universidade Estadual Paulista «Julio de Mesquita Filho», más concretamente en el Campus de Marilia. El motivo de la misma fue participar en el Programa de Posgrado de Ciencias de la Información, impartiendo una conferencia el segundo día de mi estancia y un seminario sobre recuperación de datos y recuperación de información al final de la misma. Antes de proseguir quiero agradecer a los compañeros y estudiantes brasileños sus muchas atenciones hacia mi persona, son unos grandes anfitriones y mejores personas.

Edificio de aulas del campus de Marilia en la UNESP
Faculdade de Filosofia e Ciências – Universidade Estadual Paulista «Júlio de Mesquita Filho» – Câmpus de Marília (UNESP).

La conferencia se titulaba «1989-2014: WWW, de una propuesta de gestión de información a un universo de información por descubrir» y en la misma llevaba a cabo un pequeño homenaje a la creación de la WWW por parte de Berners-Lee como una propuesta de nuevo sistema para la gestión de la información, algo que muchos desconocen. 

fragmento de la primera página de la propuesta de Tim Berners Lee sobre la WWW
Fragmento de la portada de la propuesta de Tim Berners Lee sobre la WWW

He revisado algunos errores en la redacción original del texto de la conferencia y la he publicado en el respositorio Digitum de nuestra universidad. Espero que guste, hice un amplio recopilatorio de hitos y conceptos alrededor de la gestión y de la recuperación de información.