Hace más o menos un año actualizábamos los resultados obtenidos en el primero de los estudios y presentábamos la nota ‘Aumentan los datasets de investigación publicados por las universidades públicas‘ en este mismo blog. En el mismo se verificaba nuestra hipótesis porque en el año 2023 se depositaron más del doble de datasets que en el año anterior, como se puede ver en la imagen,
Ya estamos en el año 2025 y hemos comenzado a actualizar los datos del estudio de hace dos años, vamos a computar el total de datasets publicado y, tal como hicimos entonces, los clasificaremos por rama de investigación, plataforma software empleada para el repositorio y el porcentaje que corresponde a los consorcios autonómicos (que siguen «a la cabeza», por cierto). Esto aún tardará un poco (esperemos que no mucho), pero de momento y a modo de de aperitivo de Año Nuevo, ya tenemos la gráfica de total de conjuntos de datos depositados actualizada (a falta del dato exacto de la Universidad del País Vasco cuyo repositorio parece estar ahora en modo de mantenimiento).
Como podemos ver, continua el aumento del número de datasets depositados aunque a un ritmo algo menor (400 por 523 del año anteiror). Tal como comentábamos en el post del año pasado, estos valores deberían complementarse con el número de datasets depositados en Zenodo, el repositorio del i+d de la Unión Europea, para verificar si el aumento también se está produciendo en el mismo (pensamos que sí). En los dos consorcios autonómicos (Cataluña y Madrid) se han depositado 981 datasets, más del doble que en el resto de las universidades españolas (en la serie histórica estos dos consorcios totalizan 2830 de 4470 datasets depositados, la desigualdad es menor). Esto confirma que el apoyo que prestan a la comunicación de la ciencia desarrollada en su entorno territorial es algo que deberían seguir otras universidades, especialmente en aquellas autonomías donde existan varios centros (Andalucía o Comunidad Valencia por ejemplo). Sigue llamando la atención que la Universidad Complutense de Madrid no participe en su consorcio regioal y el escaso nçumero de datasets sportados, teniendo en cuenta el tamaño e importancia de esta universidad (aunque han cambiado la plataforma y ahora usan Dspace, eso es positivo). .
En cuanto tengamos actualizado el informe, lo depositaremos en el repositorio DIGITUM e informaremos del mismo en otro post.
Cuando Berners-Leevolvió al CERN el uso de la propia red internet había cambiado: “el mundo había cambiado. La internet, aunque todavía desconocida para gran parte del público, estaba ahora firmemente arraigada. Era esencialmente una escueta infraestructura, un enrejado de tubos vacíos. Había formas de recuperar los datos, pero no existían maneras muy fáciles para llevarlo a cabo, y ciertamente, no había nada y nada con la estructura intuitiva y neuronal estructura del hipertexto” (Wright, 1997).
La propuesta de solución de hipertexto para la gestión de información prosperó. La misma conllevó la creación de la web. Para ello, Berners-Lee no se anduvo con medias tintas planteando propuestas teóricas pendientes de implantación posterior, todo lo contrario, buscó una solución a partir de nuevos desarrollos y adaptaciones de algunas aportaciones anteriores. Así, desarrolló el protocolo ligero de comunicaciones que permite llevar a cabo la navegación por la web – http – y desarrolló el lenguaje HTML de marcado que permite elaborar páginas. A estas dos propuestas unió las soluciones informáticas para el soporte (servidor web), para la navegación (cliente web o navegadore), y la edición de textos en HTML. Con ello se puso en marcha el sistema de información que todo lo revolucionó.
Siendo, sin duda alguna, la mayor creación tecnológica jamás desarrollada en nuestro campo desde la creación de internet, su importancia queda algo reducida si la comparamos con el resultado unos años después: un orbe infinito de información de acceso libre y universal (sin limitaciones en lo geográfico como en las posibles discapacidades personales o tecnológicas, al menos al principio, hasta que muchos intereses espúreos se hicieron presentes en la web).
Si alguna vez, Berners-Lee fue consciente de la grandiosidad de su invento sólo él lo sabe, y sólo a él, en justicia cabe preguntarle, los demás sólo podemos elucubrar al respecto. Lo que sí es cierto es el hecho irrefutable de que la web y sus tecnologías asociadas forman parte del modo de vida cotidiano de todos nosotros. De hecho, quienes han nacido este siglo (y en los últimos años del anterior), los llamados “nativos digitales”, no conciben la vida sin su existencia, especialmente desde la popularización del uso de aplicaciones como el correo electrónico outlook o los motores de búsqueda Google o Yahoo!(por citar algunas de las tecnologías más clásicas), o la mensajería por Whatsapp o el intercambio de fotos, opiniones y comentarios en la red de microblogging Twitter (ahora X).
La implantación de la web fue meteórica. En pocos meses había ocupado el espacio que había ocupado Gopher, sistema de información en formato de tablero electrónico (parecido al teletexto de la televisión) muy popular entre las comunidades universitarias que permitió plasmar en la red dos ideas importantes: (1) la interconexión de servidores (a modo de enlace) y (2) la interoperabilidad con aplicaciones a las que se accedía por acceso remoto o telnet, como era el caso de los primeros módulos de consulta en línea de catálogos de bibliotecas (OPACs). Hacia 1995 existían en internet más de dos millones de servidores basados en esta tecnología que fueron rápidamente sustituidos por la web por la mejor experiencia de usuario y la multitud de ventajas aportadas por la web, convirtiendo el uso de esta aplicación en un recuerdo casi romántico en la mente de aquellos que la llegamos a manipular. Sobre Gopher se construyó la primera Hytelnet que interconectaba los catálogos de las bibliotecas (luego se implementó en la web).
Leonard Kleinrock, uno de los inventores de internet, comentó en una entrevista hace unos años que lo más le gustaba de su invento era el hecho de “haber estado allí«. A un nivel infinitamente menor de relevancia y desde la perspectiva de un humilde profesor, muchos profesores de Tecnologías de la Información y Documentación Automatizada en los estudios de Biblioteconomía y Documentación en España tenían que utilizar diapositivas o versiones de demostración para simular a los alumnos la recuperación de información online en bases de datos bibliográficas (Medline, ERIC o Lisa por ejemplo) porque no podíamos asumir los costes de la conexión telefónica. Conectar las universidades a internet de y la creación de la web acercó a los profesores y estudiantes a una industria de la información hasta entonces prácticamente inaccesible. Estos profesores y estudiantes pudieron, de una manera humilde obviamente, colaborar en el desarrollo de este nuevo entorno que además ayudó a aumentar el conocimiento de la tecnología que lo sustentaba. De hecho, la creación de la web coincidió con la mejora y liberalización del acceso a la internet en muchos lugares del mundo, por lo que en el imaginario colectivo de buena parte de los ciudadanos reside la idea de que la web trajo la internet a nuestra vida, algo que tiene algo de cierto, incluso puede ser que mucho pero que no es así del todo.
Y por una vez, que no la única afortunadamente (véase el tremendo empujón que los investigadores del mundo llevaron a cabo para diseñar vacunas contra la COVID-19), acompañando a profesores e investigadores en el descubrimiento de los posibles usos y aplicaciones de la web ahí estaban también los profesionales de la información, participando en su desarrollo, no dejándolo (como ocurre con otras tecnologías) en las manos exclusivas de los informáticos.
Y con ello comenzaron a publicarse las primeras páginas web – la mayoría con un diseño manifiestamente mejorable como la que hicimos en la Universidad de Murcia – y se comenzó a dar forma a los primeros sitios web para, poco a poco, conseguir la integración de la información con servicios y aplicaciones en el formato de portal web (López Carreño, 2004). Todo esto no fue flor de un día, sino que precisó de algunos años para su consolidación y desarrollo, período de tiempo que, obviamente, no resultó igualitario entre países y organizaciones. En esa primera etapa se trataba de una web de un sólo sentido: desde el editor (autor) al usuario (lector). Al principio no había retroalimentación ni interactividad alguna, algo que hoy en día parece imposible de concebir para muchos. En estos primigenios sitios web – la ahora llamada “Web 1.0” – solía incluirse una página con enlaces a un conjunto de otras páginas que el autor consideraba interesantes para sus lectores a modo de miscelánea. Esta acción no era otra cosa que la traslación del muy tradicional servicio de referencia que desde tiempos inmemoriales llevan a cabo los profesionales de la información en las bibliotecas y constituyó el germen para el desarrollo de los primeros sistemas de recuperación de información en la web: los índices o directorios, sistemas de los cuales Yahoo! fue durante un tiempo el mejor ejemplo. Los directorios, como todos recordarán son un producto documental considerado una fuente de información de carácter secundario porque dirige a la fuente original, justo lo que hacían y actualmente hacen estos sistemas de recuperación. Una actividad de gestión de información vuelve a confluir con la tecnología de la web.
El tremendo crecimiento de la edición y publicación de contenidos en la web, hizo muy pronto imposible la gestión manual de estos directorios que sólo alcanzaban a realizar una revisión muy superficial de lo publicado. Esto llevó al desarrollo de los motores de búsqueda, sistemas que alimentan sus bases de datos a partir de la ejecución de unos programas de rastreo (‘crawlers‘) que recopilan direcciones de páginas a partir de los enlaces insertos en las mismas y las indexan de forma automática llevando a cabo una revisión mucho más profunda de lo publicado y de los cambios producidos en los documentos ya recopilados anteriormente. Altavista, Lycos y AlltheWeb fueron algunos de estos sistemas y representaron una innovación de gran impacto en su momento, por primera vez se podía acceder a grandes cantidades de documentos con sólo introducir unas pocas palabras en la ecuación de búsqueda sin necesidad de tener apenas que estudiar el lenguaje de recuperación de información.
Durante la década de los años 80, además del tecno-pop, va cogiendo fuerza la idea de que el hipertexto puede ser la mejor solución para la gestión de la información porque la tecnología ya comenzaba a ofrecer soluciones para ello y porque cada vez se veía más claro que las bases de datos relacionales no se ajustaban bien del todo a las exigencias de unos sistemas de información cada vez más grandes y más multimedia. En aquella época es cuando surgen los primeros sistemas de hipertexto de uso más o menos corriente:
IBM BookMaster (1980s). Herramienta de autoría de documentos con capacidades de hipertexto y estructuración. Estaba concebida para crear manuales técnicos y documentación corporativa pero que introdujo ideas que posteriormente aparecieron en otras herramientas de hipertexto.
Guide (1982). Sistema desarrollado por Peter J. Brown en la Universidad de Kent y comercializado por Owl International, fue pionero en la navegación hipertextual estructurada. Se usaba para crear documentos extensos y complejos, como manuales técnicos y enciclopedias, en los que los usuarios exploraban la información por medio de enlaces integrados en el texto. Recuerdo de este sistema (llegué a usarlo a principio de los años 90) que introdujo el concepto de «expansión y contracción» del texto, en el que las secciones vinculadas se desplegaban o contraían dentro del mismo documento, ofreciendo una experiencia fluida sin necesidad de cambiar de pantalla (algo que no hace la web). Esta característica era especialmente útil para gestionar grandes cantidades de información de manera organizada y estos enlaces de expansión eran tremendamente útiles y sólo los vemos ahora en las barras de menús.
NoteCards (1984). Creado en el mítico Xerox PARC, fue otro sistema pionero que permitía gestionar ideas interconectadas con informaciones mediante «notas» que podían representar texto, imágenes o gráficos y estaban organizadas en «tarjetas» vinculadas por enlaces. Estaba programado en LISP (uno de los lenguajes de programación más emblemáticos en el campo de la IA creado por John McCarthy, uno de los padres de estas «inteligencias») y permitía a los autores usar comandos de este lenguaje para personalizar o crear tipos de nodos completamente nuevos (recuerda en algo las IA de gramática generativa, ¿verdad?).
HyperCard (1987). Fue la aplicación más conocida aunque solo funcionaba en los ordenadores Macintosh. Desarrollado por Bill Atkinson para Apple era una aplicación que combinaba características de bases de datos, programación y diseño multimedia. Así, permitía crear «pilas» de tarjetas interconectadas. En estas tarjetas podía haber texto, imágenes y botones interactivos que conducían a otras tarjetas, creando así una experiencia de navegación hipertextual. Si bien no pudimos usarlo en nuestra entonces pequeña escuela universitaria (no había presupuesto para adquirir un ordenador de la empresa de la «manzanita»), sí tuve ocasión de leer un manual del sistema. El mismo destacaba enormemente por su facilidad de uso y, además, incluía el lenguaje de programación HyperTalk que permitía a usuarios sin experiencia técnica crear aplicaciones personalizadas. Esta flexibilidad lo convirtió en una herramienta popular para la enseñanza, el desarrollo de juegos y la creación de aplicaciones interactivas. Influyó en el diseño de interfaces gráficas y en la concepción de la web al popularizar los enlaces que conectan diferentes piezas de información.
La disponibilidad de una tecnología capaz de gestionar la información de forma gráfica y, especialmente, que propiciase una lectura de forma no estrictamente secuencial, «cierra el ciclo» y termina «conectando» en el tiempo de Vannevar Bush y Ted H. Nelson con Tim Berners-Lee, joven (entonces) investigador británico que trabajaba en el CERN a principios de los 90 y quien asistía incrédulo a principios de esta década a la paradoja de comprobar día a día cómo en este laboratorio (un lugar donde todos los días se llevan a cabo pequeños milagros”, escucha el imaginario historiador Robert Langdon de boca de un también imaginario director del CERN en la novela “Ángeles y demonios” de Dan Brown), perdía información o tenía problemas para localizar proyectos desarrollados por científicos de muy alto nivel tras costosísimas horas de trabajo.
A Berners-Lee le desesperaba que esa “maravillosa organización” adoleciera de este problema, especialmente cuando en ella trabajaban miles de personas de alta cualificación intelectual, muy creativas la mayoría. Si bien estaban organizados en una estructura jerárquica, esto no limitaba la manera en la que se comunicaba y compartía información, equipo y software en todos los grupos. En realidad, más que de una jerarquía, la estructura de trabajo real del CERN era una red conectada que, además, aumentaba su tamaño con el paso del tiempo.
En este entorno, una persona que se incorporase a este laboratorio, como mucho recibía alguna pista sobre quiénes serían contactos útiles para recabar información verbal de lo disponible acerca de su proyecto y poco más: el resto consistía en un proceso de autoaprendizaje. Por entonces, no se tomaba esto como un problema porque las investigaciones del CERN alcanzaban un éxito notable (y alcanzan hoy en día), a pesar de los malentendidos ocasionales y de la duplicación de esfuerzos en la transmisión interna del conocimiento, sin olvidar las pérdidas de información (los detalles técnicos de proyectos anteriores a veces se perdían para siempre o sólo se recuperaban tras llevar a cabo una investigación típica de detective en una emergencia). El problema se agrandaba por la alta rotación de este personal investigador (muchos investigadores solo llegan a dos años de estancias en este centro).
También detectó otro problema que había pasado desapercibido: el modo de registrar la documentación de un proyecto. Si un experimento analizaba un fenómeno estático y particular, toda la información se podía registrar en un libro para posteriores consultas, pero esto no era lo frecuente. Cuando había que introducir un cambio en un proyecto que afectaba a una pequeña parte de la organización (cambiar una parte del experimento o comprar un nuevo detector de señales), el investigador debía averiguar qué otras partes de la organización y otros proyectos se iban a ver afectados. Con el tipo de libro de registro utilizado era prácticamente imposible de mantener actualizado y no ofrecía respuestas a cuestiones
Con el paso del tiempo esto se hubiera hecho insostenible. Era un problema a resolver en ese momento que no podía ser visto como un hecho aislado. La supervivencia de una organización de investigación está íntegramente ligada a su capacidad de mejorar su gestión de información. Para hacerla posible, el método de almacenamiento no debería imponer restricciones a la información. Una «red» de notas con enlaces (referencias) entre los documentos era una solución mucho más útil que un sistema jerárquico fijo (tipo carpetas de un administrador de ficheros).
Para describir un sistema complejo, muchas personas recurren a diagramas con círculos y flechas, esto permite describir relaciones entre los objetos de una manera que las tablas o directorios no pueden. Si llamamos a los círculos “nodos” y “enlaces” a las flechas e imaginamos cada nodo como una pequeña nota o pieza de información (da igual que sea un artículo, un resumen o una foto), se puede construir un sistema vinculado de información entre personas y piezas informativas en constante evolución. Así, la información de un proyecto no residirá sólo en una carpeta de documentos que difícilmente un nuevo investigador iba a reutilizar, ahora formaría parte de la red informativa organizacional en la que se establecerían vínculos entre otras personas y departamentos, garantizando la supervivencia de la información. Esta propuesta de sistema de almacenamiento iba va a conseguir implantar, al fin, la idea del hipertexto como sistema de gestión de información.
Lo verdaderamente curioso, algo que poca gente conoce, es que cuando Berners-Lee presentó su memorándun ‘Information Management: a proposal‘, su jefe de equipo le dio permiso para hacerlo «cuando no tuviera algo más importante que hacer«.
El final de la II Guerra Mundial trajo consigo la constatación de que los sistemas de información existentes en esa época no iba a ser capaces de clasificar y organizar debidamente las ingentes cantidades de información que ya entonces comenzaban a manipularse, conjuntos de documentos que, de forma incipiente, comenzaban a no estar siempre en formato textual, incorporando otros tipos de media: gráficos, sonidos, planos de diseños, mapas, fotografías, etc. Fueron varios millones de documentos microfilmados por las tropas norteamericanas en archivos e industrias alemanas que fueron puestos a disposición de los gestores de información de entoces, que verificaron, al aplicar sobre ellos los sistemas de clasificación e indización de la época, su inutilidad.
Esta realidad ha llamado la atención para el cine y la literatura, especialmente en la novela de Joseph Kanon “El buen alemán”, resultando ser el inicio de la llamada “guerra fría” entre las dos grandes potencias de entonces (Estados Unidos y la Unión Soviética) por la posesión de los preciados proyectos de ingeniería y de ciencia que se habían desarrollado en la Alemania de principios de siglo XX.
De esta stituación de crisis surge la idea de disponer de otra manera de organizar estos fondos documentales por medio de unos sistemas que permitieran la colaboración de los gestores, facilitando la asociación de ideas y conceptos, y permitiendo adquirir el conocimiento de forma no estrictamente secuencial.
Vannevar Bush, asesor científico del Presidente Franklin Delano Roosevelt, planteó esas necesidades de una nueva solución para la gestión de la información en su artículo ‘As we may think‘ y llegó a pensar en la construcción de una máquina llamada ‘Memex’ (para algunos autores es el acrónimo de Memory – Index, probablemente por similitud a ‘Rolodex’ (Rolling – Index), un dispositivo para almacenamiento y búsqueda de información en fichas muy popular en esa época).
Esta máquina fue concebida como una gran base de datos donde se almacenarían todo tipo de documentos y constaría de una mesa con un teclado y unas palancas que permitirían la consulta de datos almacenados en microfilms que serían proyectados en unas pantallas translúcidas.
Este aparato incluiría también una opción para que el usuario pudiera tomar anotaciones en los márgenes. De esta forma, el usuario lector podría convertirse también en usuario autor, algo verdaderamente innovador y que se pretendía conseguir casi setenta años antes que se fijaran las características de la Web 2.0 que tanta importancia confieren al doble sentido de la publicación en la web. ‘Memex‘ fue un proyecto teórico que nunca llegó a materializarse, la tecnología de la época no lo permitía. Lo que más subyace de los pensamientos de Bush es su idea de que algo nuevo había que hacer, porque seguir gestionando la información de la misma manera, difícilmente podría llevar a buen término esta tarea.
De forma contemporánea a estos planteamientos y circunstancias, se fue imponiendo paulatinamente la Arquitectura de Von Neumann en el diseño y construcción de las computadoras. Una máquina basada en esta arquitectura, al igual que los ordenadores modernos, debía disponer de cuatro componentes esenciales: dispositivo de operaciones, unidad de control, memoria y dispositivos de entrada y salida. Von Neumann, de origen austrohúngaro, había emigrado a EE.UU. antes del inicio de la II Guerra Mundial, era judío y tuvo que abandonar Europa.
Habrían de pasar varios años para que estas máquinas primigenias pudieran llevar a cabo estas tareas en la forma deseada. Uno de los autores más destacados de este campo, el científico norteamericano Ted H. Nelson, ha asistido prácticamente durante toda su vida al desarrollo de un sistema de información que él denominó “hipertexto” y que sería capaz de gestionar piezas (fragmentos) de información de forma que permitiera un aprendizaje de sus contenidos y una gestión de los mismos de forma no estrictamente secuencial, facilitando a sus usuarios la integración de cualquier pieza informativa en sus propios documentos, sin tener que copiar y pegar esa pieza porque se establecerían vínculos entre ellos pasando los documentos de los usuarios a formar parte de una red universal, un sistema imaginario donde residiría toda la información científica: Xanadú (nombre tomado de un poema de Samuel Taylor Coleridge. Nelson interpretó la palabra como «ese mágico sitio de la memoria literal donde nada se pierde nunca» (en el poema era el palacio de Kublai Khan).
Resulta curioso el paralelismo con el palacio del conocimiento que representó en la antigüedad la Biblioteca de Alejandría construida por orden de Ptolomeo I, rey de Egipto y antiguo general de Alejandro Magno.
Este proyecto tenía como objetivo principal la construcción de un servidor de hipertexto para almacenar y enlazar toda la literatura mundial, accesible desde cualquier ordenador. La idea era reunir toda la producción escrita existente y conectar unos textos con otros. Esos documentos estarían almacenados en ordenadores particulares y disponibles al mismo tiempo para el resto de los usuarios (como pasó con Napster y otras redes P2P) por medio de una dirección única para cada uno de ellos, del mismo modo que ahora un objeto publicado en la web tiene asociado un identificador único de documento URI/URL. Esto viene a ser una metáfora muy parecida a lo que Berners-Lee y otros “popes” de la internet han llamado recientemente ‘decentralized web‘
Esta idea también resultó irrealizable en los años 60 y resulta muy parecida a la web actual, aunque existe una importante diferencia: los documentos del hipertexto de Nelson se construirían en el momento de la consulta, en la edición el autor introduciría nuevos textos y enlaces a fragmentos de texto ya escritos por otros autores, la reconstrucción del documento para su lectura estaría garantizada por la técnica del almacenamiento “xanalógico”, técnica con la que el autor pretendía hacer viable su red (en aquella época los ordenadores apenas tenían memoria de almacenamiento disponible). Aunque los problemas de almacenamiento están superados en la actualidad, resulta curioso que esto no haya sido implementado en la web actual, donde abunda (mucho más de lo deseable), la copia de textos desde otros documentos originales. Por esta razón, desde un punto de vista conceptual, el hipertexto de Nelson aún no se ha desarrollado del todo y no es de extrañar la frustración que arrastra este autor por tener que ceder el protagonismo y reconocimiento de su idea a un joven (entonces) investigador británico que trabajaba becado en el Centro Europeo de Investigación Nuclear (CERN, hoy Organización Europea para la Investigación Nuclear) a principios de los años 90.
Cuando comenzó a popularizarse la tecnología de la web, algunos autores la presentaban como: ‘WWW, Xanadu at least‘, homenajeando de alguna manera a Nelson, si bien este reconocimiento no parece satisfacer del todo al autor quien ha reconocido públicamente que, si bien no puede negar el éxito y trascendencia de la web, este sistema aun no es un hipertexto completo en el sentido conceptual que él había imaginado, sino una “brillante simplificación”.
Si bien conceptualmente se habían producido grandes avances en muy pocos años, el alcance de la red Arpanet seguía estando restringida a un número muy pequeño de usuarios. Esto hizo que durante bastante tiempo se continuara utilizando el protocolo “host a host” para conectar los nodos principales de la red mientras que se continuaban desarrollando implementaciones del protocolo TCP/IP más cercanas a los usuarios finales. En el seno de la comunidad científica (los principales usuarios de la red en ese momento), tuvo especial repercusión la inserción de este protocolo como un elemento más del núcleo del sistema operativo UNIX BSD, utilizado en la mayoría de los equipos informáticos de esas instituciones en ese momento, lo que aumentó el número de usuarios y de equipos conectados.
Este crecimiento, unido al acceso desde ordenadores personales a la red (algo infrecuente entonces pero que también sumaba), hizo necesaria la creación del sistema de nombres de dominio o DNS (‘Domain Name System‘), para la asignación de una dirección de red a los equipos conectados al mismo tiempo que les asignaba una dirección nemotécnica más fácil de recordar que la dirección de red de cada ordenador (la «dirección IP» o “IP-Address”).
Hacia el año 1991, un estudiante finlandés de Informática, Linus Torvalds, desarrolló un núcleo para ordenadores de arquitectura x86 Intel que emulaba en gran parte a UNIX y lo lanzó en código abierto en 1991 bajo el nombre de (millones de servidores web emplean ese sistema operativo hoy en día). En 1992, el Proyecto GNU comenzó a utilizar el núcleo de Linux junto a sus programas.
Así, de esta forma, a un equipo con dirección de red 155.54.120.1 se le asignaba un nombre de dominio como, por ejemplo, javima.edu.um.es en el cual se informa de que ese ordenador tiene de nombre “javima”, pertenece a un subdominio educativo “edu” de la organización Universidad de Murcia “um”, registrada en el dominio nacional de España “es”. Este sistema de identificación permite una gestión más directa por parte de los usuarios finales para quienes es más simple recordar los nombres nemotécnicos que un complicado sistema de dígitos numéricos que además, precisan ser revisados de vez en cuando.
Este sistema, que hasta entonces se gestionaba de forma centralizada, pasó a gestión descentralizada de manera que ahora cada entidad responsable de una las redes conectadas debía mantener su propia tabla DNS dentro de una base de datos distribuida y jerárquica.
De esta forma, si se solicita acceder a un ordenador cuyo DNS no está en la tabla de nuestro servidor local, el sistema busca en un servidor raíz por si éste tuviera esa dirección en su tabla y así, sucesivamente hasta dar con él (por ejemplo, un usuario de la red de la Universidad de Murcia solicita visualizar la página de la Universidad Politécnica de Valencia como esa dirección de máquina no está en el servidor DNS de la primera universidad habrá de buscarla en el servidor DNS raíz, en este caso el de Red Iris(entidad responsable de la infraestructura de la red del Plan Nacional de I+D+i de España).
El 1 de enero de 1983, sin muchos problemas, se llevó a cabo (a pesar de mensajes algo caóticos que rodeaban a este proceso y que con el tiempo se han repetido varias veces en el mundo de la Informática), la transición hacia el protocolo TCP/IP de los principales servidores de Arpanet. De esta manera, todos los equipos de esta red estaban interconectados. Es entonces cuando entre los especialistas se comienza a hacer uso del vocablo ‘internetworking‘ para hablar de este hecho, palabra que – abreviada a los 8 primeros caracteres – quedará en poco espacio de tiempo en la forma ‘internet‘, que muy pronto comienza a ser usada para denominar a la red.
Es precisamente ese año cuando el Departamento de Defensa de los Estados Unidos decide dividirla, creando MILNET como red propia asociada a DARPA y dejando a Arpanet (ya rebautizada como internet) para su uso por parte de la comunidad científica.
Internet es fruto de varios proyectos desarrollados en Estados Unidos de forma paralela sin mucho contacto entre llos (al principio), de forma algo más coordinada al final, por la intervención de la agencia ARPA(siglas de Advanced Research Projects Agency), institución directamente vinculada al Departamento de Defensa de los EE.UU, creada en 1958 en respuesta al lanzamiento soviético del satélite Sputnik 2 tripulado por la perrita Laika(aunque la gran divulgadora Nieves Conconstrina contaba el otro día que «laika», en realidad, es el nombre de una raza de perros, no el de la perrita que dio unas cuantas vueltas a nuestro planeta antes que el cosmonauta Yuri Gagarin).
Por ello, muchos autores la consideran fruto de un proyecto de investigación militar destinado a buscar soluciones de comunicación informática en plena “guerra fría”, contexto donde se vivía permanentemente bajo la amenaza de una guerra nuclear que afortunadamente no llegó a producirse. Lo cierto es que la participación de la administración norteamericana en este desarrollo fue vital, independientemente de los objetivos que la auspiciasen. Contribuyó durante bastante tiempo al desarrollo de la verdadera infraestructura de red, algo que tuvo lugar unos cuantos años más tarde.
Dos eran los objetivos perseguidos por estos grupos de trabajo. Hasta entonces, los sistemas informáticos funcionaban generalmente en entornos mainframes, donde se centralizaban los procesos en el ordenador principal, al mismo tiempo que la gestión y el almacenamiento de los datos. Los terminales que se usaban para interaccionar con ellos no eran ordenadores como los que usamos hoy en día, sino simples consolas de comunicaciones con reducidas capacidades de proceso de datos. Transformar esa idea «centralista» en una metáfora de sistema descentralizado donde todas las estaciones de trabajo pudieran acceder a datos y programas y tuvieran cierta capacidad de proceso (que no fueran unos simples terminales de comunicaciones, sino ordenadores), representaba una nueva idea que vino a plasmarse años después: la de red de ordenadores, independientemente de su alcance.
Este cambio, por sí mismo, es trascendental y constituye la base de los sistemas de comunicaciones actuales. En este nuevo paradigma es donde se encuentran los vínculos con proyectos de investigación militares: el sistema centralizado es más vulnerable que un sistema descentralizado y la defensa estratégica estadounidense necesitaba de otros modos de comunicación. En realidad, el sistema descentralizado también podía llegar a ser vulnerable (hay que recordar que el mundo vivía entonces en plena psicosis de posible guerra nuclear) por lo que Paul Baran (1964) llegó a proponer una red de conmutación de paquetes para comunicación vocal segura en el ámbito militar en un entorno distribuido. Sobre esa idea, y unos cuantos años más tarde, se concibió Arpanet si bien el proyecto de Baran ya había sido cerrado para entonces por RAND Corporation, el laboratorio de ideas de las fuerzas armadas norteamericanas.
El segundo objetivo que concentró una gran cantidad de esfuerzos fue cambiar el modo en el que podrían dialogar los ordenadores entre sí (una vez conectados), abandonando la tradicional conmutación de circuitos (que precisaba del establecimiento de la llamada y de la ocupación de todo un circuito de datos para la transmisión) e implementando la conmutación de paquetes de datos (donde no se tiene que esperar al establecimiento de la llamada y cada paquete transmitido procura aprovechar al máximo la capacidad del enlace). Esto permitió a los equipos informáticos compartir datos y aplicaciones en tiempo real. Ambas ideas estaban predestinadas a confluir en la creación de algo importante, como así fue.
También fueron dos las fases en las que se podría dividir esta época. De 1961 a 1965 se puede hablar de planteamientos teóricos, siendo el más destacado el de la “Red Galáctica” de Licklider quien presentó su idea de red interconectada globalmente por medio de la cual cada uno pudiera acceder desde cualquier lugar a datos y programas (el concepto era muy parecido a la internet actual, aunque entonces era un sueño). En 1965 entramos en la primigenia conexión de dos equipos informáticos que llevó a cabo Roberts para verificar que la conmutación de circuitos no servía para sus propósitos. La segunda etapa coincide con su incorporación a ARPA en 1966 para desarrollar el concepto de red de ordenadores, idea que plasma en un proyecto denominado Arpanet presentado en una conferencia científica donde se percatan de que otros grupos de trabajo habían conseguido avances importantes en este campo.
A partir de ahí se suceden los avances y en septiembre de 1969 se elige al ordenador del equipo de Kleinrock como el primer IMP (“procesador de mensajes de interfaz”) y desde ese equipo, un mes más tarde, se envía el primer mensaje a otro ordenador del SRI (algunos participantes en el proyecto han comentado recientemente que la segunda letra de la palabra “Hi” no llegó nunca a California). Después se añadieron dos nodos en la Universidad de California, Santa Bárbara, y en la Universidad de Utah. Así, a finales de 1969, cuatro ordenadores (“hosts” en la jerga de la red) estaban conectados a la Arpanet inicial, la primigenia internet.
«Internet está en plena pubertad. Es un adolescente loco, misterioso, rebelde, impredecible. La pregunta es: ¿se convertirá en un adulto responsable? Ojalá. Pero no todos los adolescentes lo hacen».
Kleinrock, hace unos pocos años.
Fuente: «Una breve historia de internet» escrita por quienes allí estuvieron: Barry M. Leiner, Vinton G. Cerf, David D. Clark, Robert E. Kahn, Leonard Kleinrock, Daniel C. Lynch, Jon Postel, Larry G. Roberts, Stephen Wolff.
Contenido de calidad para Google es el que cumple con los principios de utilidad, relevancia y confiabilidad, mientras se optimiza para las necesidades de los usuarios. Este concepto ha evolucionado con el tiempo e incluye ahora una atención especial al alineamiento con los principios E-E-A-T.
(a) Los principios E-E-A-T: Experiencia, Conocimientos, Autoridad y Confiabilidad
Experiencia (‘experience’): es bueno que el creador del contenido posea experiencia práctica y directa en el tema tratado. Esto incluye anécdotas, casos de uso y resultados obtenidos de primera mano, relevantes sobre todo en industrias como portales de viajes o productos especializados.
Conocimientos(‘expertise’): relacionado con el anterior principio, es conveniente que el contenido sea escrito por alguien con un conocimiento técnico o especializado en el tema (en medicina un médico o un investigador biosanitario, en derecho un magistrado o un fiscal, etc.). También se puede traducir como «pericia».
Autoridad (‘authoritativeness’): principio vinculado con la reputación del creador y de la fuente. Incluye menciones por otros expertos y enlaces entrantes de sitios confiables. Google valora el contenido que sea verdadera referencia dentro de un sector. Google evalúa la autoridad analizando factores como la calidad de las fuentes que enlazan al contenido y las menciones del autor o sitio web en medios confiables. Un sitio web o creador de contenido que es considerado la fuente definitiva en un tema tiene una autoridad muy alta.
Confiabilidad (‘trustworthiness’): principio relacionado con la precisión y seguridad del contenido. Aquello sitios web con errores, datos imprecisos o que no usen el protocolo seguro https, afectan negativamente a la percepción del contenido. La confianza se evalúa con base en la precisión, honestidad, seguridad y fiabilidad del contenido del sitio web en general. Factores como la transparencia en la información de contacto, la explicación de políticas claras, la seguridad del sitio web y la concreción y precisión en la información proporcionada (‘clickbaits‘ fuera por favor), contribuyen a la confiabilidad.
Factores y Criterios de Evaluación del Contenido de Calidad
En la siguiente tabla recogemos los factores clave que Google considera para valorar la calidad del contenido de un sitio web en la primera columna. En la segunda presentamos el enfoque distintivo del análisis de cada autor como factor particular o estrategia central resaltada como clave para mejorar la calidad del contenido.
Autor
Principales Factores de Calidad
Enfoque Distintivo
Iqra Jamal
Narrativa atractiva, datos originales y actualización constante.
Uso de ‘storytelling‘ para conectar emocionalmente con el usuario.
Search Engine Journal
Intención de búsqueda, estructura organizada y contenido optimizado técnicamente.
Adaptación a diferentes etapas del viaje del usuario.
Slickplan
Uso de multimedia, organización lógica y profundización temática.
Diseño visual como una herramienta de engagement clave.
Stellar Content
E-E-A-T, claridad de lenguaje y relevancia cultural.
Localización cultural del contenido para mayor resonancia.
ContentGo
Autoridad, confiabilidad y optimización semántica.
Enfoque en el uso de datos verificados por expertos reconocidos.
La web Backlinko dedica una página informativa sobre los factores de alineamiento de Google ofreciendo una guía exhaustiva de más de 200 elementos que influyen en el algoritmo. Su propósito es «educar» a las personas que administran sitios web y a profesionales del SEO sobre cómo mejorar la posición de sus páginas en los resultados de búsqueda. En este análisis dividen los factores en categorías clave, como la calidad del contenido, ‘backlinks‘ y la experiencia del usuario (UX) y aspectos técnicos tales como la velocidad de carga y la optimización para el escosistema móvil. También se analizan señales de comportamiento del usuario y actualizaciones constantes del algoritmo.
En la siguiente tabla recogemos una síntesis de los once (como si fuera una alineación de un equipo de fútbol) factores que más se destacan en este artículo.
Factor
Descripción
Ejemplo
Calidad del Contenido
Google prioriza contenido de alta calidad, informativo y relevante.
Un artículo detallado y bien investigado sobre un tema específico que responde completamente a las preguntas de los usuarios.
‘Backlinks‘ (enlaces entrantes)
Los enlaces de otros sitios web actúan como votos de confianza. Cuantos más enlaces de entrada de alta calidad tenga tu sitio, mejor se posicionará.
Un sitio web que recibe enlaces de universidades y sitios de noticias reconocidos.
SEO Técnico
Aspectos técnicos del sitio web, como la velocidad de carga, la compatibilidad con dispositivos móviles y la capacidad de rastreo.
Un sitio web optimizado para cargar rápidamente en dispositivos móviles y que utiliza un archivo robots.txt adecuado para permitir el rastreo de los motores de búsqueda.
Optimización de palabras clave
Uso de palabras clave relevantes en el contenido del sitio web para ayudar a los motores de búsqueda a entender de qué trata el sitio.
Un blog de recetas que utiliza palabras clave como “recetas saludables” y “comida vegana” en sus artículos.
Experiencia del usuario (UX)
Medida de lo fácil y agradable que es para los usuarios utilizar el sitio web. Google prefiere sitios que proporcionan una buena experiencia de usuario.
Un sitio web con una navegación intuitiva, tiempos de carga rápidos y diseño responsive.
Marcado de esquema (Schema Markup)
Datos estructurados que se pueden añadir al sitio web para ayudar a los motores de búsqueda a entender mejor el contenido.
Un sitio de comercio electrónico que utiliza marcado de esquema para mostrar reseñas de productos y precios directamente en los resultados de búsqueda.
Señales sociales
Interacciones sociales como “me gusta”, “compartir” y otros. Aunque no son un factor directo, pueden influir en la visibilidad del contenido.
Un artículo que recibe muchas comparticiones en redes sociales como Facebook y Twitter.
Señales de marca
La percepción general de la marca en línea. Google favorece marcas bien conocidas y respetadas.
Un sitio web de una marca reconocida que recibe menciones en medios de comunicación y tiene una fuerte presencia en redes sociales.
Edad del dominio
Los dominios más antiguos pueden tener una ligera ventaja, ya que se consideran más confiables.
Un sitio web que ha estado activo durante más de 10 años y ha mantenido un historial constante de contenido de calidad.
Velocidad de carga del sitio
La rapidez con la que se carga un sitio web es un factor importante, especialmente en dispositivos móviles.
Un sitio web que utiliza técnicas de optimización como la compresión de imágenes y el almacenamiento en caché para mejorar los tiempos de carga.
Intención de búsqueda
La capacidad del contenido para satisfacer la intención del usuario en el momento de la búsqueda.
Un artículo que proporciona una guía completa y detallada sobre “cómo plantar un jardín de hierbas” cuando los usuarios buscan información sobre jardinería.
RTabla resumen de los 11 factores más importantes en el ranking de Google. Fuente: Backlinko
Como pasa con las selecciones de fútbol donde cualquier aficionado o aficionada tiene su propio «once«, si buscamos en otras páginas web es más que seguro que algunas de estas características no sean consideradas por sus autores e incluyan otras que hemos dejado fuera. Es ley de vida.
Evan Bailyn, CEO de la empresa de SEO ‘First Page Sage‘, escribió en diciembre de 2021 un artículo en Linkedln una nota informatica titulada ‘The 2022 Google Algorithm Ranking Factors‘ donde presentaba los factores ordenados a partir de su «peso» en la fórmula final del algoritmo de ranking, que podemos visualizar en el siguiente diagrama circular.
Como se observa, un 26% de la fórmula final se debe al contenido de calidad (de alto nivel se menciona), un 17% se le asigna a las metaetiquetas del título de la página, los enlaces de entrada (‘backlinks‘) tienen un peso del 15% (con Pagerank era el factor clave, desde 2018 ha descencido mucho en importancia). También tiene importancia la presencia de esa página entre lo que se considera «nichos de expertos» (13%) y la involucración de los usuarios (fidelidad) que alcanza el 11%. Entre estos cinco factores suman un poco más del 75% del peso de la fóruma final según Evan Bailyn. Aquí va la tabla completa.
¿Qué es «contenido de calidad» para Google?
Son varios aspectos a considerar:
Se trata de contenido original, único y valioso. Google da preferencia al contenido nuevo y único. Es conveniente crear entradas que respondan a las preguntas de sus lectores, que aporten valor y que sean originales. Como regla general, Google premia el contenido de liderazgo intelectual producido al menos dos veces por semana. Si tu contenido es similar al de otras páginas web, causará un impacto negativo en tu SEO. Para empezar, el motor podría no indexar y clasificar la página y ralentizará la tasa de rastreo de su sitio web (la web se hará “obsoleta”). Por lo tanto, cuando creemos contenido, ha de ser diferente y mejor que el de otros sitios web clasificados para el término de búsqueda. Ya lo avisaba Bill Gates en 1996 en su frase «Content is king» (que viene a ser I Ley Universal de la Gestión de Contenidos en la Web para mis alumnos).
Hay que mantener el contenidofresco y actualizado. Si las publicaciones se actualizan y se añade habitualmente información nueva, se envía una señal positiva al motor de búsqueda. La frescura del contenido juega un papel importante si en nuestras entradas se tratan noticias o tendencias. En estos casos, Google prefiere las páginas que proporcionan la información más reciente. Por ejemplo, si escribimos sobre la crisis sanitaria mundial, nuestro contenido debe contener noticias e investigaciones recientes. Una forma sencilla de encontrar la información más reciente para mantener tu contenido fresco es utilizar Google Trends.
La longitud del contenido es otro factor clave. Una de las preguntas recurrentes en SEO ha sido siempre si la extensión del contenido forma parte de los factores de clasificación de Google. La respuesta es “SÍ”. Según diferentes estudios, los posts con 1.890 palabras de media se sitúan en la primera página de resultados. Dicho esto, no hay una regla rígida por la que debamos ceñirnos a un límite de palabras. Lo mejor es crear contenido con profundidad y que cubra un tema con gran detalle. Google prefiere las páginas que responden completamente a la pregunta del usuario y proporcionan soluciones detalladas.
La estructura del contenido y su organización también influye en la valoración de su calidad. Las entradas deben estar bien organizadas y estructuradas. Esto facilita a los visitantes la lectura y la búsqueda de soluciones a sus problemas. Para mejorar la estructura y la organización de estos artículos, se pueden utilizar distintos niveles de encabezado (H2, H3, H4, etc.) para agrupar el contenido. Mantener debidamente actualizado el fichero sitemap.xml ayuda también. También podemos utilizar etiquetas HTML para viñetas y listas numéricas para organizar aún más el contenido. Esto es beneficioso ya que Google recoge estas listas y las muestra como fragmentos destacados para diferentes palabras clave.
Siguiendo la estela de la Universidad de la Sorbona, cincuenta instituciones de investigación y de educación superior han suscrito declaración contra el uso de las bases de datos científicas comerciales (Clarivate y Elsevier).
Estas plataformas (es el nombre que reciben estos productos comerciales que integran información de múltiples bases de datos, especialmente Clarivate), suelen recibir cantidades desmesuradas de dinero público que podría derivarse a otros usos y actividades de investigación. La prestigiosa universidad francesa anunció la interrupción de su suscripción a la base de datos Web of Science y a las herramientas bibliométricas vinculadas en 2024, además de reorientar sus esfuerzos hacia la exploración de herramientas abiertas, libres y participativas, en consonancia con la política global de apertura de esta universidad que trabaja para consolidar una alternativa sostenible e internacional, en particular mediante el uso de OpenAlex. Esta declaración, presentada en abril de 2024 en Barcelona es otro paso más en esa línea.
El preámbulo de la declaración recuerda que la gestión de la investigación precisa de grandes cantidades de información sobre los diferentes actores y sus actividades, los insumos, los resultados obtenidos y los datos sobre uso, valoración e impacto social de la actividad investigadora. En el momento presente, esa información resulta fundamental y decisiva en la distribución de recursos y en la evaluación de investigadores e instituciones. Las organizaciones financiadoras (las administraciones públicas en su mayor parte) utilizan esta información para establecer prioridades estratégicas y se produce la paradoja, desagradable y desconcertante, de que gran parte de esta información «está encerrada» en infraestructuras privadas porque la gestionan empresas, como las citadas anteriormente, líderes del mercado y que rinden cuentas a sus accionistas, no a la comunidad investigadora y mucho menos a las administraciones públicas representantes de la sociedad que sustenta la actividad investigadora con sus impuestos.
Existe el problema añadido de que tanto la comunidad investigadora como las instituciones financiadores se han vuelto muy dependientes de estas empresas. Hasta hace poco se ha venido evaluando la carrera investigadora (y también de la carrera docente) a partir de evidencias no transparentes. De hecho, se ha llegado al sinsentido (ahora en corrección afortunadamente desde la promulgación de la ENCA) de supervisar e incentivar la Ciencia Abierta utilizando datos cerrados. Igualmente, se han tomado durante mucho tiempo decisiones de forma rutinaria basadas en información sesgada en contra de idiomas y/o regiones geográficas menos privilegiadas (como es el caso del español y de todos los países del mundo donde se habla y se escribe en una de las lenguas más expandidas).
Para avanzar en la evaluación responsable de la investigación y la Ciencia Abierta, y promover la toma de decisiones imparcial y de calidad, es urgente que la información sobre investigación esté disponible de manera abierta a través de infraestructuras académicas también abiertas. La apertura de la información sobre investigación debe ser la nueva norma.
En la Declaración de Barcelona (cuyo texto completo puede leerse haciendo clic sobre el enlace anterior), las instituciones firmantes manifiestan que el panorama de la información sobre investigación requiere un cambio fundamental y se proponen a liderar su reforma y transformar las prácticas y procedimientos. Con este fin, se comprometen a:
Hacer que la apertura de la información de investigación sea la norma.
Trabajar con servicios y sistemas que apoyen y permitan la apertura de la información de investigación.
Apoyar la sostenibilidad de las infraestructuras para la apertura de la información de investigación.
Trabajar juntos para llevar a cabo la transición de una información de investigación cerrada a una información de investigación abierta.
Hacer que la apertura de la información sea la norma para la información sobre investigación que utilizamos y producimpos.
Este principio debe regir tanto para la la evaluación de los investigadores e instituciones como para la información de investigación que produzcamos, por ejemplo la información sobre nuestras actividades, los resultados (por supuesto), con excepción de la información cuya apertura sería inapropiada: «tan abierta como sea posible y tan cerrada como sea necesario«.
Se trabajará con servicios y sistemas que apoyen y hagan posible la información abierta sobre investigación.
En cuanto a los servicios y plataformas de publicación, se requiere que la información de investigación generada en el proceso de publicación (metadatos de artículos de investigación y otros resultados, además de los datos manejados en la información) esté disponible de forma abierta a través de infraestructuras académicas abiertas.
Hay que apoyar la sostenibilidad de las infraestructuras para la información abierta sobre investigación.
Las entidades firmantes asumen la responsabilidad de apoyar infraestructuras para la información abierta sobre investigación, participando en la creación de comunidades y en la gobernanza de las mismas y aportando contribuciones justas y equitativas a la estabilidad financiera y al desarrollo de estas infraestructuras. Es preciso que estas infraestructuras apliquen buenas prácticas de gobernanza comunitaria y sostenibilidad. (por ejemplo, los Principios de la Infraestructura Académica Abierta).
Se apoyarán actuaciones colectivas para acelerar la transición hacia la apertura de la información sobre investigación–
Las entidades firmantes reconocen la importancia de compartir experiencias y coordinar acciones para promover en todo el sistema la transición de cerrada a abierta de la información de investigación. Para poder facilitarlo, se apoya la creación de una coalición para la información abierta» sobre investigación y el refuerzo de la colaboración con otras iniciativas y organizaciones afines.
La Ciencia Abierta es una oportunidad excepcional para que las bibliotecas universitarias recuperen una posición de prestigio dentro de las comunidades académicas.
1. Relevancia renovada: La Ciencia Abierta, con su énfasis en el acceso abierto a la información y la transparencia en los procesos de investigación, coloca a las bibliotecas en el centro del ecosistema científico. Las bibliotecas pasan a ser actores clave para la gestión, difusión y preservación de datos, publicaciones y otros recursos científicos: Esto les ha de permtir recuperar un rol protagónico en la producción y el intercambio de conocimiento.
2. Nuevos servicios y habilidades: La Ciencia Abierta demanda innovar parte de los servicios que ofrecen estas bibliotecas. Estas deben estar situadas a la vanguardia en la gestión de datos de investigación, la creación de repositorios digitales, la formación en ciencia abierta y el asesoramiento a investigadores en temas como la publicación en acceso abierto y la gestión de las licencias y los derechos de autor. Al ofrecer estos servicios especializados, las bibliotecas se volverán a convertir en socios indispensables para la comunidad científica.
3. Mayor visibilidad e impacto: La participación activa en la Ciencia Abierta permite a las bibliotecas aumentar su visibilidad e impacto dentro de la universidad y la sociedad en general. Al facilitar el acceso al conocimiento científico y promover la transparencia en la investigación, las bibliotecas contribuyen a democratizar la ciencia y a mejorar la calidad de la investigación. Pero para esto se debe permanecer activo todo el año, no solo cuando llega la convocatoria de sexenios.
4. Colaboración y liderazgo: La Ciencia Abierta abre nuevas oportunidades para la colaboración entre las bibliotecas, los investigadores y otras instituciones. Las bibliotecas pueden liderar iniciativas en este campo a nivel institucional, regional e internacional, fortaleciendo su posición como agentes de cambio y promoviendo la innovación en el ámbito cientifico. Las bibliotecas pueden liderar la implementación de políticas de acceso abierto en todas sus instituciones, por ejemplo. Dentro de este punto podemos incluir el desarrollo del sistema de indentificación ORCID, liderado por las universidades de Oxford y Cambridge (obviamente hacen mucho más que competir en una regata) y que asigna identificadores únicos a los investigadores, facilitando la atribución y la interoperabilidad de la investigación a nivel mundial.
En resumen, la Ciencia Abierta es una oportunidad única para que las bibliotecas universitarias recuperen un rol protagónico en el ecosistema científico. Al adaptarse a las nuevas necesidades de la investigación y ofrecer servicios especializados, las bibliotecas pueden aumentar su visibilidad, impacto y relevancia dentro de las comunidades académicas. Este nuevo paradigma es una aliada estratégica para que las bibliotecas universitarias consoliden su papel como centros de conocimiento y motores de innovación en el ámbito científico. Y para que sean más valoradas por sus comunidades investigadoras.