CRIS son las siglas de ‘Current Research Information System‘ (sistemas de información de investigación), plataformas que representan un pilar esencial para que las instituciones de investigación adopten plenamente la estrategia de la Ciencia Abierta. Su importancia va más allá del registro de la producción científica —como artículos, capíutlos de libros o proyectos— ya que operan como una infraestructura de metadatos que lleva a cabo la conexión entre personas, publicaciones, datos, financiación e impacto de la investigación, facilitando la trazabilidad, visibilidad, interoperabilidad y reutilización del conocimiento. En un contexto en que las agencias financiadoras, las universidades y los repositorios convergen hacia la apertura, la transparencia y la responsabilidad en la investigación como pilares del tránsito a la Ciencia Abierta, los CRIS permiten que esa transformación se realice de forma sistemática y estructurada.
El CRIS como elemento conector en el contexto de la Ciencia (imagen elaborada con chatGPT).
Un aspecto central del valor de un CRIS es su capacidad para articular el ciclo completo de la investigación: desde la financiación y la planificación de proyectos hasta la publicación, el depósito de datos, la transferencia y la evaluación. Esta visión sistémica favorece que las instituciones puedan cumplir con mandatos de acceso abierto y datos abiertos (por ejemplo, enlazando las publicaciones con sus versiones en repositorio o monitoreando embargos), que gestionen resultados más allá del artículo tradicional (conjuntos de datos de investigación, código de software libre, materiales docentes, etc.) y que generen métricas e informes para evaluación responsable. En este sentido, el CRIS actúa como una “capa de información contextual”: quién, qué, cuándo, con qué financiación, bajo qué proyecto, qué impacto, etc., mientras que los repositorios suelen limitarse de la preservación y difusión del objeto digital.
A nivel internacional encontramos ejemplos de CRIS que ilustran tanto el modelo como su relación con la Ciencia Abierta. Por ejemplo, el sistema nacional noruego CRIStin (Current Research Information System in Norway) permite documentar toda la producción académica de los investigadores noruegos y complementa su uso para evaluación del sistema de investigación público.
En Finlandia, Alemania y los Países Bajos también se han desarrollado modelos nacionales de gestión de la información de investigación, como documenta el informe de OCLC Research. También en Europa, la asociación euroCRIS promueve el estándar CERIF (Common European Research Information Format) con el fin de asegurar la interoperabilidad entre los CRIS.
Estos ejemplos muestran cómo los CRIS institucionales y nacionales se integran en un ecosistema mayor de datos e infraestructuras de Ciencia Abierta. En el caso de un país que adopte un CRIS nacional o regional, la ventaja es que se construye una infraestructura homogénea para la agregación de datos de múltiples instituciones, lo cual permite realizar análisis nacionales, comparativos y soportar políticas de Ciencia Abierta a gran escala.
En España, los CRIS institucionales de las universidades funcionan en estrecha relación con los llamados “portales de investigación” públicos, es decir, las interfaces visibles donde se exponen perfiles de personal investigador, grupos, publicaciones, proyectos y métricas. Dichos portales, alimentados por la base de datos de Dialnet y por el CRIS de cada institución académica, permiten la visibilidad institucional y cumplen una función de transparencia hacia la sociedad. La integración entre CRIS y portal es clave: el primero organiza, vincula y valida los metadatos, el segundo los presenta al público de forma navegable.
Este marco es fruto del Proyecto Hércules, impulsado por Crue Universidades Españolas, que proponía una arquitectura semántica común para los CRIS universitarios españoles, basada en estándares compartidos, ontologías alineadas y una solución de gestión de la investigación común. El resultado final facilita que los datos de diferentes universidades se puedan comparar, agregar y explotar de forma interoperable. Sin duda alguna, la clave de bóveda de este proyecto ha sido el papel de Dialnet, si el trabajo previo de esta fundación, todo el desarrollo de este proyecto hubiera resultado valdío. Una vez más se demuestra la frase de Bill Gates: ‘content is king‘. Poco a poco, se van implementando los portales de investigación de las universidades españolas y se está configurando un sistema de información científica agregado que puede asumir funciones similares a las de un CRIS colectivo para aquellas instituciones que no cuentan con soluciones propias completas. Estas plataformas son elementos articuladores de un ecosistema de investigación abierta, interoperable y de alcance cada vez mayor. A nivel internacional, los sistemas que adopten el estándar CERIF muestran cómo la gestión de la información investigadora se ha transformado en una infraestructura de infraestructuras (“infraestructura de segundo orden”) para la Ciencia Abierta. En España, esta convergencia entre CRIS, portales de investigación y plataformas cooperativas como Dialnet, señala una evolución hacia un modelo más integrado, transparente y orientado al bien público del sistema de investigación.
Las universidades de Sheffield (la de nuestro «Tío Tom» tenía que ser), Lancaster y Surrey decidieron rechazar un nuevo acuerdo de suscripciones ‘read and publish‘ y abandonan la suscripción masiva de revistas científicas con Elsevier.
Esta decisión está impulsada por restricciones financieras de estas instituciones y por la demanda de mejores condiciones de acceso abierto, pone de manifiesto la creciente presión sobre los costes de suscripción a las revistas científicas de alto nivel. Las editoriales privadas venden paquetes completos de este tipo de publicaciones, junto con otros servicios y productos, elevando los costes hasta cantidades que representan un esfuerzo, no siempre justificado en términos de aprovechamiento, para las instituciones de educación superior.
Estas tres universidades se unieron a un grupo creciente en el Reino Unido (York, Essex, Kent y Sussex, entre otras) que optaron por priorizar modelos sostenibles centrados en el acceso abierto (¡el de verdad! no el que firman las universidades españoles a través de CRUE y con ayuda del ministerio), frente a los paquetes tradicionales «todo incluido» que ofrecen las grandes editoriales de pago y que se convierten en insostenibles en épocas donde la inversión en lo público se reencamina más hacia gastos militares que hacia la mejora de la financiación de las universidades públicas.
Préstamo interbibliotecario de «alta velocidad». Es la «joya de la corona» de su estrategia, se ha optimizado el préstamo para que los investigadores puedan solicitar artículos específicos que ya no están bajo suscripción. El éxito se basa en la rapidez (entregas digitales en menos de 30 minutos en muchos casos) y búsqueda ampliada (plataformas como StarPlus de Sheffield que permiten buscar más allá de la colección propia y generar solicitudes automáticas).
Suscripciones selectivas y acceso histórico: las universidades «no cortan el grifo» por completo. De hecho, sus bibliotecas mantienen títulos individuales (se seguirá pagando de forma independiente por las revistas de Elsevier que tengan el mayor uso e impacto real en su comunidad) y se mantiene acceso post-cancelación (se conserva el derecho a leer artículos publicados durante los años en que la suscripción estuvo activa).
Fomento del uso de software que rastrea versiones gratuitas y legales de los artículos, recomendando las extensiones del navegador comoLibKey Nomad o sistemas como Unpaywall que detectan si un artículo tiene una versión en abierto mientras el usuario navega.
Uso intensivo de los repositorios institucionales impulsando sus propios archivos digitales (como White Rose Research Online) donde los autores depositan sus manuscritos aceptados.
Las universidades de Surrey y Lancaster han implementado políticas de «Rights Retention«. Esto obliga a sus investigadores a mantener la propiedad intelectual de sus manuscritos para que puedan subirse a la web de la universidad inmediatamente, sin esperar a que la editorial levante el «muro de pago».
Alternativas implantadas en la Universidad de California para «superar» el fin de las suscripciones masivas a Elsevier y otras editoriales. Fuente: Universo Abierto.
Es posible que a los mayores les suene este modelo de acceso a la literatura científica (que podríamos llamar «bajo demanda»). De alguna manera, reproduce el cómo se accedía a los artículos a principios de este siglo, con una visión algo más actual en cuanto al uso de la tecnología donde la Ciencia Abierta comienza a abrirse paso. Si esto funcionaba antes del tremendo derroche acometido por universidades y autoridades gubernamentales que lo han financiado. Es muy posible que el rendimiento y la excelencia investigadora no vayan a sufrir deterioro alguno y, teóricamente, se podrán dedicar esos recursos a financiar más y mejores equipos de investigación, en lugar de, literalmente, regalarlos a editoriales privadas como Elsevier, cuando no a editoriales directamente depredadoras.
El avance científico no se va a detener, seguro que siempre habrá alguien que pueda ver más allá porque está aupado sobre los hombros de muchos sabios que le han precedido (Newton dixit). Y quizá deberíamos volver a confiar en las bibliotecas que siguen estando ahí, internet no las jubiló (aunque para muchos así lo haya parecido).
Pedro Manuel – así le llamaba su madre – era profesor de Tecnologías de la Información en nuestra Universidad desde 1989. Logró la titularidad en el año olímpico de 1992. Su docencia, en almacenamiento y acceso a la información, la desarrolló en nuestra facultad y también en la de Informática, el centro donde se formó en los años ochenta (nos formamos para ser correctos, somos compañeros de promoción, además de amigos desde esos días), como diplomado universitario. Años después, como también hice yo aunque en otra universidad, cursó la licenciatura en Documentación en la Universidad Politécnica de Valencia y los estudios de doctorado en nuestra universidad). Miembro del grupo de investigación en Tecnologías de la Información, participó en varios proyectos de transferencia. En el más reciente, e-labor@, analizamos la necesaria transformación digital en las entidades del Tercer Sector de Acción Social (TSAS). Resultado de este proyecto es el informe La transformación digital de entidades del Tercer Sector de Acción Social: un marco para la gestión documental, donde es autor del capítulo “Prospectiva de sistemas de gestión documental: factores claves para entidades TSAS”, dedicado a presentar la gestión documental actual y los sistemas que la implementan y que hemos reeditado en formato de artículo en el último número de la revista (sección de Estudios y Experiencias). Fue vicedecano de la facultad en varios equipos directivos y a él le debemos, entre otras cosas, el seguimiento de la construcción del edificio tan bonito que alberga nuestra facultad, una de las más dinámicas y creativas de la Universidad de Murcia.
Su relación con nuestra revista se remonta a los inicios de nuestra singladura, Pedro Manuel formó parte del primer comité editorial asumiendo la secretaría del mismo en ese y otros períodos. También fue el responsable del diseño de la maquetación de la edición impresa estableciendo (a nivel interno) las primeras normas, formatos y flujos de trabajo para la publicación de los artículos y de otras secciones de la revista. La solidez, claridad y pertinencia de estos criterios son tales que muchas de esas recomendaciones e instrucciones continúan plenamente vigentes hoy, veintiocho años después, con Anales de Documentación plenamente integrada en el ecosistema digital de la comunicación científica.
Precisamente, toda la tarea de puesta en marcha de la edición electrónica de la revista recayó en su persona, instalando la plataforma Open Journal System para la gestión editorial dentro de los servidores informáticos de nuestra facultad, lo que facilitó, unos años después, su migración al servidor revistas.um.es de nuestra editorial universitaria. Otro apartado donde destacó sobremanera fue en el rigor aplicado a la tarea de revisor. De hecho, raro es el número publicado donde no evaluara la pertinencia de uno o dos manuscritos al menos. También colaboró activamente en la sección de Reseñas, reforzando así su decisiva contribución editorial, gracias a la cual nuestra revista ha alcanzado los actuales niveles de calidad. Sin duda, ha sido uno de los grandes artífices del desarrollo de Anales de Documentación como vehículo de referencia en la comunicación científica del área. Sin su trabajo y dedicación, no estaríamos en este nivel.
Quienes hemos asumido responsabilidades en la revista a lo largo de los años le debemos un profundo agradecimiento por tan valiosa aportación, aunque ese sentimiento se nos antoja ahora como una isla ínfima dentro del océano ante la pérdida de la persona: el compañero de trabajo, el amigo de sus amigos, el esposo, el padre, el hijo y el hermano que nos ha dejado demasiado pronto. Pedro – así lo llamábamos los amigos, colegas y estudiantes – por fortuna pudimos despedirnos de ti y te has marchado sabiendo que, como dice la canción, tú “nunca caminarás solo”, siempre permanecerás acompañándonos en nuestra memoria y en las huellas que dejaste en la revista y en quienes compartimos camino contigo.
La Ciencia Abierta también te va a echar mucho de menos Pedro, y más ahora en estos tiempo donde los avances tecnológicos están abriéndose camino de forma imperativa e imparable.
Fotografía de Tom Wilson (2010). Fuente: wikipedia
En nuestra aportación, que reproducimos en versión HTML a continuación, destacamos los vínculos que se han establecido entre nuestra Universidad, la revista y Tom, además de resaltar que esta revista es acceso abierto antes incluso de que se acuñara ese término y se difudiera tras el acuerdo de la Iniciativa por el Acceso Abierto firmada en Budapest en el año 2002. Sin duda alguna, Tom es un maestro, un genio y mejor persona.
Texto del artículo:
Son muchos los méritos contraídos por Tom Wilson a lo largo de toda su carrera docente e investigadora, en la que ha venido introduciéndonos en el estudio de la gestión de información y del comportamiento informacional en contexto prácticamente desde el inicio de estas disciplinas. En ambos casos, se produce el mismo fenómeno: con el paso del tiempo, ambas forman un binomio de muy difícil separación, por no decir indivisible, tal como dijo José Vicente Rodríguez Muñoz la mañana en la que le investimos Doctor Honoris Causa por nuestra Universidad (septiembre de 201). Es posible que, con anterioridad a Tom Wilson, otros autores pudieran haber realizado aproximaciones parciales alrededor de estos conceptos, pero quien, con su esfuerzo, dedicación y sabiduría, muchas veces acompañado de un grandísimo equipo de colaboradores, ha permitido su desarrollo e implantación dentro de la comunidad científica como temas de interés.
Acto de investidura de Tom Wilson como Doctor Honoris Causa por la Universidad de Murcia (2010).
De gran parte de todo ese trabajo ha sido testigo y depositaria la revista ‘Information Research: an electronic international journal‘, cuyo trigésimo aniversario celebramos con este número especial. Tal como informa la sección ‘About the Journal’ de su sitio web, fue fundada en 1995 por Tom Wilson en la Universidad de Sheffield y la ha dirigido casi todo este tiempo. En la presentación de la revista se comenta que ‘the Internet and the World ide Web were in their infancy, and the idea was to create a journal that covered the information disciplines in general’, recordando los significativos cambios acaecidos en nuestro campo durante todo este período, de proporciones exponenciales (casi hipergeométricas) en comparación con otros períodos anteriores donde la evolución seguía ritmos mucho más pausados.
Portada de un número de la revista Information Research en su diseño actual.
La vocación internacional de la revista se observa claramente en el título de esta y constituye uno de sus puntos fuertes. No cabe duda alguna que esto es fiel reflejo de otro aspecto destacado de la personalidad de Tom Wilson: su afán por visitar la mayor parte de países del mundo posible para entrar en contacto con colegas y estudiantes. Gracias a esa actitud abierta y colaborativa tuvimos ocasión de conocerle personalmente y, desde entonces, ha sido para nosotros ese faro que guía a los barcos en la noche hacia puerto seguro donde descansar y avituallarse. Su primera visita a Murcia fue por motivo de un seminario sobre ‘Information Management’ justo el mismo curso que iniciábamos los estudios de Biblioteconomía y Documentación (1989-1999). Desde entonces, el contacto ha sido permanente y el vínculo se fue fortaleciendo hasta el punto de que es la única persona a quien se le ha concedido el Doctorado Honoris Causa a propuesta de nuestra facultad. Hicimos coincidir la ceremonia de investidura con esta distinción académica con la celebración de la conferencia ISIC-2010 para que una parte importante de sus amigos pudiera percibir en primera persona el alto nivel de reconocimiento y devoción que sentimos en esta humilde universidad del sureste de España por nuestro amigo, casi familia, Tom Wilson.
En relación con ese progreso de la carrera académica y volviendo a la revista, no recordamos con precisión exacta la fecha, seguro que prácticamente en sus comienzos, el profesor Wilson abrió la posibilidad de publicar artículos en los idiomas portugués y español para colaborar en la difusión de los estudios e investigaciones realizadas en el ámbito iberoamericano, encargando en ese momento la responsabilidad de editar esa sección al profesor José Vicente Rodríguez Muñoz, nuestro maestro y compañero. Este hecho resultó fundamental para la comunicación de nuestras investigaciones en un ámbito internacional al que nos introdujo Tom Wilson, no sólo a los miembros de nuestra universidad, sino a muchos colegas de España, Portugal e Iberoamérica que aprovecharon ese espacio que gentilmente nos abrió el profesor Wilson. En el caso particular de nuestro departamento, Information Research ha sido depositaria de la buena parte de los artículos derivados de las tesis doctorales que hemos realizado a lo largo de estos 30 años, algunos de ellos con una considerable atención e interés por parte de la comunidad investigadora.
Fragmento del artículo ‘Advantages of thesaurus representation using the Simple Knowledge Organization System (SKOS) compared with proposed alternatives’ publicado en Information Research. Fuente: https://informationr.net/ir/14-4/paper422.html
Hoy en día esa sección sigue recibiendo de forma periódica abundantes peticiones de publicación de artículos, si bien la tendencia actual es presentarlos en inglés (la lingua franca de la Ciencia). Podemos asegurar, sin temor a equivocarnos, que tanto la revista como su director, tienen una pequeña parte de culpa en esa internacionalización de la comunicación de la ciencia en nuestro entorno.
Information Research ha sido siempre una revista digital con el mismo nivel de gestión editorial que otras revistas de más longevas en el tiempo y con mayor presupuesto (algo imaginario en nuestro caso particular). Todo ha sido posible por la disposición de una multitud de compañeros y colegas que nunca han dudado a responder afirmativamente a la “llamada” de Tom Wilson para colaborar con la revista. En todos estos años hemos aprendido muchas cosas y queremos resaltar algunas de ellas. La primera fue la inmensa sorpresa que percibimos ante el nivel de dedicación y atención que investigadores y autores de referencia mundial prestaban a las tareas de revisión y edición de los artículos dentro de un contexto colaborativo impregnado de armonía, equidad y respeto por las decisiones adoptadas por todos los compañeros participantes. Esto nos ha servido a muchos de nosotros para replicarlo en otros proyectos editoriales en los que participamos, aprendiendo todos de todos. Otro aspecto que destacar es la formalidad del proceso editorial, al que muchos autores no estábamos acostumbrados en nuestros entornos locales en aquella época. El uso de una plantilla XHTML para la maquetación rigurosa de los artículos ha permitido además una mayor interoperabilidad y difusión de los textos dentro del ecosistema de la Web Semántica, también embrionario e incipiente cuando se implantó su uso. Continuando con los aspectos formales, la revisión de estilo, que se mantiene en la actualidad, es otra de las fortalezas de nuestra revista, a pesar de que se ha ido trivializando en otras revistas con el paso del tiempo.
Quizá los lectores más antiguos de esta revista recuerden que, al poco de haber sido indexada por la base de datos Social Science Citation Index (hoy parte de la WOS), hubo que introducir algunos cambios en la denominación de los artículos y guardar una copia de este y de las referencias empleadas en un sistema de archivo digital (webcitation.org) para intentar obviar la futilidad propia del ecosistema de la web de aquella época. Tom Wilson condujo inteligentemente este proceso y llevó a cabo la asignación de identificaciones permanentes de artículos para favorecer una preservación de los documentos cuando prácticamente esos conceptos eran embrionarios. Hace un par de años realizamos un sondeo para verificar la existencia de “citas perdidas” de los artículos de nuestra revista en la Web of Science (WOS), un problema presente en muchas publicaciones de acceso abierto y que añade otra tarea más sus comités editoriales. Cuál fue nuestra sorpresa, en realidad no tanto, cuando verificamos que Information Research tenía debidamente computadas todas. La rigurosidad editorial por bandera forma parte de nuestro genoma vital.
En los relativo a la indexación en bases de datos y la posición de la revista en los índices de impacto (estos últimos no han preocupado en exceso a Tom Wilson), la revista siempre ha estado recopilada por los principales productores y distribuidores, además de tener factor de impacto tanto en JCR/JCI como en el índice SJR donde nuestra publicación recibe más citas debido al mayor alcance geográfico del mismo, volviendo a poner de manifiesto que la internacionalización de la revista es una de nuestras fortalezas.
Lo que no ha cambiado nunca es el acceso abierto a los contenidos publicados en nuestra revista sin aplicar coste alguno a los autores de los artículos (las tan controvertidas como perniciosas APCs). Nuestra revista es, desde sus inicios, una revista de acceso abierto “diamante”. Y he aquí la paradoja, Information Researches acceso abierto cuando aún no se había redactado la Declaración de Budapest (2002); incluso Information Research es “diamante” cuando aún no se había tenido que establecer esta categoría de publicaciones para distinguir el verdadero acceso abierto del que pretenden instaurar las editoriales comerciales intenta hacer frente al acoso de las editoriales comerciales, financiadas con dinero público por culpa de una deficiente aplicación del Plan “S” que ha dado pábulo a la proliferación de revistas predadoras y/o de escaso nivel científico que dañan mucho a la comunicación de la ciencia. IR es un claro ejemplo de lo contrario, de cómo el sueño de Tom Wilson se ha consolidado en una publicación de referencia internacional, abierta a todo tipo de autores, consolidados y noveles, y a todas las disciplinas relacionadas con la investigación en información. Por todo ello, creemos de justicia afirmar que, tanto la revista como su impulsor y director hasta el año pasado, son “pioneros del acceso abierto” junto a todos quienes hemos dedicado una parte de nuestro tiempo a la misma.
Fuchs, C., & Sandoval, M. (2013). The diamond model of open access publishing: Why policy makers, scholars, universities, libraries, labour unions and the publishing world need to take non-commercial, non-profit open access serious. TripleC: Communication, capitalism & critique, 11(2), 428-443. https://doi.org/10.31269/vol11iss2pp428-443
Rodríguez Muñoz, J.V. et al. (2010) Discursos pronunciados en el acto de investidura del profesor Thomas Daniel Wilson como Doctor Honoris Causa por la Universidad de Murcia. http://hdl.handle.net/10201/40450
Capítulo 2: papel de las universidades y fundamentos de la Ciencia. Este capítulo establece las bases del rol de las universidades en la generación y transmisión del conocimiento. Explica la interacción entre investigación y educación, el acceso al conocimiento global y cómo las universidades pueden aprovechar la ciencia para la innovación local y nacional. Se destaca la importancia de la integridad académica y la naturaleza de la ciencia como un proceso de autocrítica y corrección.
Capítulo 3: retos actuales de las universidades. Aquí se identifican los desafíos clave para las universidades en la era de la Ciencia Abierta. Se abordan temas como la confianza en la ciencia, la diversidad epistemológica, el acceso a la información científica y los riesgos que enfrentan las universidades modernas. Se señala la influencia de la política y la economía en la investigación, así como las amenazas de la comercialización del conocimiento.
Ambos capítulos sirven como marco para comprender por qué las universidades son actores clave en la promoción de la Ciencia Abierta y cómo deben adaptarse para responder a los retos actuales.
El papel de las universidades
El resultado de la investigación es el nuevo conocimiento, mientras que la educación ayuda a formar nuevas personas. Ambos están interconectados: el nuevo conocimiento respalda la educación, y los estudiantes mejor formados contribuyen a la creación de conocimiento. El nuevo conocimiento proviene de los investigadores universitarios y de otros creadores de conocimiento, cuyas contribuciones combinadas generan un flujo global de conocimiento, principalmente a través de publicaciones.
El acceso libre a este flujo global de conocimiento es esencial para todos, tanto para investigadores como para estudiantes. Incluso para los equipos de investigación más avanzados, este flujo de conocimiento supera con creces sus contribuciones individuales. Las habilidades de los grupos de investigación les permiten explorar cómo aplicar mejor este conocimiento existente en la actividad docente y en la innovación en sus contextos locales o nacionales, además de inspirarlos a generar nuevas ideas científicas.
El conocimiento académico no solo beneficia a los investigadores, sino también a los estudiantes y a la sociedad en su conjunto como bien público. La interacción entre investigación y enseñanza en un entorno de debate racional y respetuoso es lo que crea el verdadero potencial de la universidad.
Las universidades poseen capacidades diversas y cumplen roles sociales específicos, ya sea con un enfoque internacional y de investigación intensiva, con un fuerte compromiso local, centradas en la educación o con vínculos estrechos con el tejido empresarial. Pueden especializarse en humanidades, ingeniería, medicina u otras disciplinas, o bien combinar varias de ellas. A pesar de su diversidad, todas las universidades que merecen ese nombre (muchas privadas no alcanzan los mínimos necesarios) comparten un mismo género: ser un espacio en el que expande el límite del conocimiento y la comprensión.
Desafíos contemporáneos para las universidades
3.1. Confiabilidad y confianza
La confiabilidad de la ciencia radica en la integridad de sus procesos. Existen prácticas que garantizan esta integridad a través de la revisión crítica y la exposición abierta de métodos de trabajo. Sin embargo, como ya hemos comentado en este blog, también hay pruebas crecientes de malas prácticas, negligencia e incluso fraude. Aunque la confiabilidad es vital, por sí sola no garantiza la confianza pública. Acciones populistas han desacreditado investigaciones y universidades, fomentando «hechos alternativos» en plataformas digitales. El escepticismo hacia la ciencia ha sido alimentado por la desinformación y el uso de la inteligencia artificial para manipular la opinión pública. La confianza en la ciencia y en las universidades es crucial para enfrentar estos desafíos.
3.2. Respeto a la diversidad
En la era de la Ciencia Abierta, las universidades deben reconocer, respetar y beneficiarse de la diversidad global de culturas, prácticas y prioridades. De lo contrario, este nuevo paradigma podría ser percibido como una extensión de un sistema dominado por los valores occidentales. Los rankings académicos refuerzan prioridades y metodologías predominantemente occidentales (o «norte global«), subvalorando el conocimiento desarrollado en otras regiones, en particular en el «sur global«, así como en saberes vocacionales, prácticos y artísticos. Es fundamental que las universidades promuevan una colaboración internacional basada en el aprendizaje mutuo en lugar de en relaciones de tutela o imposición.
La mayoría de las universidades públicas enfrentan presiones financieras (en España destacan los problemas de la universidades de Madrid y de Andalucía especialmente) que las llevan a priorizar actividades más rentables en detrimento de la experimentación y la investigación con beneficios a largo plazo. La dependencia de financiamiento gubernamental y privado (siempre escaso) puede generar restricciones en la difusión del conocimiento en favor de intereses económicos o nacionales a corto plazo. Además, la revolución digital y el avance de la inteligencia artificial han creado oportunidades y desafíos para las universidades. La cuestión es si las universidades serán capaces de aprovechar estas tecnologías para fortalecer la Ciencia Abierta o si, por el contrario, su papel será absorbido por corporaciones tecnológicas que privatizan el conocimiento a través de la inteligencia artificial y la propiedad intelectual.
El futuro de la universidad dependerá de su capacidad para equilibrar la presión financiera con su misión de fomentar el conocimiento, la inclusión y el progreso social, sin merma alguna en la calidad y la excelencia que, a pesar de todo, continu atesorando.
En el artículo, con datos del año 2022, aventurábamos un incremento del número de datasets (conjuntos de datos de investigación) depositados en los repositorios institucionales de las universidades públicas españolas. Este impulso venía propiciado por la apuesta por la Ciencia Abierta reflejada en el lanzamiento de la Estrategia Nacional de Ciencia Abierta en junio de 2023 y se confirmó con el cambio en el paradigma de evaluación de los sexenios de investigación de 2024 por parte de ANECA donde estos conjuntos de datos pasaron a ser considerados méritos evaluables.
Hace más o menos un año actualizábamos los resultados obtenidos en el primero de los estudios y presentábamos la nota ‘Aumentan los datasets de investigación publicados por las universidades públicas‘ en este mismo blog. En el mismo se verificaba nuestra hipótesis porque en el año 2023 se depositaron más del doble de datasets que en el año anterior, como se puede ver en la imagen,
Ya estamos en el año 2025 y hemos comenzado a actualizar los datos del estudio de hace dos años, vamos a computar el total de datasets publicado y, tal como hicimos entonces, los clasificaremos por rama de investigación, plataforma software empleada para el repositorio y el porcentaje que corresponde a los consorcios autonómicos (que siguen «a la cabeza», por cierto). Esto aún tardará un poco (esperemos que no mucho), pero de momento y a modo de de aperitivo de Año Nuevo, ya tenemos la gráfica de total de conjuntos de datos depositados actualizada (a falta del dato exacto de la Universidad del País Vasco cuyo repositorio parece estar ahora en modo de mantenimiento).
Como podemos ver, continua el aumento del número de datasets depositados aunque a un ritmo algo menor (400 por 523 del año anteiror). Tal como comentábamos en el post del año pasado, estos valores deberían complementarse con el número de datasets depositados en Zenodo, el repositorio del i+d de la Unión Europea, para verificar si el aumento también se está produciendo en el mismo (pensamos que sí). En los dos consorcios autonómicos (Cataluña y Madrid) se han depositado 981 datasets, más del doble que en el resto de las universidades españolas (en la serie histórica estos dos consorcios totalizan 2830 de 4470 datasets depositados, la desigualdad es menor). Esto confirma que el apoyo que prestan a la comunicación de la ciencia desarrollada en su entorno territorial es algo que deberían seguir otras universidades, especialmente en aquellas autonomías donde existan varios centros (Andalucía o Comunidad Valencia por ejemplo). Sigue llamando la atención que la Universidad Complutense de Madrid no participe en su consorcio regioal y el escaso nçumero de datasets sportados, teniendo en cuenta el tamaño e importancia de esta universidad (aunque han cambiado la plataforma y ahora usan Dspace, eso es positivo). .
En cuanto tengamos actualizado el informe, lo depositaremos en el repositorio DIGITUM e informaremos del mismo en otro post.
Cuando Berners-Leevolvió al CERN el uso de la propia red internet había cambiado: “el mundo había cambiado. La internet, aunque todavía desconocida para gran parte del público, estaba ahora firmemente arraigada. Era esencialmente una escueta infraestructura, un enrejado de tubos vacíos. Había formas de recuperar los datos, pero no existían maneras muy fáciles para llevarlo a cabo, y ciertamente, no había nada y nada con la estructura intuitiva y neuronal estructura del hipertexto” (Wright, 1997).
La propuesta de solución de hipertexto para la gestión de información prosperó. La misma conllevó la creación de la web. Para ello, Berners-Lee no se anduvo con medias tintas planteando propuestas teóricas pendientes de implantación posterior, todo lo contrario, buscó una solución a partir de nuevos desarrollos y adaptaciones de algunas aportaciones anteriores. Así, desarrolló el protocolo ligero de comunicaciones que permite llevar a cabo la navegación por la web – http – y desarrolló el lenguaje HTML de marcado que permite elaborar páginas. A estas dos propuestas unió las soluciones informáticas para el soporte (servidor web), para la navegación (cliente web o navegadore), y la edición de textos en HTML. Con ello se puso en marcha el sistema de información que todo lo revolucionó.
Siendo, sin duda alguna, la mayor creación tecnológica jamás desarrollada en nuestro campo desde la creación de internet, su importancia queda algo reducida si la comparamos con el resultado unos años después: un orbe infinito de información de acceso libre y universal (sin limitaciones en lo geográfico como en las posibles discapacidades personales o tecnológicas, al menos al principio, hasta que muchos intereses espúreos se hicieron presentes en la web).
Si alguna vez, Berners-Lee fue consciente de la grandiosidad de su invento sólo él lo sabe, y sólo a él, en justicia cabe preguntarle, los demás sólo podemos elucubrar al respecto. Lo que sí es cierto es el hecho irrefutable de que la web y sus tecnologías asociadas forman parte del modo de vida cotidiano de todos nosotros. De hecho, quienes han nacido este siglo (y en los últimos años del anterior), los llamados “nativos digitales”, no conciben la vida sin su existencia, especialmente desde la popularización del uso de aplicaciones como el correo electrónico outlook o los motores de búsqueda Google o Yahoo!(por citar algunas de las tecnologías más clásicas), o la mensajería por Whatsapp o el intercambio de fotos, opiniones y comentarios en la red de microblogging Twitter (ahora X).
Vista de un sistema de información Gopher con interface web y vista original.
La implantación de la web fue meteórica. En pocos meses había ocupado el espacio que había ocupado Gopher, sistema de información en formato de tablero electrónico (parecido al teletexto de la televisión) muy popular entre las comunidades universitarias que permitió plasmar en la red dos ideas importantes: (1) la interconexión de servidores (a modo de enlace) y (2) la interoperabilidad con aplicaciones a las que se accedía por acceso remoto o telnet, como era el caso de los primeros módulos de consulta en línea de catálogos de bibliotecas (OPACs). Hacia 1995 existían en internet más de dos millones de servidores basados en esta tecnología que fueron rápidamente sustituidos por la web por la mejor experiencia de usuario y la multitud de ventajas aportadas por la web, convirtiendo el uso de esta aplicación en un recuerdo casi romántico en la mente de aquellos que la llegamos a manipular. Sobre Gopher se construyó la primera Hytelnet que interconectaba los catálogos de las bibliotecas (luego se implementó en la web).
Hytelnet and telnet access
Leonard Kleinrock, uno de los inventores de internet, comentó en una entrevista hace unos años que lo más le gustaba de su invento era el hecho de “haber estado allí«. A un nivel infinitamente menor de relevancia y desde la perspectiva de un humilde profesor, muchos profesores de Tecnologías de la Información y Documentación Automatizada en los estudios de Biblioteconomía y Documentación en España tenían que utilizar diapositivas o versiones de demostración para simular a los alumnos la recuperación de información online en bases de datos bibliográficas (Medline, ERIC o Lisa por ejemplo) porque no podíamos asumir los costes de la conexión telefónica. Conectar las universidades a internet de y la creación de la web acercó a los profesores y estudiantes a una industria de la información hasta entonces prácticamente inaccesible. Estos profesores y estudiantes pudieron, de una manera humilde obviamente, colaborar en el desarrollo de este nuevo entorno que además ayudó a aumentar el conocimiento de la tecnología que lo sustentaba. De hecho, la creación de la web coincidió con la mejora y liberalización del acceso a la internet en muchos lugares del mundo, por lo que en el imaginario colectivo de buena parte de los ciudadanos reside la idea de que la web trajo la internet a nuestra vida, algo que tiene algo de cierto, incluso puede ser que mucho pero que no es así del todo.
Y por una vez, que no la única afortunadamente (véase el tremendo empujón que los investigadores del mundo llevaron a cabo para diseñar vacunas contra la COVID-19), acompañando a profesores e investigadores en el descubrimiento de los posibles usos y aplicaciones de la web ahí estaban también los profesionales de la información, participando en su desarrollo, no dejándolo (como ocurre con otras tecnologías) en las manos exclusivas de los informáticos.
Página web más antigua de la Universidad de Murcia conservada en Wayback Machine (12-10-1997).
Y con ello comenzaron a publicarse las primeras páginas web – la mayoría con un diseño manifiestamente mejorable como la que hicimos en la Universidad de Murcia – y se comenzó a dar forma a los primeros sitios web para, poco a poco, conseguir la integración de la información con servicios y aplicaciones en el formato de portal web (López Carreño, 2004). Todo esto no fue flor de un día, sino que precisó de algunos años para su consolidación y desarrollo, período de tiempo que, obviamente, no resultó igualitario entre países y organizaciones. En esa primera etapa se trataba de una web de un sólo sentido: desde el editor (autor) al usuario (lector). Al principio no había retroalimentación ni interactividad alguna, algo que hoy en día parece imposible de concebir para muchos. En estos primigenios sitios web – la ahora llamada “Web 1.0” – solía incluirse una página con enlaces a un conjunto de otras páginas que el autor consideraba interesantes para sus lectores a modo de miscelánea. Esta acción no era otra cosa que la traslación del muy tradicional servicio de referencia que desde tiempos inmemoriales llevan a cabo los profesionales de la información en las bibliotecas y constituyó el germen para el desarrollo de los primeros sistemas de recuperación de información en la web: los índices o directorios, sistemas de los cuales Yahoo! fue durante un tiempo el mejor ejemplo. Los directorios, como todos recordarán son un producto documental considerado una fuente de información de carácter secundario porque dirige a la fuente original, justo lo que hacían y actualmente hacen estos sistemas de recuperación. Una actividad de gestión de información vuelve a confluir con la tecnología de la web.
Pantalla de inicio de Yahoo Search cuando era un directorio.
El tremendo crecimiento de la edición y publicación de contenidos en la web, hizo muy pronto imposible la gestión manual de estos directorios que sólo alcanzaban a realizar una revisión muy superficial de lo publicado. Esto llevó al desarrollo de los motores de búsqueda, sistemas que alimentan sus bases de datos a partir de la ejecución de unos programas de rastreo (‘crawlers‘) que recopilan direcciones de páginas a partir de los enlaces insertos en las mismas y las indexan de forma automática llevando a cabo una revisión mucho más profunda de lo publicado y de los cambios producidos en los documentos ya recopilados anteriormente. Altavista, Lycos y AlltheWeb fueron algunos de estos sistemas y representaron una innovación de gran impacto en su momento, por primera vez se podía acceder a grandes cantidades de documentos con sólo introducir unas pocas palabras en la ecuación de búsqueda sin necesidad de tener apenas que estudiar el lenguaje de recuperación de información.
Durante la década de los años 80, además del tecno-pop, va cogiendo fuerza la idea de que el hipertexto puede ser la mejor solución para la gestión de la información porque la tecnología ya comenzaba a ofrecer soluciones para ello y porque cada vez se veía más claro que las bases de datos relacionales no se ajustaban bien del todo a las exigencias de unos sistemas de información cada vez más grandes y más multimedia. En aquella época es cuando surgen los primeros sistemas de hipertexto de uso más o menos corriente:
IBM BookMaster (1980s). Herramienta de autoría de documentos con capacidades de hipertexto y estructuración. Estaba concebida para crear manuales técnicos y documentación corporativa pero que introdujo ideas que posteriormente aparecieron en otras herramientas de hipertexto.
Guide (1982). Sistema desarrollado por Peter J. Brown en la Universidad de Kent y comercializado por Owl International, fue pionero en la navegación hipertextual estructurada. Se usaba para crear documentos extensos y complejos, como manuales técnicos y enciclopedias, en los que los usuarios exploraban la información por medio de enlaces integrados en el texto. Recuerdo de este sistema (llegué a usarlo a principio de los años 90) que introdujo el concepto de «expansión y contracción» del texto, en el que las secciones vinculadas se desplegaban o contraían dentro del mismo documento, ofreciendo una experiencia fluida sin necesidad de cambiar de pantalla (algo que no hace la web). Esta característica era especialmente útil para gestionar grandes cantidades de información de manera organizada y estos enlaces de expansión eran tremendamente útiles y sólo los vemos ahora en las barras de menús.
NoteCards (1984). Creado en el mítico Xerox PARC, fue otro sistema pionero que permitía gestionar ideas interconectadas con informaciones mediante «notas» que podían representar texto, imágenes o gráficos y estaban organizadas en «tarjetas» vinculadas por enlaces. Estaba programado en LISP (uno de los lenguajes de programación más emblemáticos en el campo de la IA creado por John McCarthy, uno de los padres de estas «inteligencias») y permitía a los autores usar comandos de este lenguaje para personalizar o crear tipos de nodos completamente nuevos (recuerda en algo las IA de gramática generativa, ¿verdad?).
HyperCard (1987). Fue la aplicación más conocida aunque solo funcionaba en los ordenadores Macintosh. Desarrollado por Bill Atkinson para Apple era una aplicación que combinaba características de bases de datos, programación y diseño multimedia. Así, permitía crear «pilas» de tarjetas interconectadas. En estas tarjetas podía haber texto, imágenes y botones interactivos que conducían a otras tarjetas, creando así una experiencia de navegación hipertextual. Si bien no pudimos usarlo en nuestra entonces pequeña escuela universitaria (no había presupuesto para adquirir un ordenador de la empresa de la «manzanita»), sí tuve ocasión de leer un manual del sistema. El mismo destacaba enormemente por su facilidad de uso y, además, incluía el lenguaje de programación HyperTalk que permitía a usuarios sin experiencia técnica crear aplicaciones personalizadas. Esta flexibilidad lo convirtió en una herramienta popular para la enseñanza, el desarrollo de juegos y la creación de aplicaciones interactivas. Influyó en el diseño de interfaces gráficas y en la concepción de la web al popularizar los enlaces que conectan diferentes piezas de información.
La disponibilidad de una tecnología capaz de gestionar la información de forma gráfica y, especialmente, que propiciase una lectura de forma no estrictamente secuencial, «cierra el ciclo» y termina «conectando» en el tiempo de Vannevar Bush y Ted H. Nelson con Tim Berners-Lee, joven (entonces) investigador británico que trabajaba en el CERN a principios de los 90 y quien asistía incrédulo a principios de esta década a la paradoja de comprobar día a día cómo en este laboratorio (un lugar donde todos los días se llevan a cabo pequeños milagros”, escucha el imaginario historiador Robert Langdon de boca de un también imaginario director del CERN en la novela “Ángeles y demonios” de Dan Brown), perdía información o tenía problemas para localizar proyectos desarrollados por científicos de muy alto nivel tras costosísimas horas de trabajo.
A Berners-Lee le desesperaba que esa “maravillosa organización” adoleciera de este problema, especialmente cuando en ella trabajaban miles de personas de alta cualificación intelectual, muy creativas la mayoría. Si bien estaban organizados en una estructura jerárquica, esto no limitaba la manera en la que se comunicaba y compartía información, equipo y software en todos los grupos. En realidad, más que de una jerarquía, la estructura de trabajo real del CERN era una red conectada que, además, aumentaba su tamaño con el paso del tiempo.
En este entorno, una persona que se incorporase a este laboratorio, como mucho recibía alguna pista sobre quiénes serían contactos útiles para recabar información verbal de lo disponible acerca de su proyecto y poco más: el resto consistía en un proceso de autoaprendizaje. Por entonces, no se tomaba esto como un problema porque las investigaciones del CERN alcanzaban un éxito notable (y alcanzan hoy en día), a pesar de los malentendidos ocasionales y de la duplicación de esfuerzos en la transmisión interna del conocimiento, sin olvidar las pérdidas de información (los detalles técnicos de proyectos anteriores a veces se perdían para siempre o sólo se recuperaban tras llevar a cabo una investigación típica de detective en una emergencia). El problema se agrandaba por la alta rotación de este personal investigador (muchos investigadores solo llegan a dos años de estancias en este centro).
También detectó otro problema que había pasado desapercibido: el modo de registrar la documentación de un proyecto. Si un experimento analizaba un fenómeno estático y particular, toda la información se podía registrar en un libro para posteriores consultas, pero esto no era lo frecuente. Cuando había que introducir un cambio en un proyecto que afectaba a una pequeña parte de la organización (cambiar una parte del experimento o comprar un nuevo detector de señales), el investigador debía averiguar qué otras partes de la organización y otros proyectos se iban a ver afectados. Con el tipo de libro de registro utilizado era prácticamente imposible de mantener actualizado y no ofrecía respuestas a cuestiones
Con el paso del tiempo esto se hubiera hecho insostenible. Era un problema a resolver en ese momento que no podía ser visto como un hecho aislado. La supervivencia de una organización de investigación está íntegramente ligada a su capacidad de mejorar su gestión de información. Para hacerla posible, el método de almacenamiento no debería imponer restricciones a la información. Una «red» de notas con enlaces (referencias) entre los documentos era una solución mucho más útil que un sistema jerárquico fijo (tipo carpetas de un administrador de ficheros).
Para describir un sistema complejo, muchas personas recurren a diagramas con círculos y flechas, esto permite describir relaciones entre los objetos de una manera que las tablas o directorios no pueden. Si llamamos a los círculos “nodos” y “enlaces” a las flechas e imaginamos cada nodo como una pequeña nota o pieza de información (da igual que sea un artículo, un resumen o una foto), se puede construir un sistema vinculado de información entre personas y piezas informativas en constante evolución. Así, la información de un proyecto no residirá sólo en una carpeta de documentos que difícilmente un nuevo investigador iba a reutilizar, ahora formaría parte de la red informativa organizacional en la que se establecerían vínculos entre otras personas y departamentos, garantizando la supervivencia de la información. Esta propuesta de sistema de almacenamiento iba va a conseguir implantar, al fin, la idea del hipertexto como sistema de gestión de información.
Lo verdaderamente curioso, algo que poca gente conoce, es que cuando Berners-Lee presentó su memorándun ‘Information Management: a proposal‘, su jefe de equipo le dio permiso para hacerlo «cuando no tuviera algo más importante que hacer«.
El final de la II Guerra Mundial trajo consigo la constatación de que los sistemas de información existentes en esa época no iba a ser capaces de clasificar y organizar debidamente las ingentes cantidades de información que ya entonces comenzaban a manipularse, conjuntos de documentos que, de forma incipiente, comenzaban a no estar siempre en formato textual, incorporando otros tipos de media: gráficos, sonidos, planos de diseños, mapas, fotografías, etc. Fueron varios millones de documentos microfilmados por las tropas norteamericanas en archivos e industrias alemanas que fueron puestos a disposición de los gestores de información de entoces, que verificaron, al aplicar sobre ellos los sistemas de clasificación e indización de la época, su inutilidad.
Esta realidad ha llamado la atención para el cine y la literatura, especialmente en la novela de Joseph Kanon “El buen alemán”, resultando ser el inicio de la llamada “guerra fría” entre las dos grandes potencias de entonces (Estados Unidos y la Unión Soviética) por la posesión de los preciados proyectos de ingeniería y de ciencia que se habían desarrollado en la Alemania de principios de siglo XX.
De esta stituación de crisis surge la idea de disponer de otra manera de organizar estos fondos documentales por medio de unos sistemas que permitieran la colaboración de los gestores, facilitando la asociación de ideas y conceptos, y permitiendo adquirir el conocimiento de forma no estrictamente secuencial.
Vannevar Bush, asesor científico del Presidente Franklin Delano Roosevelt, planteó esas necesidades de una nueva solución para la gestión de la información en su artículo ‘As we may think‘ y llegó a pensar en la construcción de una máquina llamada ‘Memex’ (para algunos autores es el acrónimo de Memory – Index, probablemente por similitud a ‘Rolodex’ (Rolling – Index), un dispositivo para almacenamiento y búsqueda de información en fichas muy popular en esa época).
Esta máquina fue concebida como una gran base de datos donde se almacenarían todo tipo de documentos y constaría de una mesa con un teclado y unas palancas que permitirían la consulta de datos almacenados en microfilms que serían proyectados en unas pantallas translúcidas.
Este aparato incluiría también una opción para que el usuario pudiera tomar anotaciones en los márgenes. De esta forma, el usuario lector podría convertirse también en usuario autor, algo verdaderamente innovador y que se pretendía conseguir casi setenta años antes que se fijaran las características de la Web 2.0 que tanta importancia confieren al doble sentido de la publicación en la web. ‘Memex‘ fue un proyecto teórico que nunca llegó a materializarse, la tecnología de la época no lo permitía. Lo que más subyace de los pensamientos de Bush es su idea de que algo nuevo había que hacer, porque seguir gestionando la información de la misma manera, difícilmente podría llevar a buen término esta tarea.
Arquitectura von Neumann
De forma contemporánea a estos planteamientos y circunstancias, se fue imponiendo paulatinamente la Arquitectura de Von Neumann en el diseño y construcción de las computadoras. Una máquina basada en esta arquitectura, al igual que los ordenadores modernos, debía disponer de cuatro componentes esenciales: dispositivo de operaciones, unidad de control, memoria y dispositivos de entrada y salida. Von Neumann, de origen austrohúngaro, había emigrado a EE.UU. antes del inicio de la II Guerra Mundial, era judío y tuvo que abandonar Europa.
Habrían de pasar varios años para que estas máquinas primigenias pudieran llevar a cabo estas tareas en la forma deseada. Uno de los autores más destacados de este campo, el científico norteamericano Ted H. Nelson, ha asistido prácticamente durante toda su vida al desarrollo de un sistema de información que él denominó “hipertexto” y que sería capaz de gestionar piezas (fragmentos) de información de forma que permitiera un aprendizaje de sus contenidos y una gestión de los mismos de forma no estrictamente secuencial, facilitando a sus usuarios la integración de cualquier pieza informativa en sus propios documentos, sin tener que copiar y pegar esa pieza porque se establecerían vínculos entre ellos pasando los documentos de los usuarios a formar parte de una red universal, un sistema imaginario donde residiría toda la información científica: Xanadú (nombre tomado de un poema de Samuel Taylor Coleridge. Nelson interpretó la palabra como «ese mágico sitio de la memoria literal donde nada se pierde nunca» (en el poema era el palacio de Kublai Khan).
Resulta curioso el paralelismo con el palacio del conocimiento que representó en la antigüedad la Biblioteca de Alejandría construida por orden de Ptolomeo I, rey de Egipto y antiguo general de Alejandro Magno.
Este proyecto tenía como objetivo principal la construcción de un servidor de hipertexto para almacenar y enlazar toda la literatura mundial, accesible desde cualquier ordenador. La idea era reunir toda la producción escrita existente y conectar unos textos con otros. Esos documentos estarían almacenados en ordenadores particulares y disponibles al mismo tiempo para el resto de los usuarios (como pasó con Napster y otras redes P2P) por medio de una dirección única para cada uno de ellos, del mismo modo que ahora un objeto publicado en la web tiene asociado un identificador único de documento URI/URL. Esto viene a ser una metáfora muy parecida a lo que Berners-Lee y otros “popes” de la internet han llamado recientemente ‘decentralized web‘
Representación del almacenamiento “xanalógico” de T.H. Nelson.
Esta idea también resultó irrealizable en los años 60 y resulta muy parecida a la web actual, aunque existe una importante diferencia: los documentos del hipertexto de Nelson se construirían en el momento de la consulta, en la edición el autor introduciría nuevos textos y enlaces a fragmentos de texto ya escritos por otros autores, la reconstrucción del documento para su lectura estaría garantizada por la técnica del almacenamiento “xanalógico”, técnica con la que el autor pretendía hacer viable su red (en aquella época los ordenadores apenas tenían memoria de almacenamiento disponible). Aunque los problemas de almacenamiento están superados en la actualidad, resulta curioso que esto no haya sido implementado en la web actual, donde abunda (mucho más de lo deseable), la copia de textos desde otros documentos originales. Por esta razón, desde un punto de vista conceptual, el hipertexto de Nelson aún no se ha desarrollado del todo y no es de extrañar la frustración que arrastra este autor por tener que ceder el protagonismo y reconocimiento de su idea a un joven (entonces) investigador británico que trabajaba becado en el Centro Europeo de Investigación Nuclear (CERN, hoy Organización Europea para la Investigación Nuclear) a principios de los años 90.
Cuando comenzó a popularizarse la tecnología de la web, algunos autores la presentaban como: ‘WWW, Xanadu at least‘, homenajeando de alguna manera a Nelson, si bien este reconocimiento no parece satisfacer del todo al autor quien ha reconocido públicamente que, si bien no puede negar el éxito y trascendencia de la web, este sistema aun no es un hipertexto completo en el sentido conceptual que él había imaginado, sino una “brillante simplificación”.
Si bien, a nivel conceptual, se habían producido grandes avances en muy pocos años, el alcance de la red Arpanet seguía estando restringida a un número pequeño de usuarios en EE.UU.
Esto hizo que durante bastante tiempo se continuara utilizando el protocolo “host a host” para conectar los nodos principales de la red mientras que se continuaban desarrollando implementaciones del protocolo TCP/IP más cercanas a los usuarios finales. En el seno de la comunidad científica (los principales usuarios de la red en ese momento), tuvo especial repercusión la inserción de este protocolo como un elemento más del núcleo del sistema operativo UNIX BSD, utilizado en la mayoría de los equipos informáticos de esas instituciones en ese momento, lo que aumentó el número de usuarios y de equipos conectados. UNIX es un sistema operativo portable, multitarea y multiusuario; desarrollado en el año 969 en los laboratorios Bell de AT&T por Ken Thompson, Dennis Ritchie y Douglas McIlroy. La especificación BSD corresponde a la conocida como «distribución de Berkeley«.
Este crecimiento, unido al acceso desde ordenadores personales a la red (algo infrecuente entonces pero que también sumaba), hizo necesaria la creación del sistema de nombres de dominio o DNS (‘Domain Name System‘), para la asignación de una dirección de red a los equipos conectados al mismo tiempo que les asignaba una dirección nemotécnica más fácil de recordar que la dirección de red de cada ordenador (la «dirección IP» o “IP-Address”).
Así, de esta forma, a un equipo con dirección de red 155.54.120.1 se le asignaba un nombre de dominio como, por ejemplo, javima.edu.um.es en el cual se informa de que ese ordenador tiene de nombre “javima”, pertenece a un subdominio educativo “edu” de la organización Universidad de Murcia “um”, registrada en el dominio nacional de España “es”. Este sistema de identificación permite una gestión más directa por parte de los usuarios finales para quienes es más simple recordar los nombres nemotécnicos que un complicado sistema de dígitos numéricos que además, precisan ser revisados de vez en cuando.
Este sistema, que hasta entonces se gestionaba de forma centralizada, pasó a gestión descentralizada de manera que ahora cada entidad responsable de una las redes conectadas debía mantener su propia tabla DNS dentro de una base de datos distribuida y jerárquica.
De esta forma, si se solicita acceder a un ordenador cuyo DNS no está en la tabla de nuestro servidor local, el sistema busca en un servidor raíz por si éste tuviera esa dirección en su tabla y así, sucesivamente hasta dar con él (por ejemplo, un usuario de la red de la Universidad de Murcia solicita visualizar la página de la Universidad Politécnica de Valencia como esa dirección de máquina no está en el servidor DNS de la primera universidad habrá de buscarla en el servidor DNS raíz, en este caso el de Red Iris(entidad responsable de la infraestructura de la red del Plan Nacional de I+D+i de España).
El 1 de enero de 1983, sin muchos problemas, se llevó a cabo (a pesar de mensajes algo caóticos que rodeaban a este proceso y que con el tiempo se han repetido varias veces en el mundo de la Informática), la transición hacia el protocolo TCP/IP de los principales servidores de Arpanet. De esta manera, todos los equipos de esta red estaban interconectados. Es entonces cuando entre los especialistas se comienza a hacer uso del vocablo ‘internetworking‘ para hablar de este hecho, palabra que – abreviada a los 8 primeros caracteres – quedará en poco espacio de tiempo en la forma ‘internet‘, que muy pronto comienza a ser usada para denominar a la red.
Es precisamente ese año cuando el Departamento de Defensa de los Estados Unidos decide dividirla, creando MILNET como red propia asociada a DARPA y dejando a Arpanet (ya rebautizada como internet) para su uso por parte de la comunidad científica.