admin

Open Science Manifesto

OCSDNet llevó a cabo, en 2017, una consulta participativa con científicos, profesionales del desarrollo y activistas de 26 países de América Latina, África, Oriente Medio y Asia para comprender cuáles eran para ellos son los valores fundamentales de la ciencia abierta. El resultado de esta consulta fue que no existe una forma correcta de hacer ciencia abierta, que se requiere una negociación y una reflexión constante, y el proceso siempre será diferente según el contexto. Pero también se pudo encontrar un conjunto de siete valores y principios en el centro de su visión de una ciencia abierta y más inclusiva que se recoge en este video subtitulado en español:

De esta forma, se establecieron los siguientes SIETE principios de la ciencia abierta y colaborativa.

  1. Permite un conocimiento común en el que cada individuo decide cómo se gobierna y gestiona su conocimiento para abordar sus necesidades (si tiene los medios para ello).
  2. Los siete principios de la ciencia abierta y colaborativaReconoce la justicia cognitiva, la necesidad de diversas comprensiones de la toma de conocimiento para coexistir en la producción científica.
  3. Practica la apertura situada al abordar las formas en que el contexto, el poder y la desigualdad condicionan la investigación científica.
  4. Defiende el derecho de cada individuo a la investigación y permite diferentes formas de participación en todas las etapas del proceso de investigación.
  5. Fomenta la colaboración equitativa entre científicos y actores sociales y cultiva la cocreación y la innovación social en la sociedad.
  6. Incentiva las infraestructuras inclusivas que empoderan a las personas con todas las capacidades para crear y utilizar tecnologías accesibles de código abierto.
  7. Y finalmente, la ciencia abierta y colaborativa se esfuerza por utilizar el conocimiento como un camino hacia el desarrollo sostenible, equipando a cada individuo para mejorar el bienestar de nuestra sociedad y el planeta.

Berners-Lee vende una copia digital del código original del primer navegador web por más de 5 millones de dólares.

Tim Berners Lee

Tim Berners Lee

Tim Berners Lee creó la WWW en 1989, conectando diferentes piezas de información en internet a través de hipervínculos. Para ello construyó el primer navegador y servidor web, y siempre se negó a patentar su invención porque quería garantizar el acceso universal a este nuevo sistema. En el año 1993, el CERN (la organización de investigación para la que trabajaba) renunció a todos sus derechos sobre la tecnología y la puso en el dominio abierto.

Hace unos días se anunció la subasta de una copia de ese código original (y de una carta firmada digitalemente por Berners-Lee y alguna otra fruslería) en Sotheby’s, pero en forma de una NFT (‘Tokens no fungibles’, por sus siglas en inglés, archivos digitales que se basan en la misma tecnología que sustenta las criptomonedas para crear un registro inalterable de una creación digital, que no puede ser modificado o copiado sin perder su firma criptográfica original). La recaudación iba a ser íntegramente donada con fines sociales.

Berners-Lee dijo al diario inglés ‘The Guardian‘ que «los códigos y protocolos centrales en la web están libres de regalías, como siempre lo han sido». Y no estaba «vendiendo la web«, y no habrá que empezar a pagar dinero para seguir enlaces porque “no estoy vendiendo el código fuente, vendo una imagen que hice, con un programa escrito en Python que escribí yo mismo, de cómo se vería el código fuente si estuviera pegado en la pared y firmado por mí».

Sotheby’s describió el lote como «la única copia firmada del código del primer navegador web existente«, comparando su venta con la de los documentos manuscritos de una figura histórica. Las NFT han sido criticadas por su impacto en el medio ambiente, ya que la cadena de bloques, donde los registros de propiedad se almacenan en un libro de contabilidad digital, requiere grandes cantidades de energía para funcionar. Sotheby’s dijo que pagaría una compensación de carbono por los «costos de acuñación y transacción de la venta».

Si quieres «revivir» cómo funcionaba ese primer navegador web hace algo más de 30 años, el CERN ha preparado un enlace para ello.

HyperMedia browser/editor. El primer navegador web que utilizó Berners-Lee para crear la web.
HyperMedia browser/editor. El primer navegador web que utilizó Berners-Lee para crear la web.

El primer método de evaluación de los buscadores web

tabla de comparativa de la efectividad de dos buscadores web

tabla de comparativa de la efectividad de dos buscadores webSin duda alguna, el honor de haber propuesto el primer método de evaluación de los sistemas de recuperación de información en la web le corresponde a Heiting Chu Marilyn Rosenthal, quienes en el año 1996 (prácticamente en el inicio del desarrollo de los buscadores web) publicaron el trabajo ‘Search Engines for the World Wide Web: A Comparative Study and Evaluation Methodology‘ con motivo de la conferencia ASIS’96.

Se compararon tres sistemas de búsqueda (AltaVista, Excite y Lycos), midiendo  sus capacidades de búsqueda (por ejemplo, lógica booleana, truncamiento, búsqueda por campos, búsqueda de palabras y de frases) y de su rendimiento en la recuperación de información (es decir, precisión y tiempo de respuesta), utilizando consultas de ejemplo extraídas de preguntas reales de referencia.

La exhaustividad (recall), el otro criterio clásico de evaluación en recuperación de información, se omite deliberadamente en este estudio, ya que resulta imposible suponer cuántos ítems relevantes existen para una consulta determinada dentro del enorme y cambiante sistema de la web. Ya adelantaba este estudio pionero la poca utilidad de calcular esta ratio en este contexto (nadie aspira a consultar la mayor parte de la respuesta, con la primera y/o segunda página de resultados va a ser suficiente).

Los autores del estudio constataron que AltaVista superaba a Excite y Lycos tanto en las funcionalidades de búsqueda como en el rendimiento de recuperación, aunque Lycos presentaba la mayor cobertura de recursos web entre los tres motores de búsqueda analizados.

Como resultado de esta investigación, se propuso además una metodología para evaluar otros motores de búsqueda web no incluidos en el presente estudio.

Sistemas de recuperación de información desarrollados a partir del ‘dataset’ CORD-19

logo del conjunto de datos CORD19

Aquí os dejo enlace al artículo «Vista de Sistemas de recuperación de información implementados a partir de CORD-19: herramientas clave en la gestión de la información sobre COVID-19» que he publicado con Rosana López Carreño en la Revista Española de Documentación Científica (número de diciembre de 2020).

La investigación sobre el coronavirus ha generado una producción de documentos científicos extraordinaria. Su tratamiento y asimilación por parte de la comunidad científica ha necesitado de la ayuda de sistemas de recuperación de información diseñados de forma específica para esta cuestión. Algunas de las principales instituciones mundiales dedicadas a la lucha contra la pandemia han desarrollado el conjunto de datos CORD-19 que destaca sobre otros proyectos de similar naturaleza.

Los documentos recopilados en esta fuente han sido procesados por distintas herramientas de recuperación de información, a veces prototipos o sistemas que ya estaban implementados. Se ha analizado la tipología y características principales de estos sistemas concluyendo que hay tres grandes categorías no excluyentes entre ellas: búsqueda terminológica, visualización de información y procesamiento de lenguaje natural. En el artículo podemos ver que la gran mayoría de ellos emplean preferentemente tecnologías de búsqueda semántica con el objeto de facilitar la adquisición de conocimiento s los investigadores y ayudarlas en su ingente tarea.

Concluimos convencidos de que la crisis provocada por la pandemia ha sido aprovechada por los buscadores semánticos para encontrar su sitio. Y seguramente para no abandonarlo.

logo del conjunto de datos CORD19

El origen de la palabra «ordenador».

IBM 650, finales de los años 50

Tanto la palabra «ordenador» como la palabra «informática» son de origen francés (‘informatique‘ fue acuñado por el ingeniero Philippe Dreyfus como contracción de information + automatique para designar el tratamiento automático de la información), más allá del mero cálculo numérico. Ambos términos comparten una misma idea: que las máquinas que se estaban desarrollando de forma frenética en los años 60 servían para algo más que para contar, tal como hacían las calculadoras (concepto más cercano a la idea de ‘computer’ que había en esos tiempos).

Por esta razón, cuando la empresa IBM quiso introducir en Francia su equipo 650 en el año 1955, su responsable de publicidad en este país, François Girard, insistió en buscar una palabra más familiar en su lengua y para ello recurrió (hizo bien sin duda alguna) a un antiguo profesor de filología en la Sorbona. Jacques Perretquien redactó un informe filológico proponiendo varios términos, destacando la palabra ‘ordonnateur‘ («alguien que lo pone todo en orden») que provenía del latín ‘ordinare‘.

IBM 650, finales de los años 50

El IBM 650 del año 1955.

Finalmente, IBM no terminó de hacer caso (del todo) al viejo profesor e introdujo la palabra ‘ordinateurcomo una adaptación «deliberada» por su trasfondo social y religioso en francés, que termina introduciéndose como término de normal uso en francés y se «trasladó» a otras muchas lenguas, como el español que usamos en Europa (porque en América se sigue usando «computador» o «computadora» de forma masiva, y bien que hacen).


Revisión (febrero de 2026): le he pedido a chatGPT que dibuje una infografía con una línea del tiempo de los ordenadores más destacados que fabricó IBM desde el final de la II Guerra Mundial y la aparición del IBM PC a principios de los 80.

Hitos en la fabricación de los ordenadores de IBM
Hitos en la fabricación de los ordenadores de IBM. Imagen elaborada por chatGPT.

La «sociedad red» de Manuel Castells

alegoría de la "Sociedad Red" de Castells

El eminente profesor, científico, y anterior ministro de Universidades Manuel Castells, es el autor del término «sociedad red«:

"En conclusión, internet es la sociedad, expresa los procesos sociales, los intereses sociales, los valores sociales, las instituciones sociales. ¿Cuál es, pues, la especificidad de internet, si es la sociedad? La especificidad es que es constituye la base material y tecnológica de la sociedad red, es la infraestructura tecnológica y el medio organizativo que permite el desarrollo de una serie de nuevas formas de relación social que no tienen su origen internet, que son fruto de una serie de cambios históricos pero que no podrían desarrollarse sin internet. Esa sociedad red es la sociedad que yo analizo como una sociedad cuya estructura social está construida en torno a redes de información a partir de la tecnología de información microelectrónica estructurada en internet. Pero internet en ese sentido no es simplemente una tecnología; es el medio de comunicación que constituye la forma organizativa de nuestras sociedades, es el equivalente a lo que fue la factoría en la era industrial o la gran corporación en la era industrial. Internet es el corazón de un nuevo paradigma sociotécnico que constituye en realidad la base material de nuestras vidas y de nuestras formas de relación, de trabajo y de comunicación. Lo que hace internet es procesar la virtualidad y transformarla en nuestra realidad, constituyendo la sociedad red, que es la sociedad en que vivimos".
Alegoría de la "sociedad red" elaborada por chatGPT
Alegoría de la «sociedad red» elaborada por chatGPT
fotografía del profesor Manuel Castells

Este párrafo corresponde con las conclusiones de su discurso de apertura del curso académico del programa de doctorado de la Sociedad de la Información y el Conocimiento (10 de marzo de 2003) en la UOC, que comenzaba con las siguientes palabras:

"Internet es el tejido de nuestras vidas en este momento. No es futuro. Es presente. Internet es un medio para todo, que interactúa con el conjunto de la sociedad y, de hecho, a pesar de ser tan reciente, en su forma societal (aunque como sabemos, internet se construye, más o menos, en los últimos treinta y un años, a partir de 1969; aunque realmente, tal y como la gente lo entiende ahora, se constituye en 1994, a partir de la existencia de un browser, del World Wide Web) no hace falta explicarlo, porque ya sabemos qué es internet. Simplemente les recuerdo, para la coherencia de la exposición, que se trata de una red de redes de ordenadores capaces de comunicarse entre ellos. No es otra cosa. Sin embargo, esa tecnología es mucho más que una tecnología. Es un medio de comunicación, de interacción y de organización social. Hace poco tiempo, cuando todavía internet era una novedad, la gente consideraba que, aunque interesante, en el fondo era minoritaria, algo para una elite de internautas, de digerati, como se dice internacionalmente. Esto ha cambiado radicalmente en estos momentos. Para recordarles brevemente la progresión, les diré que la primera encuesta seria sobre usuarios de internet que yo conozco, de finales del noventa y cinco señalaba que había unos 9 millones de usuarios. En este momento estamos en torno a los 350 millones de usuarios en el mundo. Las previsiones conservadoras prevén que, para mediados del año 2001, llegaremos a 700 millones, y en torno a 2005 -2007, a 2000 millones como mínimo. Es verdad que constituye sólo una tercera parte de la población del planeta, pero esto quiere decir, ponderando en términos de las sociedades más desarrolladas, que en las sociedades de nuestro contexto las tasas de penetración estarán en torno al 75% u 80%".

En statista estiman en un poco más de 5520 millones de personas el número de usuarios de internet en octubre de 2024. Un poquito por encima del número de usuarios de las redes sociales. En la siguiente imagen podemos ver el aumento paulatino producido en los últimos 20 años.

Evolución de los usuarios de internet. Fuente: statista

Fuente: https://www.statista.com/statistics/273018/number-of-internet-users-worldwide

Está claro que ya estamos en la «sociedad red» de Castells.

El «cuadrante mágico» de Gartner de la gestión de contenidos.

cuadrante mágico de Gartner de la gestión de contenidos 2019

Este post puede parecer contradictorio con el dedicado al liderazgo de WordPress en el mundo de los CMS porque vamos a comentar el ya clásico estudio de Gartner Group sobre lo que ellos llaman «plataformas de gestión de contenidos», si bien emplean en inglés el acrónimo WCM (‘web content management’) que es abreviatura de WCMS de donde «sale» el más utilizado CMS.

Para esta consultora, la gestión de contenido web (WCM) es el proceso de creación, gestión y entrega de contenido a través de uno o más canales digitales mediante el uso de soluciones de gestión específicas basadas en un repositorio central. Estas soluciones pueden ser productos comerciales, herramientas de código abierto, servicios en la nube o servicios alojados. Estos sistemas hacen algo más que publicar páginas web, también incluyen:

  • Funciones de creación de contenido, como plantillas, flujo de trabajo y gestión de cambios.
  • Repositorios que organizan y proporcionan metadatos sobre el contenido.
  • Servicios de biblioteca, como ‘check-in / check-out’, control de versiones y seguridad.
  • Funciones de gestión del sitio web, como diseño, menús y navegación.
  • Funciones de despliegue de contenido
  • Capacidades de personalización y análisis.
  • La capacidad de integrarse bien, a través de API, con tecnologías adyacentes como plataformas de comercio digital, plataformas de redes sociales, plataformas de automatización de marketing y plataformas de experiencia digital más amplias (DXP).

Es precisamente esta última funcionalidad la que «aleja» el estudio de Gartner del común de los mortales (y por tanto, del post anterior) porque se centra más en los sistemas que permiten gestionar contenidos para la web y/o intranets de grandes organizaciones que manejan varios miles de páginas web (además de una amplia cantidad de contenidos editados en otros formatos digitales).

El resultado del estudio de fecha de julio de 2019 muestra el siguiente «cuadrante mágico»:

cuadrante mágico de Gartner de la gestión de contenidos 2019

En otro post comentaremos las fortalezas y debilidades de los sistemas evaluados y cuáles han sido los criterios empleados. En este vamos a dejar el gráfico y también qué significan las cuatro áreas en las que se divide «el cuadrante».

Líderes (‘leaders’)

Los líderes deben impulsar la transformación del mercado. Tienen los puntajes combinados más altos para la capacidad de ejecución y la integridad de la visión global de la gestión de contenidos. Les está yendo bien y están preparados para el futuro con una visión clara y una profunda apreciación del contexto más amplio de los negocios digitales. Tienen socios de canal fuertes, presencia en múltiples regiones, desempeño financiero consistente, soporte de plataforma amplia y buen soporte al cliente. Además, dominan en una o más tecnologías o mercados verticales. Los líderes son conscientes del ecosistema en el que deben ajustarse sus ofertas. Los líderes pueden:

  • Demostrar implementaciones empresariales.
  • Ofrezca integración con otras aplicaciones comerciales y repositorios de contenido.
  • Soporta múltiples contextos verticales y horizontales.

Retadores (‘challengers’)

Los retadores son vendedores sólidos que pueden desempeñarse bien para muchas empresas, pero pueden carecer de una visión para guiar a sus clientes en el futuro. Pueden tener un producto WCM fuerte pero una estrategia de producto que no refleja completamente las tendencias del mercado. Se podría dar el caso de poner un énfasis insuficiente en la creciente importancia del contexto del usuario, la producción multicanal y la interoperabilidad con tecnologías adyacentes (como las de CRM, DAM y gestión de campañas multicanal).

Visionarios (‘visionaries’)

Los visionarios son progresistas y están técnicamente enfocados. Generalmente pueden establecer la dirección del mercado a través de la innovación y el desarrollo de productos. Para convertirse en líderes deben mejorar algunos de los aspectos centrales de sus ofertas y ecosistemas comerciales aumentando su capacidad de ejecución. También pueden necesitar desarrollar su fortaleza financiera, amplitud funcional, servicio y soporte, cobertura geográfica y canales de ventas y distribución. Su evolución puede depender de la aceptación de una nueva tecnología o del desarrollo de asociaciones que complementen sus puntos fuertes.

Jugadores de nicho (‘niche players’)

Los jugadores especializados en un nicho se centran en un segmento particular del mercado, según lo definido por características como el tamaño del cliente, la industria y la complejidad del proyecto. Esta estrechez de enfoque puede ser beneficiosa para las organizaciones alineadas con su nicho, pero puede afectar negativamente su capacidad para innovar o expandir su negocio. Los jugadores de nicho a menudo solo admiten aquellas aplicaciones que se aplican a los segmentos en los que se centran.

El liderazgo de wordpress en el mundo de los CMS (‘updated’)

logo wordpressEn 2019 publiqué la primera versión de este ‘post’ en el que recogía la tabla con datos estadísticos que les muestro curso a curso a mis estudiantes de la asignatura «Construcción de Servicios de Información Digital» (4º curso del Grado de Información y Documentación de la Universidad de Murcia y PCEO con Periodismo). En esa tabla recojo las estadísticas que recopilan en la web w3techs.com sobre el uso de los CMS. Basta mirar la imagen para comprobar que wordpress, en esa época, era el campeón de la competición y amenazaba con quedarse con todos los trozos del pastel.

estadísiticas de uso de los CMS en la web

Lo cierto es que he seguido haciendo esa presentación y la he expandido al nuevo grado, el de Gestión de Información y Contenidos Digitales porque en el mismo imparto la asignatura «Sistemas de Gestión de Contenidos» y hoy publico la versión actualizada de esta tabla (que tengo que ir pensando en rediseñar porque me queda poco espacio).

En la que se observa que el papel predominante de wordpress dentro de los CMS sigue vigente, si bien ha bajado un poco en los últimos dos años, al igual que lo han hecho los gestores clásicos como drupal o joomla, cuya presencia reducida de un 4% va camino de convertirse en residual (menos de un 1%). 

portada de una edición de "El señor de los anillos" de Tolkien.

Portada de una edición de «El señor de los anillos».

Al pie de ambas imágenes aparece un comentario que considero importante. Llama mucho la atención que aún un 31% de los sitios web visitados en la encuesta no usen todavía un CMS. Esto, hoy e día, es como querer escribir «El señor de los anillos» con pluma estilográfica. No obstante, cada vez son menos estos sitios gestionados de forma manual o desconocida, han pasado en 8 años de un 57,3% a un 31%). 

De los dos tercios de sitios web que usan CMS, wordpress está presente en el 63,2% de los casos. Han ganado algo de presencia gestores de comercio electrónico (shopify en concreto, casi un 6%) y gestores que permiten construir webs de forma sencilla, dando alojamiento y registro de dominios (wix, sobre un 3%). El predominio, si bien algo estabilizado en su crecimiento es absoluto. Todos los demás gestores van camino de la irrelevancia

También anualmente actualizo la gráfica de búsquedas realizadas en todo el mundo en Google utilizando los nombres de los principales CMS. Esta información la obtenemos de Google Trends

Sin necesidad de comparar datos, la gráfica certifica el predominio de wordpress, si bien se observa también el auge del interés por los gestores «emergentes«, como es el caso de shopify

tendencia de búsquedas en Google por los nombres del os principales CMS
Tendencia de búsquedas en Google por los nombres de los principales CMS.

No todo es Shangai en el mundo de los rankings

logos de los principales rankings de universidades

logos de los principales rankings de universidadesEn las primeras semanas de las elecciones a Rector en la Universidad de Murcia celebradas hace unos meses, el tema de moda era la repetida frase de uno de los candidatos sobre la necesidad de situar a nuestra institución en los 500 primeros puestos del mediático Ranking de Shangai (ARWU). Fue tal la pasión que se puso en el tema que creemos se está llegando a producir un cierto efecto rebote sobre esta cuestión, comenzando a generar rechazo hacia los rankings entre los miembros de la comunidad universitaria (muchos de ellos reacios a cualquier tipo de evaluación y/o comparación de su actividad).

Suele ser habitual leer de vez en cuando la necesidad de situar a una universidad en los 500 primeros puestos del mediático Ranking de Shangai (ARWU). Es un anhelo de una parte de la comunidad universitaria y además se ha convertido en una herramienta para criticarnos por parte de algunos sectores de la sociedad (produciendo un cierto efecto rebote sobre esta cuestión y comenzando a generar rechazo hacia los rankings entre los miembros de las universidades, algunos de ellos reacios a cualquier tipo de evaluación y/o comparación de su actividad).

Lo cierto es que el citado ranking no entró bien en el mundo universitario porque vino de la mano de uno de los peores ministros que este país ha tenido (hasta hace poco vivió en un exilio dorado de embajador en París). Es por ello que suele citarse normalmente en tono despectivo y no muy bien valorado entre los universitarios, si bien ha conseguido situarse en el centro de todas las conversaciones sobre el tema y no se mencionan habitualmente a otros rankings que sí pretenden reflejar con más cercanía a nuestro mundo el estado la cuestión.

Los compañeros Teodoro Luque-Martínez, Nina Faraoni y Luis Doña-Toledo (profesores de mi segunda alma mater, la Universidad de Granada), acaban de publicar el artículo «Meta-ranking de universidades. Posicionamiento de las universidades españolas» en la Revista Española de Documentación Científica. En este trabajo los autores proponen la elaboración de un meta-ranking que recoge a las 14 universidades españolas que aparecen en al menos cuatro de los cinco rankings globales considerados de reconocida notoriedad internacional (considerando tanto datos bibliométricos como otros aspectos y otras formas de recabar datos a partir de encuestas) y en el que recogen datos de cuatro rankings más (Shangai aparte). Las universidades españolas alcanzan mejores posiciones en los primeros que en los segundos poniéndose de relieve una debilidad mayor en la internacionalización, la reputación o el ratio estudiante-profesor que en los indicadores de investigación. Representan una loable excepción las universidades que destacan en las dos dimensiones. A la vista de estas conclusiones resulta evidente la necesidad de profundizar en una mayor internacionalización, en mejorar la reputación y mejorar la visibilidad internacional de la universidad española.

Los rankings utilizados con fuente en esta investigación son:

  1. University Ranking by Academic Performance (URAP): http://www.urapcenter.org
  2. Academic Ranking of World Universities (ARWU); http://www.shanghairanking.com
  3. National Taiwan University (NTU): http://nturanking.lis.ntu.edu.tw/
  4. Times Higher Education (THE): https://www.timeshighereducation.com/world-university-rankings
  5. Quacquarelli Symonds-QS ranking (QS): http://www.topuniversities.com/university-rankings

Los tres primeros utilizan básicamente indicadores bibliométricos especialmente referidos a investigación, mientras que los otros dos (THE y QS) además de algún indicador de esta naturaleza (principalmente citas), también utilizan otros ( internacionalización, reputación, ratio estudiantes por profesor o ingresos por investigación, por ejemplo) y alguno de ellos se obtiene mediante encuestas, como los referidos a la reputación, ya sea académica o de investigación. Estos rankings están entre los más conocidos y gozan de gran notoriedad en la comunidad universitaria internacional, se publican desde hace años y sus puntuaciones son accesibles en sus páginas web. Cada uno recoge datos con matices diferentes, por ello es interesante condensarlos para llegar a generar un meta-ranking. Y una vez elaborado, aplicarlo a las universidades españolas, representándolas y consiguiendo el posicionamiento de las diferentes universidades en dicho meta-ranking.

Las universidades españolas que han sido analizadas en este estudio son las siguientes: Barcelona, Autónomas de Madrid y de Barcelona, Pompeu Fabra, Complutense, Valencia, Granada, Politécnicas de Cataluña y de Valencia, Santiago, País Vasco, Zaragoza, Sevilla y Salamanca.

En los resultados destacan dos aspectos fundamentalmente, el alto grado de correlación existente entre los rankings y que en los rankings que consideran datos de investigación principalmente, hay 7 universidades por encima de la media. La situación empeora al considerar otros indicadores basados en encuestas y no exclusivamente relacionados con investigación, puesto que solamente la Autónoma de Barcelona está por encima de la media. Dicha universidad es la única que aparece por encima de la media en las dos dimensiones. Siempre hablando en términos comparativos con el resto de las universidades analizadas para esta solución de dos dimensiones, hay que añadir que muchas universidades que tienen un buen desempeño en investigación (Valencia, Granada, Sevilla y Zaragoza), lo tienen claramente menor en la segunda dimensión analizada.

Esperemos que dentro de pocos años, si se repite este estudio o se desarrolla otro similar, haya una décimoquinta universidad en el mismo y que sea la nuestra (más que un deseo debería de ser una obligación para nosotros).