La nueva ley orgánica de universidades española (LOSU), dentro del artículo 12 dedicado al fomento de la Ciencia Abierta y Ciencia Ciudadana menciona los principios FAIR (acrónimo de ‘Findability, Accessibility, Interoperability, and Reusability‘)
Estos principios resultan esenciales en un mundo en el que la cantidad de datos científicos se duplica cada pocos años. Con tanto conjunto de datos disponibles, es cada vez más necesario encontrar maneras de hacer que sean útiles y accesibles para los investigadores de todo el mundo. Los principios FAIR proporcionan una guía para hacer precisamente eso. La idea la presentaron Wilkinson et al. en el artículo ‘The FAIR Guiding Principles for scientific data management and stewardship‘ publicado en la revista Scientific Data del grupo Nature
El primer principio, «encontrable«, significa que los datos científicos han de publicarse de manera que sean fácilmente identificables y localizables por cualquier persona que esté buscando información. Esto se logra mediante la asignación de identificadores únicos y permanentes a los datos, la utilización de metadatos descriptivos y la inclusión de información sobre el contexto en el que se recopilaron los datos.
El segundo principio, «accesible«, se refiere a la necesidad de hacer que el acceso a esos conjuntos de datos sea fácil para cualquier persona, en cualquier momento y lugar. Para ello, es muy importante eliminar todo tipo de barreras técnicas, legales y financieras que puedan impedir el acceso a los datos. Todo ello sin olvidar que estos conjuntos de datos deben ser accesibles en un formato legible para las personas y las máquinas.
El tercer principio, «interoperable«, se refiere a la necesidad de que los datos sean compatibles con los sistemas y herramientas utilizados por los investigadores. Esto será posible mediante el uso de de estándares y formatos comunes, que permiten que los datos sean intercambiados y combinados fácilmente.
El cuarto principio, y no por ello menos importante, «reutilizable» significa que los datos deben ser capaces de ser reutilizados por cualquier persona con cualquier propósito, siempre y cuando se respeten los derechos de autor y otros aspectos legales. Para ello, los datos deben ser claros y comprensibles, y deben estar disponibles en un formato que sea fácil de utilizar y manipular.
En definitiva, los principios FAIR permiten que los datos científicos sean más útiles y eficaces, lo que a su vez puede acelerar el avance de la investigación y ayudar a abordar problemas globales urgentes. Su uso masivo va a ayudar, sin duda alguna, a mejorar la calidad y la eficiencia de la investigación, y a fomentar la colaboración y el intercambio de conocimientos en todo el mundo. Esto último es trascendental, depositar para compartir conjuntos de datos es uno de los pilares de la Ciencia Abierta
De largo existe un amplio debate sobre la necesidad de mejorar la forma en que las agencias de financiación, las instituciones académicas y otros grupos de interés evalúan la investigación científica. Para abordar este tema, en diciembre del año 2012, un grupo de editores de revistas científicas se reunió en San Francisco aprovechando el encuentro anual de la American Society for Cell Biology (ASCB). Este grupo desarrolló una serie de recomendaciones, conocidas como la Declaración de San Francisco sobre la Evaluación de la Investigación, invitando a los grupos de investigación interesados de todas las disciplinas científicas a mostrar su apoyo añadiendo su nombre a esta declaración.
Como todos sabemos, los productos de la investigación científica son muchos y variados, e incluyen: artículos científicos que informan de los avances de la ciencia y de la generación de nuevos conocimientos, datos, reactivos y software; propiedad intelectual y también sirven para conocer el trabajo de jóvenes científicos capacitados. Las agencias financiadoras, las instituciones que emplean a los científicos y ellos mismos, tienen la necesidad de evaluar la calidad y el impacto de los resultados de sus investigaciones. Y siempre ha existido una discusión permanente sobre si el método tradicional de evaluación (basado fundamentalmente en el factor de impacto de la revista científica donde se publica nuestros trabajo) representa de verdad la calidad del mismo. En estos momentos ya es imperativo que la producción científica se mida con precisión y prudencia.
Entrada al Instituto de Información de Filadelfia
El factor de impacto se utiliza con frecuencia como parámetro principal con el que comparar la producción científica de individuos e instituciones. Este factor fue calculado, en un principio por Eugene Gardfield en el Instituto de Información de Filadelfia, luego Thomson Reuters y ahora por Clarivate Analytics, se creó originalmente como una herramienta para ayudar a los bibliotecarios a identificar las mejores revistas para completar las colecciones de sus instituciones, no como indicador de la calidad científica de un artículo. Teniendo esto en cuenta, es fundamental comprender que el factor de impacto tiene una serie de deficiencias bien documentadas como herramienta para la evaluación de la investigación.
Las propiedades del factor de impacto son específicas de cada campo: es un compuesto de múltiples tipos de artículos altamente diversos, incluyendo trabajos de investigación primaria y revisiones (Vanclay, (2012).
los datos utilizados para calcular el factor de impacto no son transparentes ni están abiertamente disponibles para el público [4, 6, 7]. (Vanclay, (2012), (Rossner et al., 2007) y (2008).
Recomendaciones
El grupo de trabajo reunido en San Francisco elaboró un conjunto de recomendaciones para mejorar la forma en la que se evalúa la calidad de la producción científica. Los productos que no sean artículos científicos crecerán en importancia a la hora de evaluar la eficacia de la investigación en el futuro, pero el documento por excelencia de la comunicación de los avances en la investigación revisado por pares seguirá siendo primordial para la evaluación de la investigación. Por lo tanto, estas recomendaciones se centran en las prácticas relacionadas con los artículos científicos publicados en revistas revisadas por pares, pero se puede y se debe ampliar su alcance recogiendo elementos adicionales, como los conjuntos de datos, ya que son productos de investigación importantes. Las recomendaciones se dirigen a las agencias financiadoras, instituciones académicas, revistas, organizaciones que proporcionan métricas e investigadores individuales y cubren:
La necesidad de evaluar la investigación por sus propios méritos (del autor o autores) en lugar de basarse en la revista en la que se publica la investigación, y …
… la necesidad de capitalizar las oportunidades que ofrece la publicación en línea (como flexibilizar los límites innecesarios en el número de palabras, figuras y referencias en los artículos, y explorar nuevos indicadores de importancia e impacto).
Hay que reconocer que bastante agencias financiadoras, instituciones, editores e investigadores ya están fomentando mejores prácticas en la evaluación de la investigación. Dichos pasos están comenzando a aumentar el impulso hacia enfoques más sofisticados y significativos para la evaluación de la investigación que ahora pueden ser desarrollados y adoptados por todas las partes clave involucradas.
No utilice métricas basadas en revistas, como el factor de impacto, como una medida sustituta de la calidad de los artículos de investigación individuales, para evaluar las contribuciones de un científico individual, o en las decisiones de contratación, promoción o financiación.
Para las agencias de financiación
Sea explícito sobre los criterios utilizados para evaluar la productividad científica de los solicitantes de fondos de investigación, especialmente para los investigadores que están iniciando su carrera investigadora, que el contenido científico de un artículo es mucho más importante que las métricas de publicación o la identidad de la revista en la que fue publicado.
Con el fin de evaluar la investigación, considere el valor y el impacto de todos los resultados de la investigación (incluidos los conjuntos de datos y el software) además de las publicaciones de investigación, y considere una amplia gama de medidas de impacto que incluyan indicadores cualitativos, como la influencia sobre la política y prácticas científicas.
Para las instituciones
Sea explícito sobre los criterios utilizados para realizar decisiones de contratación, permanencia y promoción, destacando, especialmente para los investigadores que están iniciando su carrera investigadora, que el contenido científico de un trabajo es mucho más importante que las métricas de publicación o la identidad de la revista en la que fue publicado.
Con el fin de evaluar la investigación, se debe considerar el valor y el impacto de todos resultados de la investigación (incluidos los conjuntos de datos y el software) además de las publicaciones de investigación, y considere una amplia gama de medidas de impacto, incluidos los indicadores cualitativos del impacto de la investigación, como la influencia sobre la política y prácticas científicas (el mismo consejo que se le ha dato a las agencias).
Para las editoriales
Reducir profundamente el énfasis en el factor de impacto como herramienta promocional, idealmente dejando de promover su uso o presentando la métrica en el contexto de una variedad de métricas basadas en revistas (por ejemplo, factor de impacto de 5 años, EigenFactor, SCImago, el índice h, tiempo editorial y de publicación, etc.) que proporcionan una visión más amplia del rendimiento de la revista.
Poner a disposición una variedad de métricas a nivel de artículo para alentar un cambio hacia la evaluación basada en el contenido científico de un artículo en lugar de las métricas de publicación de la revista en la que se publicó.
Fomentar las prácticas de la autoría responsable y la provisión de información sobre las contribuciones específicas de cada autor.
Independientemente de que una revista sea de acceso abierto o basada en suscripciones, se deben eliminar todas las limitaciones de reutilización de las listas de referencias en los artículos de investigación y procurar que estén disponibles bajo la dedicación de dominio público de Creative Commons.
Eliminar o reducir las restricciones al número de referencias en los artículos de investigación y, cuando corresponda, ordene la citación de la literatura primaria a favor de las revisiones para dar crédito al grupo o los grupos que primero informaron de un hallazgo.
Para las organizaciones que proporcionan métricas
Ser abiertos y transparentes al proporcionar datos y métodos utilizados para calcular las métricas.
Especificar que no se tolerará la manipulación inapropiada de las métricas; sea explícito sobre lo que constituye una manipulación inapropiada y qué medidas se tomarán para combatirla.
Tener en cuenta la variación en los tipos de artículos (por ejemplo, revisiones frente a artículos de investigación) y en las diferentes áreas temáticas al utilizar, agregar o comparar métricas.
Para los investigadores
Cuando se participe en comités que toman decisiones sobre financiación, contratación, permanencia o promoción, se deben realizar evaluaciones basadas en el contenido científico en lugar de en métricas de publicación.
Cuando sea apropiado, se debe citar literatura primaria en que las observaciones son referidas primero, en lugar de revisiones para dar crédito donde debe darse.
Utilizar una gama de métricas e indicadores basadas en declaraciones personales y de apoyo, como evidencia del impacto de artículos individuales publicados y otros resultados de investigación.
Impugnar las prácticas de evaluación que dependan indebidamente del factor de impacto y promover y transmitir prácticas que se centren en el valor y la influencia de los resultados de investigación específicos.
OCSDNet llevó a cabo, en 2017, una consulta participativa con científicos, profesionales del desarrollo y activistas de 26 países de América Latina, África, Oriente Medio y Asia para comprender cuáles eran para ellos son los valores fundamentales de la ciencia abierta. El resultado de esta consulta fue que no existe una forma correcta de hacer ciencia abierta, que se requiere una negociación y una reflexión constante, y el proceso siempre será diferente según el contexto. Pero también se pudo encontrar un conjunto de siete valores y principios en el centro de su visión de una ciencia abierta y más inclusiva que se recoge en este video subtitulado en español:
De esta forma, se establecieron los siguientes SIETE principios de la ciencia abierta y colaborativa.
Permite un conocimiento común en el que cada individuo decide cómo se gobierna y gestiona su conocimiento para abordar sus necesidades (si tiene los medios para ello).
Reconoce la justicia cognitiva, la necesidad de diversas comprensiones de la toma de conocimiento para coexistir en la producción científica.
Practica la apertura situada al abordar las formas en que el contexto, el poder y la desigualdad condicionan la investigación científica.
Defiende el derecho de cada individuo a la investigación y permite diferentes formas de participación en todas las etapas del proceso de investigación.
Fomenta la colaboración equitativa entre científicos y actores sociales y cultiva la cocreación y la innovación social en la sociedad.
Incentiva las infraestructuras inclusivas que empoderan a las personas con todas las capacidades para crear y utilizar tecnologías accesibles de código abierto.
Y finalmente, la ciencia abierta y colaborativa se esfuerza por utilizar el conocimiento como un camino hacia el desarrollo sostenible, equipando a cada individuo para mejorar el bienestar de nuestra sociedad y el planeta.