El contenido es el hecho diferencial entre un sitio web de éxito y un sitio web normal. También hemos recogido alguna vez el lema «Content is king» (que siempre había pensado que era uno de los lemas de Google y resulta que es una frase de Bill Gates). Es un hecho que necesita poca justificación, si uno accede a un portal web para recuperar información, le valdrá aquel portal que mas calidad de contenido disponga para sus usuarios, no el que menos (por muy bonito que sea el diseño de la hoja de estilo, algo que, obviamente también hay que cuidar pero que no debe ser el criterio decisivo).
En alguna ocasión hemos comentado que siempre recuerdo a mis estudiantes que el contenido es el hecho diferencial entre un sitio web de éxito y un sitio web normal. También hemos recogido alguna vez el lema «Content is king» (que siempre había pensado que era uno de los lemas de Google y resulta que es una frase de Bill Gates). Es un hecho que necesita poca justificación, si uno accede a un portal web para recuperar información, le valdrá aquel portal que mas calidad de contenido disponga para sus usuarios, no el que menos (por muy bonito que sea el diseño de la hoja de estilo, algo que, obviamente también hay que cuidar pero que no debe ser el criterio decisivo).
Hace tiempo ya que Gerry McGovern recogía esta cuestión en su blog ‘New Thinking‘, comentando el trabajo del investigador Andrew Leung (Universidad de California) en el que analizaron grandes sitios de datos con mucho contenido durante un período de tres meses. Sus conclusiones fueron las siguientes:
- A más del 90 por ciento de los archivos nunca se accede.
- De esos archivos accedidos (apenas el 10% del sitio web), el 65 por ciento solamente se abrieron una vez.
- La mayor parte del resto se abrieron cinco o menos veces.
- Alrededor de una docena de archivos se abrieron 100.000 veces o más.
El estudio también encontró que la proporción de contenido/datos recogidos en el sistema a la que se accede frente a la de nuevos contenidos/datos que se publican estaba por 2-1. En estudios previos esta relación era de 4-1 ó superior. Esto significa que la velocidad a la que estamos publicando cosas nuevas en comparación con el ritmo al que estamos accediendo a los contenidos ya publicados continúa creciendo.
Producir nuevo contenido no es malo, sino todo lo contrario, pero tiene un problema colateral importante: generar «nuevos» contenidos rápidamente provoca que los ya publicados se conviertan en «viejos» contenidos igual de rápido, y ese contenido termina de forma vertiginosa convirtiéndose en contenido inútil y pernicioso para el sitio web. Es tan cierta esta equivalencia que personalmente me llama la atención no haberla tenido presente antes. Esto puede tener explicación y sería plausible en un blog longevo e incluso en un sitio web corporativo donde una página puede tener contenidos que haya perdido actualidad, esto es posible y plausible. Pero no lo es tanto cuando se trata de un sitio web comercial, tal como indica Gerry McGovern haciendo referencia a un motor de búsqueda aplicado al comercio electrónico:
» encuentro en la búsqueda de algunos de los productos más populares de esta compañía que los resultados de la búsqueda están llenos de enlaces al archivo de prensa, unos actuales y otros fuera de fecha. Parte del contenido es engañoso e incorrecto, llegando a hablar de, por ejemplo, características de un producto que ha sido reemplazado hace mucho tiempo. La mala calidad, el bajo grado de este contenido está asfixiando la utilidad del motor de búsqueda. Me parece que esto sucede una y otra vez y otra vez. Sucede en intranets, muchos de los cuales se han convertido en vertederos de bajo contenido de calidad«.
En estos sitios web, el contenido, además de ser bueno, debe tener una vigencia, la obsolescencia del mismo se puede convertir en un arma de autodestrucción masiva.