Aarron Walter / FOTO: Embajada de EEUU.

Primero, aparecieron los sistemas de publicación en la Web y, más tarde, los expertos en conseguir que el contenido que se publica aparezca en los primeros puestos de los buscadores.

Aarron Walter (Clarinda, Iowa, EE.UU., 1974) estudió Pintura, pero su carrera le condujo, hace una década, a la red, donde se ha convertido en experto de un asunto importante con nombre enrevesado: Encontrabilidad.

Walter es autor de un libro sobre esta materia y miembro del Web Standards Project, un organismo que vela por mejorar el acceso a la World Wide Web.

Nos lo están haciendo pasar mal con tanta palabra extraña: primero la usabilidad y ahora la encontrabilidad. ¿De qué se trata?

Sí, es una de esas palabras fabricadas. La encontrabilidad tiene tres objetivos: ayudar a la audiencia a encontrar el contenido de tu web; una vez allí, ayudarles a encontrar el contenido que buscan y, por último, a redescubrirlo más tarde. En resumen, se trata de crear una mejor conexión con tu audiencia.

¿Puede un sitio web malo ser más encontrable que otro mejor?

Sí, en teoría es posible. Se pueden seguir malas prácticas, tener un contenido terrible y atraer un montón de tráfico. Pero, al final, por mucho que amplíes tu audiencia, si tú contenido es malo, la gente no se va a quedar. Tener un buen contenido es la clave de cualquier estrategia de encontrabilidad.

¿Qué papel juegan los buscadores en este asunto?

La razón por la que me gusta más la encontrabilidad que la optimización en buscadores (SEO, en sus siglas inglesas), es que aquélla aborda el asunto desde un punto de vista holístico, viendo el sistema de comunicación de la web en su conjunto. El SEO se preocupa de cómo la gente encuentra un sitio web a través de los buscadores, pero hay más formas: redes sociales, boca a boca, eventos… la encontrabilidad son muchas piezas unidas, enfocadas al marketing, a la tecnología y la diseño.

¿No cree que algunos trucos de SEO desvirtúan el algoritmo original de Google, en el que eran los internautas, y no los consultores de SEO, quienes elegían los mejores sitios web?

No sabemos exactamente cómo funciona el algoritmo de Google, porque pertenece a una compañía multimillonaria y cambia regularmente, pero la idea general es que los enlaces a un sitio web son la marca de calidad. Mucha gente encuentra valioso un recurso, lo enlaza y eso hace que suba en el ranking de resultados. Y hay quien en el principio del buscador se aprovechó de ciertos trucos para conseguir subir en los rankings. Pero los enlaces no son lo único que tiene en cuenta Google: mira la estructura de el mensaje, cómo de fácil es leerlo con máquinas y la jerarquía de la información para determinar de qué trata esa página web. Es posible que un sitio pequeño consiga un buen ranking, pero hay que construir esas relaciones. La mejor forma de tener una buena posición en los busadores es hacer algo que resuelva problemas a las personas. Es como el karma: haces algo bueno y la gente se agolpa alrededor

¿Cree que puede ayudar a la sociedad?

Muchas veces se ve el valor exclusivamente capitalista: más gente vendrá a mi web a comprar más productos y haré más dinero. Pero hay varios ejemplos de cómo puede ayudar a la humanidad, como el de una organización en Canada llamada GPHIN que busca patrones de información en aproximadamente 20.000 sitios web, en siete idiomas. ¿Recuerda la epidemia de neumonía atípica? Apareció en el sureste asiático y el buscador de GPHIN detectó ciertos patrones de síntomas en dos semanas y gracias a eso pedieron aislarlo y prevenir su expansión. Y un virus sólo necesita 10 días para convertirse en una pandemia mundial. Es decir, que la capacidad de detección y prevención es grande, pues advirtieron el problema ocho meses antes que la Organización Mundial de la Salud. Igualmente, podrían crearse sistemas que examinando ciertos patrones de información detectaran la posibilidad de un fracaso económico, antes de que se produzca una crisis.

Entonces, ¿por qué todavía no ha funcionado la web semántica que propuso Tim Berners-Lee?

Es un gran proyecto el de Tim Berners-Lee, y una gran idea. Si cogemos una palabra como rottweiler, nuestra mente lo asocia automáticamente a un perro. Pero la máquina no es capaz de hacer esa conexión sin metadatos semánticos que describan cada cosa. Para la mayoría, los sistemas de web semántica son incómodos, pues cada vez que se publica hay que poner metadatos adicionales. Hay otra iniciativa, los microformatos, que es más sencilla y que están adoptando grandes empresas como Yahoo! o Flickr.

¿Cómo están actuando los periódicos, como grandes productores de información en la red, en términos de encontrabilidad?

Es un asunto peliagudo, porque requiere un cambio mental profundo entender que tu información no debe estar en un sólo sitio, sino por toda la red, como hace ‘The Associated Press’. Pero lo que intenta hacer esta organización de cobrar hasta por los titulares no es el camino correcto, porque se van a apartar de la revolución de los medios.

Ahora, hay más iniciativas para ofrecer planes de suscripción y otros medios de cobro por la información.

Sí, y también por medio de micropagos, que es un modelo de negocio interesante. Hay partes de este reto de la propiedad intelectual que hay que resolver para averiguar cómo cobrar por lo que hacemos, porque el periodismo hace un trabajo que el mundo necesita. Necesitamos periodistas, y también blogueros que apunten a la información interesante. Hay que descubrir una relación simbiótica entre ellos que funcione. A pesar de que los blogueros y los twitteros no suelen contrastar los hechos como sí lo hacen los periodistas profesionales, aportan el valor del descubrimiento de historias a las que los periodistas y las grandes organizaciones no siempre pueden llegar.

Usted pertenece al Web Standars Project. ¿Cómo es posible que casi 20 años después de que apareciera el primer navegador, las empresas todavía no se hayan puesto de acuerdo y la red se vea distinta según el programa que se use?

Hay un par de problemas. El consorcio W3C es una gran organización y muy necesaria para establecer estándares. Pero hay una dinámica extraña entre los fabricantes y los estándares. Los fabricantes de navegadores tienen los pies en el suelo, quieren innovar y dar a los usuarios lo que pidan, para ganar a sus competidores. Y en este proceso a veces no siguen los estándares, lo cual puede ser bueno. Por ejemplo, AJAX, que es un sistema sobre el que se basa la web 2.0, no es un estándar, ni tampoco Flash, que es una herramienta muy útil y poderosa. Así que necesitamos una mejor relación entre las organizaciones de estandarización y las compañías. Por otro lado, yo estoy trabajando en el grupo de trabajo encargado de la educación, que creemos que es el medio de resolver estos problemas. Queremos que en las universidades e institutos se enseñen los estándares, en lugar de prácticas arcaicas de hace 10 años. No hay una relación fuerte entre la educación y la industria y deberíamos cambiar esto.

¿Cómo ha sido la historia de la educación sobre la web?

Muy corta. Yo estudié Pintura y encontré mi camino en la red accidentalmente. Ninguno de mis colegas tiene un título sobre la web, porque no existe, y nosotros precisamente proponemos que se cree una carrera de Ciencias de la Web. Es el logro comunicativo más importante en la historia de la humanidad, pero históricamente se ha enseñado como parte del departamento de fotografía, o con un par de clases en la escuela de periodismo. Si no se tiene una base educativa sólida perpetuaremos el ciclo que hemos tenido en los últimos 15 años.

¿Cuáles son los sitios más y menos encontrables de la red?

No si podría nombrar el mejor y el peor, pero sí sus características genéricas. El mejor sería el que no cierra su contenido, sigue los estándares web, tiene una jerarquía clara e información entretenida que resuelve los problemas de la gente y aporta valor a la comunidad, porque la cultura de la web se basa en compartir. Y el peor, el que siga prácticas como publicar vídeo y audio sin transcripciones de su contenido que puedan ser leídas por los buscadores o que no puedan ser leídos por gente con discapacidades.O aquellos que tratan la web como si fuera un soporte impreso y publican texto en una imagen, que es ilegible.

Usted ha seguido la evolución de Internet desde los noventa: ¿cómo le gustaría que fuera la red del futuro?

Me gustaría que la red fuera ubicua, que hubiera acceso global. Todavía hay muchos sitios en el planeta donde la gente no tiene acceso a los libros. Incluso en Estados Unidos hay escuelas donde no tienen acceso a libros. Y los libros existen desde hace más de 550 años. Escuché una metáfora muy hermosa, perdone que no recuerde el autor, que decía que llegaremos a la singularidad del conocimiento. Cuanto haya acceso ubicuo, seremos los ojos, las orejas, los órganos de una red singular, que será nuestro yo colectivo, para lo bueno y para lo malo.

Be Sociable, Share!
Etiquetado como:
 

La zona de comentarios ha sido cerrada.



Categorías