[b]Qué es Web 2.0. Patrones del diseño y modelos del negocio para la siguiente generación del software[/b]
Más de 9,5 millones de menciones en Google. ¿Una palabra de moda fruto del marketing? ¿La nueva sabiduría convencional? Conozca en este interesante LEER MAS >>>artículo qué es «Web 2.0» de la mano de toda una autoridad en la materia: Tim O’Reilly.
El estallido de la burbuja tecnológica en el otoño de 2001 marcó un momento crucial para la web. Mucha gente concluyó que la expectación sobre la web era exagerada, cuando de hecho las burbujas y las consiguientes crisis económicas parecen ser una característica común de todas las revoluciones tecnológicas. Las crisis económicas marcan típicamente el punto en el cual una tecnología en ascenso está lista para ocupar su lugar en el escenario económico. Se descarta a los impostores, las historias de éxito verdaderas muestran su fortaleza, y comienza a comprenderse qué separa a los unos de los otros.
El concepto de ‘Web 2.0’ comenzó con una sesión de ‘brainstorming’ realizada entre O’Reilly y MediaLive International. Dale Dougherty, pionero de la web y vicepresidente de O’Reilly, observaron que lejos de ‘estrellarse’, la web era más importante que nunca, con apasionantes nuevas aplicaciones y con sitios web apareciendo con sorprendente regularidad. Lo que es más, las compañías que habían sobrevivido al desastre parecían tener algunas cosas en común. ¿Podría ser que el derrumbamiento de las punto-com supusiera algún tipo de giro crucial para la web, de tal forma que una llamada a la acción tal como ‘Web 2.0’ pudiera tener sentido? Estuvimos de acuerdo en que lo hizo, y así nació la conferencia de la Web 2.0.
Tras año y medio, el término ‘Web 2.0’ ha arraigado claramente, con más de 9,5 millones de menciones en Google. Pero todavía existe un enorme de desacuerdo sobre qué significa Web 2.0, existiendo algunas críticas que afirman que se trata simplemente de una palabra de moda, fruto del marketing, y sin sentido, en tanto que otros la aceptan como un nuevo paradigma.
Este artículo es una tentativa de aclarar a lo que nos referimos nosotros cuando hablamos de Web 2.0.
La lista crecía y crecía. ¿Pero qué era lo que nos permitía asociar una aplicación o enfoque a ‘Web 1.0’ y otro a ‘Web 2.0’? (La pregunta es particularmente apremiante, porque el ‘meme’de la Web 2.0 ha llegado a ser tan extenso, que las compañías están usando el término como una nueva palabra de moda fruto del marketing, sin comprender realmente lo que significa. Este asunto es particularmente difícil porque muchas de esas startups adictas a las palabras de moda no son en absoluto Web 2.0, mientras que algunas de las aplicaciones que asociamos a la Web 2.0, como Napster y BitTorrent, ¡no son, en sentido estricto, ni siquiera aplicaciones web!). Comenzamos por intentar extraer los principios que se deducen de una forma u otra de las historias de éxito de la Web 1.0 y por lo más interesante de las nuevas aplicaciones.
[b]1. La Web como plataforma[/b]
Como muchos conceptos importantes, Web 2.0 no tiene una clara frontera, sino más bien, un núcleo gravitacional. Usted puede visualizar Web 2.0 como un sistema de principios y prácticas que conforman un verdadero sistema solar de sitios que muestran algunos o todos esos principios, a una distancia variable de ese núcleo.
La lista crecía y crecía. ¿Pero qué era lo que nos permitía asociar una aplicación o enfoque a ‘Web 1.0’ y otro a ‘Web 2.0’? (La pregunta es particularmente apremiante, porque el ‘meme’de la Web 2.0 ha llegado a ser tan extenso, que las compañías están usando el término como una nueva palabra de moda fruto del marketing, sin comprender realmente lo que significa. Este asunto es particularmente difícil porque muchas de esas startups adictas a las palabras de moda no son en absoluto Web 2.0, mientras que algunas de las aplicaciones que asociamos a la Web 2.0, como Napster y BitTorrent, ¡no son, en sentido estricto, ni siquiera aplicaciones web!). Comenzamos por intentar extraer los principios que se deducen de una forma u otra de las historias de éxito de la Web 1.0 y por lo más interesante de las nuevas aplicaciones.
[b]1. La Web como plataforma[/b]
Como muchos conceptos importantes, Web 2.0 no tiene una clara frontera, sino más bien, un núcleo gravitacional. Usted puede visualizar Web 2.0 como un sistema de principios y prácticas que conforman un verdadero sistema solar de sitios que muestran algunos o todos esos principios, a una distancia variable de ese núcleo.
Por ejemplo, en la primera conferencia de la Web 2.0, en octubre de 2004, John Battelle y yo enumeramos un conjunto preliminar de principios en nuestra charla de apertura. El primero de dichos principios era ‘la web como plataforma.’ Aunque esto era también un eslogan para lograr apoyos a favor del querido Netscape de la Web 1.0, que resultó derrotado tras una encendida batalla con Microsoft. Más aún, dos de nuestros ejemplos iniciales de Web 1.0, DoubleClick y Akamai, eran ambos pioneros en tratar a la web como una plataforma. La gente no piensa habitualmente en ello como ‘web services’, pero de hecho, la publicidad en sitios web fue el primer ‘web service’ ampliamente desplegado, y el primer ‘mashup'(por utilizar otro término que ha ganado adeptos recientemente) que se desplegó extensamente. Cada banner actúa como elemento que facilita la cooperación transparente entre dos websites , proporcionando una página integrada a un lector en otro ordenador. Akamai también trata la red como plataforma, y en un nivel inferior de la pila, construyendo una red transparente de copia en caché y de distribución de contenidos que alivie la congestión del ancho de banda.
No obstante, estos pioneros proporcionaron contrastes útiles porque competidores posteriores han llevado su solución del mismo problema aún más lejos, entendiendo de forma más profunda la naturaleza de la nueva plataforma. DoubleClick y Akamai fueron pioneros de la Web 2.0, sin embargo podemos también ver cómo es posible materializar más posibilidades adoptando patrones de diseño adicionales de Web 2.0.
Vamos profundizar por un momento en cada uno de estos tres casos, desentrañando algunos de los elementos diferenciadores esenciales.
Netscape frente a Google
Si Netscape era el abanderado de la Web 1.0, Google es ciertamente el abanderado de la Web 2.0, aunque sólo sea porque sus respectivas salidas a bolsa fueron acontecimientos determinantes para cada era. Vamos comenzar con una comparación de estas dos compañías y de su posicionamiento.
Netscape ideó el concepto de ‘la web como plataforma’ en términos del viejo paradigma del software: su buque insignia era el navegador web, una aplicación de escritorio, y su estrategia era utilizar su dominio en el mercado de los navegadores para crear un mercado de productos de servidor de gama alta. El control sobre los estándares para visualizar el contenido y las aplicaciones en el navegador, en teoría, dio a Netscape la clase de poder de mercado del que disfrutó Microsoft en el mercado de los PCs. Al igual que el ‘carro sin caballos’ posicionó al automóvil como extensión de lo conocido, Netscape promovió un ‘webtop’ para sustituir al escritorio (el ‘desktop’), y planeó poblar ese webtop con las actualizaciones de información y applets insertados en el webtop por los proveedores de información que comprarían los servidores de Netscape.
Sin embargo, al final, los navegadores web y los servidores web resultaron ser commodities, y el valor se desplazó hacia los servicios ofrecidos sobre la plataforma web.
Google, por el contrario, comenzó su vida como una aplicación web nativa, nunca vendida o empaquetada, sino siempre entregada como un servicio, con clientes pagando, directamente o indirectamente, por el uso de ese servicio. Ninguna de las rémoras de la vieja industria del software están presentes. No hay programación de las actualizaciones de las versiones del software, sencillamente mejora continua. Ninguna licencia o venta, sencillamente uso. Ningún tipo de portabilidad a diferentes plataformas de forma que los clientes puedan ejecutar el software en su propio equipo, sencillamente, una colección masiva de PCs escalables en los que corren sistemas operativos de software abierto junto con aplicaciones y utilidades de su propia cosecha que nunca nadie de fuera de la compañía consigue ver.
En el fondo, Google requiere una capacidad que Netscape nunca necesitó: gestión de la base de datos. Google no es sencillamente una colección de herramientas software, es una base de datos especializada. Sin los datos, las herramientas son inútiles; sin el software, los datos son inmanejables. El licenciamiento del software y el control sobre las APIs (la palanca de poder en la era anterior) es irrelevante porque el software no necesita ser distribuido sino ejecutado, y también porque sin la capacidad de recoger y de gestionar los datos, el software es de poca utilidad. De hecho, el valor del software es proporcional a la escala y al dinamismo de los datos que ayuda a gestionar .
El servicio de Google no es un servidor (aunque es ofrecido por una colección masiva de servidores de Internet) ni un navegador (aunque es experimentado por el usuario a través del navegador). Ni siquiera su servicio insignia, el de búsqueda, almacena el contenido que permite encontrar a los usuarios. Como una llamada telefónica, que no tiene lugar en los teléfonos de los extremos de la llamada sino en la red que hay entre medias, Google tiene lugar en el espacio que se encuentra entre el navegador y el motor de búsqueda y el servidor de contenido destino, como un habilitador o intermediario entre el usuario y su experiencia online.
Aunque Netscape y Google se podrían describir como compañías de software, está claro que Netscape perteneció al mismo mundo del software que Lotus, Microsoft, Oracle, SAP, y otras compañías que surgieron durante la revolución del software de los años 80, mientras que los amigos de Google son aplicaciones de Internet como eBay, Amazon, Napster, y sí, DoubleClick y Akamai.
DoubleClick frente a Overture y AdSense
Como Google, DoubleClick es un verdadero hijo de la era del Internet. Ofrece software como un servicio, tiene una competencia básica de gestión de datos, y, según lo mencionado anteriormente, era un pionero en web services mucho antes de que los web services tuvieran un nombre. Sin embargo, finalmente DoubleClick se vio limitado por su modelo de negocio. Apoyó en los años 90 el concepto de que la web trataba de publicación, no participación; que los publicistas, no los consumidores, deben ser los que deciden; que el tamaño importaba, y que Internet cada vez estaba más dominada por los sitios web situados en la cima según las estadísticas de MediaMetrix y otras compañías que valoraban los anuncios de la web.
Como consecuencia, DoubleClick cita orgulloso en su web ‘más de 2000 implementaciones exitosas’ de su software. ¡Yahoo! Search Marketing (antes Overture) y Google AdSense, por el contrario, ya dan cada uno servicio a centenares de millares de publicistas.
El éxito de Overture y de Google fue fruto de la comprensión de lo que Chris Anderson cita como ‘ the long tail ‘ (literalmente ‘la larga cola’), el poder colectivo de los sitios web pequeños que conforman la gran mayoría del contenido de la web. Las ofertas de DoubleClick requieren un contrato formal de venta, limitando su mercado a unos pocos miles de sitios web grandes. Overture y Google se las ingeniaron para permitir la colocación del anuncio prácticamente en cualquier página web. Lo que es más, evitaron los formatos de publicidad preferidos por los publicistas y las agencias de publicidad como banners y popups (ventanas emergentes), en favor de los anuncios de texto, mínimamente intrusivos, sensibles al contexto y amigables para el consumidor.
La lección de la Web 2.0: hacer uso del autoservicio del cliente y de la gestión de datos algorítmica para llegar a toda la web, a los extremos y no sólo al centro, a ‘la larga cola’ (‘the long tail ‘) y no sólo a la cabeza.
Como es de esperar, otras historias de éxito de la Web 2.0 demuestran este mismo comportamiento. eBay permite las transacciones ocasionales de tan solo algunos dólares entre simples individuos, actuando como un intermediario automatizado. Napster (aunque cerrado por razones legales) construyó su red no mediante la construcción de una base de datos centralizada de canciones, sino arquitecturando un sistema en el que cada individuo que descargaba algo también se convertía en un servidor (esto es, alguien del que otros se descargaban algo), y así creció la red.
La plataforma supera a la aplicación en todo momento
En cada una de sus últimas confrontaciones con los rivales, Microsoft ha jugado con éxito la carta de la plataforma, triunfando incluso sobre las aplicaciones más dominantes. Windows permitió que Microsoft desplazara el Lotus 1-2-3 con Excel, WordPerfect con Word, y Netscape Navigator con Internet Explorer.
Esta vez, sin embargo, el choque no es entre una plataforma y una aplicación, sino entre dos plataformas, cada una con un modelo de negocio radicalmente distinto: en un lado, un solo suministrador de software, cuya base masivamente instalada y sus firmemente integrados sistema operativo y APIs le proporcionan el control sobre el paradigma de programación; en el otro, un sistema sin un dueño, agrupado mediante una serie de protocolos, estándares abiertos y acuerdos de cooperación.
Windows representa la cumbre del control propietario mediante el software basado en APIs. Netscape intentó arrebatar el control a Microsoft usando las mismas técnicas que el propio Microsoft había utilizado contra otros rivales, y falló. Pero Apache, que se aferró a los estándares abiertos de la web, ha prosperado. La batalla ya no es desigual, una plataforma contra una sola aplicación, sino plataforma frente a plataforma, siendo más bien la pregunta qué plataforma, y más profundamente, qué arquitectura, y qué modelo de negocio, se ajustan más a la oportunidad que se presenta por delante.
Windows era una solución brillante a los problemas de la era inicial del PC. Igualó las condiciones para todos los desarrolladores de aplicaciones, solucionando una multitud de problemas que previamente habían asediado a la industria. Pero una sola aproximación monolítica, controlada por un solo proveedor, ya no es una solución, es un problema. Los sistemas orientados hacia las comunicaciones, algo que ciertamente es Internet como plataforma, requieren interoperabilidad. A menos que un proveedor pueda controlar ambos extremos de cada interacción, las posibilidades de conseguir usuarios cautivos mediante el software basado en APIs son limitadas.
Cualquier proveedor de la Web 2.0 que intente asegurar los beneficios de su aplicación mediante el control de la plataforma, por definición, no estará contribuyendo al fortalecimiento de la plataforma.
Esto no quiere decir que no haya oportunidades para asegurar beneficios y conseguir una ventaja competitiva, pero creemos que no se deben obtener mediante el control sobre el software basado en APIs y los protocolos. Hay un nuevo juego en marcha. Las compañías que tendrán éxito en la era de la Web 2.0 serán las que entiendan las reglas de ese juego, en vez de intentar volver a las reglas de la era del software de PC.
Akamai frente a BitTorrent
Como DoubleClick, Akamai está optimizado para hacer negocios con la cabeza, no con la cola, con el centro, no con los extremos. Mientras que sirve a las necesidades de los individuos en el extremo de la web facilitando su acceso a los sitios web de mucha demanda en el centro, obtiene sus ganancias de esos sitios centrales.
BitTorrent, como otros pioneros en el movimiento del P2P, adopta el enfoque radical de la descentralización del Internet. Cada cliente es también un servidor; los archivos están subdivididos en fragmentos que se pueden servir desde múltiples localizaciones, aprovechando de forma transparente la red de los individuos que se están descargando archivos para proporcionar tanto ancho de banda como datos a otros usuarios. De hecho, cuanto más popular es el archivo, más rápidamente se descarga, puesto que hay más usuarios que proporcionan ancho de banda y fragmentos del archivo completo.
BitTorrent demuestra así un principio dominante de la Web 2.0: el servicio mejora automáticamente cuanta más gente lo use . Mientras que Akamai debe agregar servidores para mejorar el servicio, cada consumidor de BitTorrent aporta sus propios recursos al grupo. Hay una ‘arquitectura implícita de participación’, una ética de cooperación inherente, en la que el servicio actúa sobre todo como intermediario inteligente, conectando los extremos entre sí y aprovechando las posibilidades que ofrecen los propios usuarios.
2. Aprovechando la inteligencia colectiva
El principio fundamental que se esconde detrás del éxito de los gigantes nacidos en la era de la Web 1.0 que han sobrevivido para liderar la era de la Web 2.0 parece ser éste, que han abrazado el poder de la web para explotar inteligencia colectiva:
Los hipervínculos constituyen los cimientos de la web. A medida que los usuarios agregan nuevo contenido, y sitios web nuevos, se enlazan con la estructura de la web gracias a otros usuarios que descubren el contenido y enlazan con él. De forma muy parecida a la sinapsis del cerebro, donde las asociaciones llegan a ser más fuertes a través de la repetición o la intensidad, la red de conexiones crece orgánicamente como resultado de la actividad colectiva de todos los usuarios de la web.
Yahoo!, la primera gran historia del éxito de Internet, nació como un catálogo, o un directorio de enlaces (links), un agregado del mejor trabajo de millares, después millones de usuarios de la web. A pesar de que Yahoo! ha avanzado hacia el negocio de crear muchos tipos de contenido, su papel como portal del trabajo colectivo de los usuarios de la red sigue siendo la base de su valor.
La innovación de Google en la búsqueda, que rápidamente le convirtió en el indiscutible líder del mercado de la búsqueda, fue PageRank, un método para usar la propia estructura de enlaces de la web para proporcionar mejores resultados de búsqueda, en lugar de usar sólo las características de los documentos.
El producto de eBay es la actividad colectiva de todos sus usuarios; como la web en sí misma, eBay crece orgánicamente en respuesta a la actividad del usuario, y el papel de la compañía es el de habilitador de un contexto en el cual pueda tener lugar esa actividad del usuario. Lo que es más, la ventaja competitiva de eBay proviene casi enteramente de la masa crítica de compradores y de vendedores, que convierte a cualquier nuevo competidor que ofrezca servicios similares significativamente menos atractivo.
Amazon vende los mismos productos que competidores tales como Barnesandnoble.com, y reciben las mismas descripciones del producto, imágenes de la cubierta y contenido editorial de sus proveedores. Pero Amazon ha creado una ciencia de la gestión del usuario. Tienen un orden de magnitud más que sus competidores de reseñas de los usuarios, tienen invitaciones para participar de diversas maneras en prácticamente todas las páginas, y más importantemente aún, utilizan actividad del usuario para producir mejores resultados de búsqueda. Mientras que una búsqueda en Barnesandnoble.com es probable que conduzca a los propios productos de la compañía, o a los resultados patrocinados, Amazon conduce siempre ‘al más popular’, mediante un cómputo en tiempo real basado no solamente en las ventas sino también en otros factores que los miembros de Amazon llaman el ‘flujo’ inducido alrededor de los productos. Con una participación del usuario un orden de magnitud mayor, no es ninguna sorpresa que las ventas de Amazon también aventajen a las de sus competidores.
En la actualidad, las compañías innovadoras que adoptan esta idea y quizás incluso la extienden más allá, están dejando su marca en la web:
Wikipedia, una enciclopedia en línea basada en la inverosímil idea de que una entrada puede ser agregada por cualquier usuario de la web, y corregida por cualquier otro, es un experimento radical de confianza, aplicando la máxima de Eric Raymond (acuñado originalmente en el contexto del software abierto) de que ‘con ojos suficientes, todos los fallos son superficiales’ para la generación de contenido. Wikipedia está ya entre las 100 webs más visitadas, y muchos piensan que llegará a estar entre las 10 de la cima en poco tiempo. ¡Esto sí que es un cambio profundo en la dinámica de la creación de contenidos!
Sitios como del.icio.us y Flickr, dos compañías que han recibido mucha atención últimamente, han promovido un concepto que alguna gente llama ‘folksonomy'(1) (en contraste con la taxonomía), un estilo de clasificación colaborativa de sitios usando palabras claves libremente elegidas, a menudo denominadas etiquetas (tags). El marcado con etiquetas permite la clase de asociaciones múltiples, y solapadas que el propio cerebro humano utiliza, en lugar de categorías rígidas. En el ejemplo canónico, una foto de Flickr de un cachorro puede ser marcada con la etiqueta tanto ‘cachorro’ como ‘lindo’ -permitiendo la recuperación siguiendo los mismos ejes naturales generados por la actividad del usuario.
Los productos de filtrado cooperativo de spam como Cloudmark agregan las decisiones individuales de los usuarios del correo electrónico sobre qué es y qué no es spam, funcionando mejor que los sistemas que confían en el análisis de los propios mensajes.
Es una perogrullada que las mejores historias de éxito de Internet no anuncian sus productos. Su adopción es impulsada por el ‘marketing viral’, es decir, recomendaciones propagándose directamente de un usuario a otro. Usted puede casi asegurar que si un sitio o un producto confían en la publicidad para conseguir el impulso necesario, no es Web 2.0.
Incluso gran parte de la infraestructura de la web (incluyendo Linux, Apache, MySQL, y Perl, PHP, o el código de Python incluido en la mayoría de los servidores web) confía en los métodos de producción entre pares (‘peer-production’) del software abierto, en sí mismo un ejemplo de inteligencia colectiva y habilitadora por la red. Hay más de 100.000 proyectos de software abierto listados en SourceForge.net. Cualquier persona puede agregar un proyecto, cualquier persona puede descargarse y utilizar el código, y los nuevos proyectos emigran de los extremos al centro como resultado de ser puestos en funcionamiento por los usuarios, un proceso orgánico de adopción del software que se basa casi enteramente en el marketing viral.
La lección: Las externalidades de red derivadas de las contribuciones del usuario son la clave para el dominio del mercado en la era de la Web 2.0.
Blogging y la sabiduría de las masas
Una de las características más altamente pregonadas de la era de la Web 2.0 es el auge del blogging. Las páginas personales han existido desde los comienzos de la web, y los diarios y las columnas diarias de opinión personal existen desde hace aún más tiempo, entonces ¿por qué tanto alboroto?
En su aspecto más básico, un blog es sencillamente una home page personal en formato de diario. Pero tal y como apunta Rich Skrenta, la organización cronológica de un blog ‘parece una diferencia trivial, pero conduce a una cadena de reparto, de publicidad y de valor completamente distinta’.
Una de las cosas que ha marcado la diferencia es una tecnología llamada RSS. RSS es el avance más significativo de la arquitectura básica de la web desde que los primeros hackers se dieron cuenta de que el CGI se podía utilizar para crear sitios web basados en bases de datos. RSS permite que alguien no sólo enlace con una página, sino suscribirse a la misma, con notificaciones cada vez que la página cambia. Skrenta denomina a esto ‘la web incremental.’ Otros lo llaman la ‘web viva’.
Ahora bien, por supuesto, los ‘sitios web dinámicos’ (es decir, los sitios web basados en bases de datos con el contenido dinámicamente generado) sustituyeron a las páginas estáticas de la web hace más de diez años. Lo que es dinámico en la web viva no son sólo las páginas, sino los enlaces. Se espera que un enlace a un weblog señale a una página que cambia perennemente, con los enlaces permanentes (‘permalinks’) para cualquier entrada individual, y con notificación de cada cambio. Una fuente RSS es, de esta manera, un enlace mucho más fuerte que, digamos un bookmark o un enlace a una página concreta.
RSS también significa que el navegador web no es el único medio para ver una página web. Mientras que agregadores de RSS, tales como Bloglines, son aplicaciones web, otros son clientes de escritorio, e incluso otros permiten que los usuarios de dispositivos portátiles se suscriban al contenido permanentemente actualizado.
La arquitectura de la participación
Algunos sistemas se diseñan para animar a la participación. En su artículo,’The Cornucopia of the Commons’, Dan Bricklin señala que hay tres maneras de construir una base de datos grande. La primera, demostrado por Yahoo!, es pagar a gente para que lo haga. La segunda, inspirada en lecciones provenientes de la comunidad del software abierto, es conseguir a voluntarios para realizar esa misma tarea. El proyecto Open Directory Project, un competidor de software abierto de Yahoo!, es el resultado. Pero Napster demostró una tercera manera.
Puesto que Napster se ideó para servir automáticamente cualquier música que fuera descargada, cada usuario ayudó automáticamente a construir el valor de la base de datos compartida. Esta misma aproximación ha sido seguida por el resto de servicios P2P de compartición de archivos. Una de las lecciones clave de la era de la Web 2.0 es ésta: Los usuarios añaden valor. Pero solamente un porcentaje pequeño de usuarios se tomará la molestia de añadir valor a su aplicación mediante el uso de medios explícitos. Por lo tanto, las compañías Web 2.0 usan métodos incluyentes con el fin de agregar datos del usuario y generan valor como efecto colateral del uso ordinario de la aplicación.
Según lo observado arriba, construyen sistemas que mejoran cuanta más gente lo utiliza. Mitch Kapor una vez señaló que la ‘arquitectura es política’. La participación es intrínseca a Napster, es parte de su arquitectura básica. Esta perspectiva arquitectural puede también ser más relevante para al éxito del software abierto que el frecuentemente citado llamamiento al voluntariado.
La arquitectura de Internet, y de la World Wide Web, así como los proyectos de software abierto como Linux, Apache, y Perl, es tal que los usuarios que persiguen sus propios intereses ‘egoístas’ generan valor colectivo como subproducto automático. Cada uno de estos proyectos tiene un núcleo pequeño, mecanismos de extensión bien definidos, y una aproximación que permite que cualquier persona agregue cualquier componente que demuestre un buen comportamiento, haciendo crecer las capas externas de lo que Larry Wall, el creador del Perl, denomina ‘la cebolla’ (‘the onion’). En otras palabras, estas tecnologías presentan externalidades de red, simplemente por la manera en que se han diseñado.
Se puede considerar que estos proyectos tienen una arquitectura natural de participación. Pero como Amazon demuestra, mediante el esfuerzo constante (así como por incentivos económicos tales como el Programa de Asociados), es posible superponer dicha arquitectura a un sistema que no parecería poseerla en sí mismo.
RSS ahora se está utilizando no sólo para enviar avisos de nuevas entradas de un blog, sino también para todo tipo de actualizaciones de datos, incluyendo las cotizaciones en bolsa, información metereológica, y la disponibilidad de fotos. Este uso es realmente un retorno a una de sus raíces: RSS nació en 1997 de la confluencia de la tecnología ‘Really Simple Syndication’ de Dave Winer, utilizada para informar de actualizaciones de blog, y de ‘Rich Site Summary’ de Netscape, que permitió que los usuarios crearan home pages personalizadas en la web de Netscape con flujos de datos actualizados regularmente. Netscape perdió interés, y la tecnología fue continuada por el pionero del blogging Userland, de la compañía de Winer. En el grupo de aplicaciones actuales, podemos apreciar, no obstante, la herencia de ambos padres.
Pero RSS es solamente parte de lo que hace a un weblog diferente de una página web ordinaria. Tom Coates comenta en el significado del enlace permanente (el ‘permalink’ ):
Ahora puede parecer una funcionalidad trivial, pero fue el esquema que en verdad permitió a los weblogs pasar de ser simplemente un fenómeno basado en la facilidad para publicar en un caos informal de comunidades solapadas. Por primera vez resultó relativamente fácil discutir directamente acerca de una nota sumamente concreta del sitio web de otra persona y hablar sobre ello. La discusión afloró. El chat afloró. Y, consecuentemente, las amistades surgieron o se estrecharon. El permalink era el primer, y el más acertado, intento de construir puentes entre weblogs.
En gran medida, la combinación de RSS y de permalinks añade muchas de las características de NNTP, el entrañable Network News Protocol del servicio de noticias (‘news’) de Usenet, al HTTP, el protocolo de la web. Se puede pensar en la ‘blogoesfera’ (‘blogosphere’) como en un equivalente nuevo, de igual a igual a Usenet y los boletines de noticias, los oasis de charla informal del antiguo Internet. La gente puede no sólo suscribirse a sitos web de otras personas, y enlazar fácilmente con los comentarios en cuestión de una página, sino que también, a través de un mecanismo conocido como trackbacks, puede ver cuando alguien enlaza con sus páginas, y puede responder, o con enlaces recíprocos, o agregando comentarios.
Curiosamente, los enlaces bidireccionales eran la meta de los primeros sistemas de hypertexto como Xanadu. Los puristas del hypertexto han festejado trackbacks por considerarlo el avance hacia los enlaces bidireccionales. Pero obsérvese que los trackbacks no son verdaderamente bidireccionales, sino que, realmente son enlaces unidireccionales simétricos que crean el efecto de los enlaces bidireccionales. La diferencia puede parecer sutil, pero en la práctica es enorme. Los sistemas de redes sociales como Friendster, Orkut, y LinkedIn, que requieren el reconocimiento por parte del receptor para establecer una conexión, carecen de la misma escalabilidad, al igual que la web. Según lo observado por Caterina Fake, la co-fundadora del servicio de compartición de fotos Flickr, la atención es solo fortuitamente recíproca. (De este modo Flickr permite que los usuarios creen listas de seguimiento, cualquier usuario puede suscribirse al flujo de fotografías de cualquier otro usuario a través de RSS. Se notifica el objeto en el que se fija la atención, pero no se tiene que aprobar la conexión.)
Si una parte esencial de la Web 2.0 es el aprovechamiento de la inteligencia colectiva, convirtiendo a la web en una especie de cerebro global, la blogoesfera es el equivalente de la constante charla mental en el cerebro anterior, la voz que oímos en todas nuestras cabezas. Puede no reflejar la estructura profunda del cerebro, que es a menudo inconsciente, pero es, en cambio, el equivalente del pensamiento consciente. Y como reflejo del pensamiento consciente y de la atención, la blogoesfera ha comenzado a tener un efecto cada vez más pujante.
En primer lugar, puesto que los motores de búsqueda hacen uso de la estructura de enlaces para ayudar a predecir las páginas que son útiles, los bloggers , como los enlazadores más prolíficos y puntuales, tienen un papel desproporcionado en la configuración de los resultados del motor de búsqueda. En segundo lugar, puesto que la comunidad de los blogs se autoreferencia tanto, los bloggers que prestan la atención a otros bloggers magnifican su visibilidad y poder. Las críticas actúan también como amplificador.
Si fuera simplemente un amplificador, el blogging no tendría mayor interés. Pero al igual que Wikipedia, el blogging explota la inteligencia colectiva como una especie de filtro. Entra en juego lo que James Suriowecki denomina’la sabiduría de las masas’. Y al igual que el PageRank produce resultados mejores que el análisis de cualquier documento concreto, la atención colectiva de la blogoesfera selecciona por valor.
Mientras que los medios de comunicación de masas pueden considerar algunos blogs concretos como competidores, lo realmente inquietante es que la competición es con la blogoesfera en su totalidad. Esto no es sencillamente una competición entre sitios web, sino una competición entre modelos del negocio. El mundo de la Web 2.0 es también el mundo de lo que Dan Gillmor llama ‘we, the media’ (‘nosotros, los medios de comunicación’) un mundo en el cual lo que antes era simplemente la audiencia ahora decide qué es importante, y no un pequeño grupo de personas desde un cuarto trastero
[b]Fuente[/b]: http://bit.ly/VXRwF