La première partie de cette chronique a présenté les composants du Web 2.0 et la première des trois catégories d’applications Web 2.0 qui couvrent la productivité personnelle. Cette partie présente les deux dernières catégories.
Deuxième catégorie d’applications Web 2.0 : la constitution de réseaux d’intérêt
Véritable creuset d’intelligence collective, ces applications reposent sur quatre principes :
-# Abolition des limites :
Le Web permet de s’affranchir des limites physiques : c’est le cas des stocks pour les sites marchands, c’est le cas des tags pour classifier de l’information dans les bibliothèques… Il faut donc saisir cette opportunité et abandonner les vieux réflexes (à l’opposé de vendeurs tels qu’IKEA, qui propose moins d’articles sur son site que dans ses magasins physiques). C’est en exploitant cette liberté que l’on colle au mieux aux attentes des utilisateurs. Le célèbre article The Long Tail (voir la traduction française) explique comment Amazon réalise près de 60 % de son chiffre d’affaire sur des titres présents chez aucuns des disquaires majeurs du monde physique.
-# Principe d’élévation :
Dans un réseau d’intérêt, plus un élément est pointé, plus il est mis en avant. C’est notamment ce qui permet de faire surgir des informations de l’infinité des possibilités. Ainsi les tags les plus fréquemment « collés » sont mis en avant dans les nuages de tags et apparaissent de plus en plus gros et de plus en plus gras. De la même manière, plus un visiteur contribue, plus il est valorisé par des mises en avant (top seller sur eBay, top reviewer sur Amazon ..) et/ou plus il a accès à de nouvelles fonctionnalités.
-# Micro-contribution et auto-régulation :
Dans un réseau d’intérêt, il faut prendre conscience que des capacités individuelles sont agrégées pour créer une capacité collective. Il est important que l’ensemble des participants adhère à une véritable culture de partage et de confiance a priori, la culture Web 2.0 ? Ceci suppose que l’on laisse aussi libre que possible la publication d’informations sans validation, qu’on permet aux membres du groupe de juger leurs pairs et que l’on agira de manière directive qu’en dernier recours.
-# Utilisation de mécanisme de ciblage apprenant :
Le principe est que plus un utilisateur utilise un service, plus ce dernier va apprendre de lui et va lui suggérer des informations, des produits ou services pertinents. En clair, c’est le retour du Marketing One to One, des moteurs de recommandations, de la personnalisation implicite… Seul le vocabulaire change pour éviter de rappeler les mauvais souvenirs de notre bulle à nous (1998-2000).
Parmi les applications emblématiques de cette catégorie, on retrouve :
- les Wiki de capitalisation : du planétaire (Wikipedia) au simple Wiki d’entreprises de partage de connaissances
- les outils de Bookmarking social : des outils de partage de bookmark en réseau type del.ici.ous, blogmarks.net au simple outil de remontées d’informations « Digg-like » : Digg, Scoopeo…
- les réseaux sociaux spécialisés et leur association de plus en plus fréquente aux mécanismes de ciblage, par exemple last.fm ou Pandora dans le domaine musical, ou LinkedIn dans le domaine professionnel…
- les services de « crowdsourcing » : Comme le définit Wikipedia, le crowdsourcing consiste à utiliser la créativité, l’intelligence et le savoir-faire d’un grand nombre d’internautes, et ce, au moindre coût. Un cadre d’utilisation est de permettre aux futurs utilisateurs de participer à la conception d’un service ou d’un produit. Au-delà de la pertinence espérée des spécifications fonctionnelles, on espère que l’utilisateur adhèrera au service et en sera un de ses meilleurs ambassadeurs. Le concept d’invitations, les sorties en version Beta, la possibilité de proposer des évolutions, etc., sont autant de manières de transporter ces phases de conception du laboratoire à la vie réelle. D’autres applications vont tenter d’utiliser la main d’œuvre gratuite des internautes : par exemple, avec Image Labeller, Google nous propose un jeu permettant de définir des mots pour une série d’images tirée au hasard. En 90 secondes, Google vous met en lien avec un partenaire anonyme et les deux personnes doivent trouver un mot commun définissant l’image (extrait Wikipedia).
Troisième catégorie d’applications Web 2.0 : Les plateformes applicatives
Le Web est arrivé à maturité en tant que socle des applications à destination du grand public mais également des entreprises. On retrouve dans le grand bazar du Web 2.0 de véritables plateformes applicatives clé en main. De nombreux besoins génériques sont couverts par des services en ligne : solution groupware complète (Google Apps for Your Domain…), solution de collaboration (ning.com, Yahoo ! Groups…) , suivi de projets (BaseCamp…), solution de gestion des temps…
Ce qui caractérise ces plateformes, c’est leur rapidité de mise en œuvre et leur coût d’utilisation très attractive. Dans le domaine associatif ou personnel, elles sont de vraies opportunités. Leur utilisation dans un contexte professionnel pose en revanche certaines questions avant de faire le pas : Quid de la confidentialité de mes données ? Y a-t-il un risque que mes données soient conservées en dehors de mon système d’information en terme de perte de données ? Comment puis-je garantir la qualité de service à mes utilisateurs ? L’intégration avec le système d’information est-elle viable ?
Dans tous les cas, le principal risque pour les DSI est de rien faire. Si une DSI ne communique pas de manière claire et met en œuvre des solutions efficaces pour répondre aux besoins légitimes des utilisateurs, les utilisateurs les plus avertis auront vite fait d’employer ces services en contournant la DSI. Demain, quand il s’agira de consolider ces contenus et services, on se souviendra du « syndrome Access ».
Enfin, comme nous l’avons évoqué dans le chapitre « Standards et API ouverte » de la première partie de cette chronique, le Web 2.0 popularise un nouveau modèle d’architecture d’intégration : les Mashups. Une application composite (ou Mashup) est un site Web qui combine du contenu/service provenant de plusieurs sites Web. Le principe d’un mashup est donc d’agréger des contenus/services provenant d’autres sites, afin de créer un site nouveau. Pour ce faire, on utilise le plus souvent l’objet XMLHttpRequest, Ajax du côté client, et les API (ou les Services Web) des sites dont on mixe le contenu. Pour les entreprises, le domaine d’application immédiat est le portail d’intégration de contenus et services. Pourquoi utiliser des architectures centrées serveurs à base de produits marketés « portail » alors qu’une architecture Mashup est envisageable et fonctionne sous nos yeux à grande échelle ? La question n’est pas simple mais il est urgent de se la poser dans ce contexte.
Des lacunes 2.0 ?
Après cette catégorisation de la nébuleuse Web 2.0, quelques réflexions sur les lacunes du Web 2.0 :
- Trop de contenus : on laisse la possibilité à tous de publier et on s’en donne à cœur joie. Si la production du contenu était un des enjeux du Web 1.0 ; la cascade des contenus inutiles noie les contenus intéressants.
- Trop d’identité numérique : il n’existe pas de standard de fait pour gérer les facettes de nos identités numériques (authentification, réputation, gravatars…). Certains projets tels que OpenID, Gravatar… sont des pistes mais leur adoption est bien trop limitée pour résoudre cette problématique
- Trop d’applications : le principe de la plupart des applications Web 2.0 est que plus les utilisateurs investissent du temps plus le bénéfice retiré est important (contribution dans les Wiki, enrichissement de son réseau dans un réseau social…). Or, l’émergence permanente de nouveaux services concurrençant les précédents incite les utilisateurs à la plus grande « frivolité ».
Nous l’avons vu tout au long de cette chronique, la principale caractéristique de Web 2.0 est la profusion. Avec un peu de bon sens, on arrivera à trier les concepts les plus intéressants dans son contexte et il nous semble urgent de mener cette réflexion. On peut dire que le Web 2.0, c’est désordonné, c’est naïf parfois mais c’est plein d’enthousiasme. Alors ne boudons pas notre plaisir, place à l’inventivité ! Le Web en a besoin après des années rendues trop sages par la psychose engendrée par la bulle Internet.
FLORENCE
12 mars 2010
cet article est vraiment instructif en particulier la long tail et le succès d’amazon.
meuble de cuisine
Redcoon
15 novembre 2010
Le web 2.0 n’est qu’un changement de forme mais le fond reste le même ainsi, le business plan restera toujours web 1.0 Il ne suffit pas d’avoir un site communautaire qui fasse beaucoup de visiteurs pour espérer toucher le gros lots. Et les exemple sont très nombreux dans le domaine : dailymotion, caramail qu’on pourrai qualifier de web2.0, netvibes, etc…
Reduction redcoon