On en parlait de loin en loin depuis des années mais cette fois, ça y est, le papier (ou l’encre) électronique n’est plus un rêve lointain de scientifiques. L’arrivée de Philips sur deux fronts simultanés est sans doute la meilleure preuve de ce prochain décollage. Après avoir annoncé qu’il commercialiserait dès la fin de l’année 2003 le premier écran conçu avec le savoir-faire de l’américain E-Ink (une start-up spécialisée dans ce domaine), Philips annonce dans la revue scientifique Nature une autre technologie qui apporte la couleur et la possibilité d’afficher de la vidéo. Des avancées majeures qui achèvent de concrétiser le potentiel énorme de cette nouvelle technologie appelée à bouleverser son marché.
Comment ça marche ?
Dans un papier électronique (on parle aussi de « smart paper »), l’encre est insérée dans un sandwich de plastique lors de la fabrication. Ensuite, cette « encre », le plus souvent des particules placées dans un liquide, remonte à la surface et devient visible ou invisible à la demande, le tout contrôlée par une batterie de composants transparents. Mais ce dispositif est limité à l’affichage en niveaux de gris.
Pour la couleur, il fallait aller plus loin. C’est pourquoi les laboratoires de Philips travaillent depuis une dizaine d’années sur un principe appelé « électromouillage ». Le principe est très simple et peut être utilisé pour l’affichage : chaque point est formé d’un petit réservoir contenant de l’eau et une goutte d’huile colorée. En appliquant un champ électrique, l’huile se comprime sur un bord, laissant apparaître le fond blanc du réservoir, et s’étale pour montrer sa couleur quand le champ est coupé. Le contrôle précis de la tension électrique permet d’agir sur l’intensité de la couleur.
Ce système n’apporterait rien de spectaculaire s’il n’était capable de produire facilement de la couleur et, surtout, d’afficher de la vidéo. « Nous pouvons changer l’affichage d’un point en 10 millisecondes », se félicite Robert Hayes, du labo de recherche de Philips à Eindhoven. Autrement dit, un écran basé sur ce principe pourrait afficher cent images par seconde, largement de quoi fournir de la vidéo. Tout cela est fort intéressant mais, quels sont les apports du point de vue de l’utilisateur final (car, en fin de compte, il n’y a que cela de vraiment important !) ?
Tout d’abord, une bien meilleure lisibilité dans toutes les conditions et, ensuite, une consommation d’énergie radicalement réduite…
« Le premier atout est la luminosité de l’écran », insiste Robert Hayes. Plus simple qu’un écran à cristaux liquides, le procédé absorbe moins d’énergie et restitue quatre fois plus de lumière, notamment parce que la couleur est obtenue par la teinte de l’huile et non par des filtres teintés comme ceux des écrans plats. Tout comme la feuille de papier classique, la lisibilité est excellente car, au lieu de devoir apporter de la lumière pour créer l’effet de contraste (les dispositifs habituels de rétro-éclairage), c’est la lumière ambiante qui est, en quelque sorte, recyclée… Non seulement le contraste est meilleur tout en étant obtenu de manière plus naturelle mais la lisibilité est également supérieure car elle n’est pas limitée par l’angle de vision, handicap traditionnel des écrans à cristaux liquides.
Encore plus, même la définition de ces nouveaux écrans est meilleure : aujourd’hui, les points d’écran (pixels) les plus petits obtenus par Philips font 5 centièmes de millimètres, et donnent une résolution de 160 points par pouce (ppp), là ou un écran électronique affiche 90 ppp et une imprimante de 300 à 600 ppp.
Enfin, autre avantage critique : l’économie d’énergie. Avec le papier électronique la consommation électrique est négligeable. La différence essentielle avec les écrans classiques c’est qu’aucune énergie n’est utilisée pour maintenir un affichage statique (alors que les écrans habituels doivent être rafraîchis continuellement). Seule la modification de l’affichage (comme la vidéo) consomme du courant. Enfin, dernier atout, la souplesse (flexibilité) de ces nouveaux écrans devait permettre de réaliser des appareils moins fragiles, encore plus « tout-terrain ». On peut même envisager des écrans fixés sur la manche de votre veste (une application fortement demandée par la tendance « wearable computing » – l’informatique portable, au sens propre du terme !).
Formidable non ? Alors, c’est pour quand ? Pas pour tout de suite, évidemment… même si Gyricon (une filiale de Xerox) et E-Ink commercialisent déjà aujourd’hui différents types de panneaux de signalisation. E-Ink fournit également à Philips son « papier » monochrome, qui va d’abord le transformer en écran de téléphones et d’assistants numériques (des écrans de petites tailles donc, plus faciles à industrialiser). Petit et monochrome, pas encore la révolution alors ! Mais la suite, les écrans à « électromouillage » qui offrent couleurs et vidéo, c’est à quel horizon ? Selon Philips, les premiers produits dotés d’un écran « mouillé » devraient être commercialisés dans trois ou quatre ans. « La phase de recherche est maintenant achevée, annonce Robert Hayes. Nous cherchons des partenaires pour mettre au point des procédés de fabrication économiques et la fabrication devrait être plus facile que celle des écrans plats à cristaux liquides à bien des égards ». Suivant le support (verre ou plastique), l’écran sera rigide ou flexible : l’épaisseur du dispositif est aujourd’hui équivalente à un cheveu et demi. Verra-t-on prochainement des « posters électroniques » capables d’afficher la télévision ? « Bien sûr, mais nous en sommes encore loin », admet Robert Hayes. Pour l’instant, son écran de laboratoire affiche mille pixels mais il promet « Trente fois plus en décembre prochain pour une diagonale de 2,5 centimètres ». On le voit, il reste du chemin à faire…
Au vu de tout cela, faut-il croire que l’industrie des écrans électroniques est condamnée ?
Pas à court terme en tout cas. De plus, avant que les écrans « mouillés » deviennent une réalité industrielle et commerciale, les écrans traditionnels ont encore le temps de progresser et ainsi d’opposer une certaine résistance. On va peut-être assister à un remake du scénario « disques optiques contre disques magnétiques » où les premiers devaient balayer les seconds… On a vu ce qui s’est passé finalement : les disques magnétiques sont encore là et bien là.
Ceci dit, ces progrès techniques ouvrent la voie à des perspectives intéressantes : avec une bien meilleure lisibilité et une consommation d’énergie restreinte, c’est toute l’informatique « mobile » qui va connaître un sérieux coup de pouce.
Cette percée prévisible dans le domaine de l’informatique tout-terrain amène également deux réflexions :
Tout d’abord, les vrais progrès, les percées spectaculaires viennent encore et toujours du domaine matériel. Celui-ci continue de creuser l’écart avec le domaine logiciel, accentuant ainsi le fossé entre les performances « techniques » des appareils que nous aurons dans les mains et leurs facilités d’usages réelles. Ensuite, d’autres progrès importants sont à attendre, toujours dans le domaine matériel. Ainsi, il suffirait que le secteur des mémoires électroniques nous propose enfin des composants rapides et récurrents pour que nos ordinateurs connaissent un bond des performances d’un facteur 1000 ! En effet, dans l’état actuel de la technique, les processeurs sont de plus en plus rapides mais ils passent l’essentiel de leurs temps à attendre… Attendre que les différents étages des mémoires-caches veuillent bien leur transmettre les données à traiter. Les mémoires-caches les plus rapides sont bien lentes en regard des processeurs actuels et elles sont aussi bien plus coûteuses. C’est pourquoi les constructeurs en mettent peu et nos machines reposent sur une architecture pyramidale où le processeur est au sommet, dominant des étages successifs de mémoires de plus en plus lentes (jusqu’aux mémoires de masse). Tout cet édifice pourrait être complètement remis en question si des mémoires rapides et récurrentes voyait le jour (c’est-à-dire, qu’on n’a pas besoin de rafraîchir pour qu’elles conservent une information stockée).
Or, ces mémoires miracles sont à l’étude (voire en test) chez de nombreux constructeurs comme IBM, Toshiba et autres. À vitesse de processeur égale, ces mémoires permettraient un formidable bond en avant de performance et d’économie d’énergie par rapport aux portables d’aujourd’hui… Encore une fois, nous serions face à une avancée importante dans le domaine du matériel qui ne serait pas équilibrée par son équivalent dans le domaine du logiciel. Le domaine de l’informatique mobile, l’informatique tout-terrain va donc connaître une accélération considérable grâce à une amélioration considérable des performances. Mais, ce qui va bénéficier le plus de ces avancées, ce qui va progresser le plus nettement, ce sont tous les appareils qui reposent sur des logiciels simples (puisque c’est ici que les progrès sont les plus lents). Et quels sont ces appareils ?
Tout ce qui aujourd’hui est appelé le « pervasive computing » : des machines élémentaires limitées à des tâches basiques mais capables d’envoyer les résultats sur un réseau (comme une simple étiquette qui communique ses données et son statut en permanence, les fameuses « étiquettes actives » à base de RFID qui commence à être expérimenté ici et là). On aura ainsi reproduit le schéma de l’Internet : un réseau doté de noeuds individuellement peu intelligents mais qui, reliés par millions, produisent des résultats remarquables…