è La souris est en voie de disparition Drame de la pollution ? Non, elle est dépassée technologiquement selon le Gartner. Encore une fois, une analyse du Gartner va faire parler dans les chaumières (des nerds et autres accros à l'informatique). Selon le cabinet d'études, la souris, ce sympathique mammifère mais aussi très utile accessoire informatique, vit ses dernières années. Le «mulot», inventé il y a plus de 40 ans dans les laboratoires de Xerox, serait dépassé, voire enterré par les nouvelles technologies de reconnaissance comme les écrans tactiles. C'est sur la BBC que l'analyste du Gartner, Steve Prentice, a partagé sa sombre prédiction. «Pour l'informatique de loisir ou pour le travail sur ordinateur portable, [la souris] est déjà en voie de disparition.» Sa fin serait programmée dans un délai de 3 à 5 ans. Vraiment ? L'oracle se base sur le développement de nouvelles interfaces homme-machine qui se multiplient dans les jeux vidéo ou sur les téléphones mobiles : écran tactile, trackball, reconnaissance des objets ou gestuelle… L'iPhone d'Apple, la Wii de Nintendo ou encore Surface de Microsoft préfigurent ces nouveaux dispositifs de contrôle qui, selon Gartner, devraient vite s'imposer dans le monde du PC. Prometteur pour les nouvelles générations, ce type de dispositifs risque néanmoins de vite devenir un cauchemar pour les plus anciens qui ont dû apprivoiser le mammifère. Mais rien ne peut arrêter le progrès ! Reste que la bonne vieille souris conserve bon nombre d'avantages, dont une simplicité à toute épreuve. Argument mis en avant par les géants du secteur comme le suisse Logitech, qui estime que cette vision du Gartner est «exagérée». D'ailleurs, il faut bien reconnaître que les alternatives à la souris n'ont jamais vraiment décollé jusqu'à aujourd'hui. Quant aux écrans tactiles, ils doivent encore faire leurs preuves en termes d'ergonomie… Du coup, la prévision du Gartner apparaît bien utopiste… Si la souris n'a plus qu'à rentrer dans son trou, quid du clavier ? Sur ce point, l'analyste du Gartner est plus prudent (sage décision). Pour lui, pour le moment, rien ne peut le remplacer correctement. è Faille DNS : les pirates diffusent un logiciel d'exploitation Rebondissement dans l'affaire de la faille DNS. Mercredi dernier, on a appris que des éléments techniques avaient été diffusés. Résultat, des hackers commencent à diffuser un exploit permettant d'utiliser la faille et cela s'annonce comme le feuilleton de l'été. Début juillet, Dan Kaminsky, spécialiste en sécurité informatique, a révélé avoir mis au jour un défaut qualifié de très sérieux dans le protocole DNS (Domain Name System). Dès lors, on découvre rapidement que les entreprises ont eu connaissance de la faille depuis plusieurs mois et qu'elles ont, semble-t-il, réussi à corriger les problèmes. Sun, Microsoft, Cisco ou encore le département de la Défense nationale américaine sont alors sur le coup. Dans la plus grande discrétion, les patchs massifs sont élaborés puis diffusés quelque temps après la «révélation». Ensuite, tout va très vite. La discrétion apparente saute rapidement lorsque les patchs commencent à se diffuser. Deux semaines plus tard, les détails de la faille sont diffusés par la société Matasano, officiellement par erreur… La stratégie de rester discret sur les éventuelles exploitations de la faille vole alors en éclats. En effet, tous les acteurs en présence se sont bien gardés de donner des détails sur cette vulnérabilité sinon qu'elle est dérivée de la technique de cache poisonning et combine des vulnérabilités connues du protocole DNS et du phishing. Très vite, Matasano Security, retire l'information de son blog… Trop tard. Dès jeudi, des hackers diffusaient déjà des codes d'attaque clé en main pour exploiter la faille informatique. Selon ses auteurs, de fausses données DNS peuvent alors être insérées dans la cache d'un name-server. Un attaquant peut alors afficher une mauvaise réponse pour n'importe quelle requête. A ce stade, on se rend compte que, si des rustines existent, grâce notamment aux mises à jour et autres patchs, le danger peut subsister. Le risque est donc toujours bel et bien présent et fait encore parler de lui. Au moins jusqu'au 6 août prochain, date à laquelle Dan Kaminsky rendra publics les détails de la vulnérabilité, pendant le Black Hat. Un secret déjà bien éventé. è Intel en dit plus sur sa puce tout-en-un (SoC) Pour Gadi Singer, vice-president Mobility Group pour Intel, l'Internet est partout et, surtout, il devient mobile (1,2 milliard d'utilisateurs mobiles en 2012 selon lui). L'info n'est pas nouvelle, la connectivité se fait aujourd'hui une place dans les mini-PC, les UMPC, les MID (Mobile Internet Devices), les consoles de jeu, les décodeurs, les téléviseurs, les baladeurs... Pour adresser ce marché, Intel lance une offensive de taille basée sur des puces miniaturisés tout-en-un (System On Chip ou SoC) à l'image de ce que fait par exemple Texas Instruments pour les téléphones mobiles (processeurs Omap). Caractéristique de ce type de produits : embarquer tout le nécessaire pour faire fonctionner un système. Les avantages sont évidents : gain de place, gain de consommation, baisse de coût, le tout avec des performances en hausse. Cette offensive a été inaugurée avec le désormais célèbre processeur Atom. Mais ce dernier vise uniquement les netbooks. Pour le moment. Pour le reste du marché, Intel a dévoilé mercredi dernier un nouveau processeur SoC, nom de code Tolapai. Déjà annoncé il y a quelques mois, on en sait aujourd'hui un peu plus sur ses spécifications. Tolapai intègre donc un processeur Intel Pentium M (90 nm) avec 256 Ko de cache L2, un northbridge incluant un contrôleur mémoire DDR2-800 single canal et un contrôleur PCI Express 8x, un southbridge intégrant les entrées et sorties pour deux ports USB 2.0 ainsi que deux ports SATA II. On y trouve également une puce réseaux (trois ports Gigabit Ethernet) et la technologie Intel QuickAssist (sécurité, intégration software). La consommation annoncée varie de 11 à 21 Watts selon le processeur embarqué. La taille, argument numéro un pour ce type de produits, est de 37,5 mm2. Ce processeur SoC serait 45% plus petit et 34% moins gourmand qu'un jeu de puces séparées. è Microsoft fait le ménage dans son activité Internet Microsoft continue à avoir toutes les difficultés du monde à faire décoller son activité Internet, nouveau nerf de la guerre pour la firme. Et il faut dire que les derniers épisodes ne prêtent pas à l'optimisme. Dans la recherche en ligne, Live Search ne décolle pas, écrasé par le succès de Google et dominé par Yahoo. Idem dans le très juteux marché de la pub en ligne. Surtout, les tentatives de Redmond de s'emparer de Yahoo, sorte de remède miracle pour la firme, sont pour le moment vaines. Les pertes de 488 millions de cette division viennent s'additionner au déficit total de 1,2 milliard sur l'ensemble de l'année. Microsoft a donc décidé de réorganiser une nouvelle fois cette activité et comme d'habitude, des têtes sont tombées. Kevin Johnson, patron de la division PSD chapeautant les activités Windows et Internet a été gentiment invité à prendre la porte. Avec effet immédiat. «Kevin Johnson va quitter le groupe», a annoncé Microsoft dans son communiqué. «C'était un plaisir de travailler avec Kevin, et nous lui souhaitons le meilleur pour l'avenir», a déclaré le P-DG du groupe, Steve Ballmer, cité dans le communiqué. Sacré Steve, toujours le mot pour rire… A noter, l'homme n'a pas tardé à retrouver un travail puisqu'il vient d'être nommé P-DG de Juniper Networks. Dans le même temps, cette division PSD va être scindée en deux entités «immédiatement». Windows et Windows Live seront dirigés par Steven Sinofsky, Jon DeVaan et Bill Veghte, qui rapporteront directement à Steve Ballmer. Pour la division Internet, personne n'a encore été officiellement nommé. Adepte de la méthode Coué, Steve Ballmer souligne : «Notre activité Windows fonce à pleins gaz. Nous voyons des opportunités formidables en matière de moteur de recherche et de publicité en ligne, et nous avons une stratégie claire.» Pourquoi alors avoir tout fait pour acheter Yahoo ? è Google ouvre son encyclopédie en ligne Knol Après un lancement réservé à des invités en décembre dernier, l'encyclopédie en ligne de Google, Knol, est aujourd'hui ouverte au grand public. On l'a compris, l'insatiable géant du Web lance une offensive sur le terrain de Wikipedia et de ses 100 millions de visiteurs mensuels. Google cherche une fois encore à étendre son empire mais Knol (une contraction du mot Knowledge ou connaissance), parviendra-t-il a faire des misères au puissant Wikipedia ? A première vue, Knol est assez proche de son concurrent. «Le but des knols est de couvrir tous les sujets, des concepts scientifiques à l'information médicale en passant par des informations pratiques», explique Udi Manber, vice-président de l'ingénierie chez Google. Mais le nouveau service entend se distinguer en termes de qualité des sources. L'identité des rédacteurs devra être connue afin d'éviter certains dérapages vus ailleurs. «Nous pensons que connaître l'identité des personnes qui écrivent les articles aiderait significativement les utilisateurs à mieux se servir du contenu du Web», souligne le VP. Cette identification devrait faire émerger des auteurs qualifiés (et non l'internaute moyen) et permettra surtout à Google de ne pas être tenu pour responsable de ce qui sera publié sur le site. Comme avec Wikipedia, Google ne corrigera pas le contenu et il sera possible pour un lecteur de commenter ou d'annoter les contributions existantes mais encore une fois, il faudra s'identifier. Par contre, la mise à jour d'un knol ne pourra se faire que par l'auteur. Mais c'est dans le modèle économique que Google se distingue le plus. Le géant de Mountain View n'est pas là pour les beaux yeux de la connaissance universelle. Alors que Wikipedia est vierge de toute publicité, les rédacteurs de Knol pourront placer de la publicité sur leurs pages, les revenus générés (programme Adsense) seront alors partagés avec Google. Le côté altruiste à la sauce Wiki en prend en coup… è Pourquoi Vista n'est-il pas optimisé pour les disques Flash Sandisk ? Le dernier OS de Microsoft ne se marie pas pour le meilleur avec les disques à mémoire Flash. Sandisk se dit contraint de lancer une nouvelle génération de disques. Depuis que le marché des mémoires Flash s'est développé, certains points d'achoppement se font jour, notamment avec le nouveau système de Microsoft. Rappelons que de plus en plus de machines comme le MacBook Air ou l'Eee PC d'Asus en sont dotées. Le constructeur américain Sandisk fait donc la soupe à la grimace lorsque ses développeurs se sont rendu compte que leurs produits ne tournaient pas à leur rendement maximum. Selon le P-DG du fabricant, Eli Harari, il s'agit là d'un nouveau défi à relever : «Les performances des disques SSD dans l'environnement Vista sont largement en dessous de ce que le marché a besoin. Et c'est pourquoi nous allons développer une nouvelle génération de produits qui devraient être commercialisés l'année prochaine», selon des propos rapportés par Cnet. Un arbre qui cache la forêt ? Certes, ces problèmes vont permettre au constructeur d'investir en recherche et de sortir une nouvelle gamme de produits mais, pour Sandisk, cette charge contre Vista pourrait également servir à justifier un bilan en demi-teinte. Après avoir connu un recul de 1% au deuxième trimestre 2008 de son chiffre d'affaires, Sandisk annonce avoir perdu l'équivalent de 68 millions de dollars. Pourtant, l'an dernier à la même époque, le constructeur gagnait des parts de marché en réalisant 28 millions de dollars de plus. L'ambiance est donc à la transparence et à la communication en vue d'assurer de meilleures performances à l'avenir, et pourquoi pas de s'aligner sur la concurrence. L'accent sera donc porté sur une génération plus fiable de contrôleurs pour disques SSD, assure Sandisk.