Le débat revient sur les véritables profondeurs du web, à l'occasion de la plongée que viennent d'effectuer les services du FBI, pour y pêcher un gros poisson, le site Silk Road, réputé plaque tournante du commerce des stupéfiants, dans les profondeurs méconnues et insoupçonnées du web. Il était également l'icône de la partie cachée « deep web » ou « internet profond », cette face cachée du réseau, non accessible pour les moteurs de recherche et pour une grande majorité des internautes lambda. L'accès à ce genre de réseau, souvent crypté, donne sur des pages web sécurisées, anonymes, via des réseaux décentralisés de routeurs, dont le plus emblématique TOR, pour The Onion Router, ou le routeur oignon. L'anonymat des connexions se conserve par une modification constante de l'adresse IP, et par l'utilisation d'une multitude de relais, ou nœuds, à travers le monde, pour y faire transiter les requêtes d'échange des données, rendant impossible tout traçage de la requête originelle. La justice américaine a donc ordonné la fermeture du site, début octobre, tandis que le FBI poursuivant sa truque, a pu exploiter quelques erreurs commises par Ross William Ulbricht, propriétaire et fondateur du site, pour procéder à son arrestation. Le site d'information français www.rue89.com explique ainsi que « Ross Ulbricht a visiblement manqué d'humilité et de jugeote », en exposant ostensiblement l'activité de son site « sur des forums bien connus de la lutte anti-drogue », puis en déclinant sur son profil LinkedIn son business Project « qui contournerait le contrôle économique » et en faisant une large diffusion « des idéaux similaires via ses différents profils web ». Mais le comble aurait été atteint lorsqu'il « s'est fait livrer un colis contenant neuf fausses pièces d'identité portant sa photo », ce qui a permis au FBI de suivre le colis et de frapper à sa porte pour lui signifier son inculpation pour « trafic de drogue, piratage informatique et blanchiment d'argent. » Pour le quotidien français Le Monde, ce site de commerce est défini par les autorités américaines comme « un vaste marché noir en ligne où étaient régulièrement achetés et vendus des centaines de kilos de drogues et d'autres produits et services illicites ». « Cette affaire a été un prétexte pour beaucoup pour regarder de plus près les profondeurs de l'internet et interroger experts et analystes sur la réalité de ce web profond qui a toujours existé, et qui existera comme nécessité stratégique pour beaucoup d'activités. Pour bien comprendre la structure profonde du web, le site www.neonmag.fr nous explique d'abord la partie visible, cette « partie du web accessible en ligne, mais non référencée par les moteurs de recherche classiques (Google, Explorer, Bing, Yahoo, etc.). Ces derniers possèdent des programmes appelés « robots d'indexation » qui parcourent le web à la recherche de liens hypertexte pour découvrir de nouvelles pages ». Cependant, et pour des raisons diverses, beaucoup d'autres pages web sont inaccessibles à ces moteurs, donc cachées, et constituent de ce fait le « webinvisible » ou le « web profond ». Ce même site explique à ce titre que « Seuls 3 à 10 % des pages seraient en fait indexées sur le web, comme l'expliquent Chris Sherman et Gary Price dans leur livre The Invisible Web. Il existerait plus d'un trilliard de données « cachées » des moteurs de recherche généralistes ». La presse spécialisée a saisi l'occasion pour décortiquer ces couches inconnues du web qui sont autant de plateformes pour des services de commerce et de veille que de forums d'échanges des produits et services les plus illicites allant des stupéfiants, aux armes, en passant par les cartes bancaires dérobées ou les contenus pornographiques, et mêmes terroristes. Sur le site www.panoptinet.com, on retrouve une étude intéressante de ces « parties immergées » de l'internet présenté dans ses trois couches. D'abord le web « surfacique », celui dans le lequel nous baignons tous, nous usagers lambda, en confiant nos requêtes d'accès à internet à des fournisseurs d'accès et moteur de recherche pour notamment, écrit le site « consultation des courriels, connexion aux réseaux sociaux, achats sur les sites de e-commerce, fréquentation de sites ou de blogs indexés par un moteur de recherche, etc. Bref, Internet quoi ! Eh bien non : sous la surface, on peut accéder à d'autres Internets... » En dessous, se retrouve une seconde couche dite « le web profond » ou « deep web » qui représente selon la même source « 70 ou 75% du web total », et se constitue « de tous les contenus qui ne sont pas indexés par les moteurs de recherche (ex : Google) » et dont l'accès requiert de « connaître l'adresse précise des sites concernés pour y accéder. » La non indexation peut être motivée par diverses raisons, de sorte que le web profond peut, selon le site panoptinet.com, contenir « le web privé (sites réservés à des utilisateurs limités et identifiés) et le web opaque (web techniquement indexable mais non indexé) ». Plus profond encore dans la sphère du web, existe une autre couche dite « sombre » ou « dark web » : pour y parvenir, explique le site ci-dessus cité, « il faut non seulement connaître les adresses spécifiques, mais également utiliser des outils informatiques particuliers (ex : navigateur dédié). Les moteurs de recherche ne connaissent pas cette partie du web, et le chargement des contenus peut être très lent. L'anonymat est la règle, et chaque connexion se veut indirecte, en passant par de nombreux nœuds (nodes). » Le site du CNRS français dans une présentation de ce phénomène souligne que « le Darknet ne doit pas être confondu avec le « Deep Web », le Web profond, qui regroupe les sites accessibles librement mais non indexés par les moteurs de recherche. » Dans l'article publié sur le site www.cil.cnrs.fr, il est fait appel à un témoignage d'un « cryptoterroriste » qui considère que « un darknet est un réseau qui n'est pas connecté à Internet. Chacun d'entre eux est une maison, et il faut la bonne clé pour y pénétrer... Sombre et clandestin, inconnu du grand public, c'est un royaume de l'anonymat, inaccessible depuis un navigateur traditionnel. » D'après ce site, les utilisateurs optant pour une domiciliation sur cette couche sombre de l'internet « fuient la centralisation, la géolocalisation, la publicité ciblée, le traçage de leurs données personnelles ou de leurs historiques de navigation. » Mais plus généralement, cette sphère du « dark net » peut abriter, selon panoptinet.com, en même temps « les échanges des défenseurs de la liberté d'expression ou de certains opposants politiques réprimés » et ceux relatifs aux divers trafics illicites (trafic de drogue, pédopornographie, terrorisme, criminalité...). L'existence de ces couches inaccessibles pour tous, sécurisée et assurant l'anonymat des échanges et de la navigation s'appuie sur le développement de logiciels, généralement de pair à pair (P2P), en accès libre, à l'instar du fameux Tor qui s'est constitué en réseau mondial décentralisé dont l'organisation en couche justifie la référence à l'oignon. Structuré en réseau décentralisé de routeurs, il transmet de manière tout à fait anonyme les flux de requêtes TCP, pour l'échange de données facilitant l'établissement de la connexion. « Il s'agit, lit on sur le site www.pcinpact.com d'un réseau entièrement décentralisé, organisé en couches, d'où son nom : The Onion Router », ajoutant la machine qui intègre ce réseau est transformée en « un nœud dans un grand maillage. Au sein de ce dernier, toutes les informations sont chiffrées et rebondissent de nœud en nœud pour échapper aux analyses de trafic du réseau. » Ce logiciel a été récompensé comme logiciel libre « projet d'intérêt social » en 2010. A noter cependant que sur les deux millions de dollars nécessaires pour son fonctionnement annuel, « 60 % proviennent du gouvernement américain », nous apprend www.lemondeinformatique.fr. Paradoxalement, ce logiciel est au centre d'un grand travail de surveillance et de tentatives de « craquement » par les agences du renseignement et de la police fédérale américaine. Le journal britannique The Guardian évoque même une coopération entre « la NSA et le GCHQ, son équivalent anglais », qui travailleraient « depuis des années à s'infiltrer dans le réseau Tor », précisant que « cependant, ces tentatives ne concernent que des personnes bien précises et ne se font qu'au prix d'un travail acharné réclamant de grandes ressources. » De son côté, l'agence du renseignement américain NSA aurait emprunté « différentes stratégies utilisées... pour vaincre Tor », selon les révélations faites à la presse par l'ancien agent Edward Snowden. Pour l'heure, selon le site du quotidien français Le monde s'appuyant sur « un document cité par le Guardian, la NSA reconnaît qu'elle « n'aura jamais les moyens de « désanonymiser » tous les utilisateurs de Tor à tout moment ». Même si l'on est tenté d'y croire, on ne peut s'empêcher de se demander : jusqu'à quand ?