L'humanité a produit environ 1,3 milliard de Go de données numériques en 2010, soit plus que la totalité des informations produites par l'Homme entre la préhistoire et 2003. Le géant américain IBM met en garde les entreprises contre ce déluge informationnel en invoquant une nouvelle « loi » de l'informatique : « plus la puissance de calcul des ordinateurs progresse et plus les entreprises deviennent bêtes ». « Chaque minute de chaque journée, explique Patrick Cason, Directeur Commercial et Marketing chez Easynet France sur le site www.distributique.com, nous générons des montagnes de données. En 60 secondes, nous envoyons plus de 204 millions d'emails et plus de 100.000 tweets et nous téléchargeons 47.000 applications. Nos réseaux d'entreprise et ceux de nos clients supportent des centaines d'applications qui utilisent et créent d'importantes sommes de données chaque jour : applications vidéo, suites d'applications métier, logiciels collaboratifs, CRM, ERP, applications Cloud en SaaS - la liste est longue ». Il fait référence, pour 2012, aux résultats d'une enquête menée auprès d'un groupe de clients, dont 90 % d'interrogés ont indiqué que l'explosion du volume des données serait l'un des principaux challenges pour leur entreprise cette année. Et ce n'est pas difficile de comprendre pourquoi, ajout-t-il « Les données sont, littéralement, une énorme problématique ». Le cabinet d'études IDC estime, de son côté, « qu'un milliard d'appareils connectés seront mis en service d'ici la fin 2012, et cela va doubler d'ici 2016. Ces appareils vont partager des sommes phénoménales de données inestimables pour les agences marketing, les revendeurs, les institutions gouvernementales, les professionnels de la santé, la liste est sans fin, tout comme le nombre de données comportementales et de localisation que nous produisons. » L'explosion du volume des données informatiques, du fait du développement de l'Internet et des nouvelles technologies de l'information, a ouvert de nouveaux horizons, notamment aux entreprises. Certaines utilisent déjà une partie de ces données pour prédire le comportement des consommateurs et améliorer leur offre de produits et services. C'est le cas, par exemple de Google, Facebook, Amazon, Microsoft, Walmart et LinkedIn, qui ont investi dans l'analyse de données informatiques ces dernières années. Quand elles ne mènent pas elles-mêmes ces analyses en interne, les entreprises peuvent les sous-traiter à des sociétés spécialisées, qui fleurissent aujourd'hui dans le monde entier. En 2011, tous les grands acteurs se sont positionnés. IBM, Oracle et Microsoft proposent des offres. IBM cible plutôt les grandes entreprises ayant déployé un cloud privé, même si son offre Cognos Consumer Insight peut être proposée en mode SaaS. De son côté, Teradata a racheté le spécialiste Aster Data et propose de déployer un cluster dans une ferme de machines classiques. Microsoft a lancé une offre packagée sur Windows Azure, tandis qu'Oracle fait de même sur le cloud Amazon AWS, tout en proposant un logiciel. Quant à SAS, son offre High Performance Analytics est déclinée sous forme de logiciel et d'un service cloud. Ce « marché du Big Data », qui a émergé autour de l'exploitation de la masse de données informatiques disponibles est estimé à 28 milliards de dollars par le cabinet Gartner pour 2012, et 36 milliards pour 2013. Dans son étude « Big Data Drives Rapid Changes in Infrastructure and $232 Billion in IT Spending Through 2016 », le cabinet d'analyses Gartner a estimé que les dépenses informatiques liées au Big Data devraient atteindre les 232 milliards de dollars entre 2011 et 2016. Ces dépenses ne prennent pas en compte l'infrastructure matérielle. Elles sont donc réparties entre les services, le logiciel et l'analytique des réseaux sociaux. Les experts rappellent toutefois qu'il n'existe pas de solution proprement dite « Big Data » mais une combinaison d'outils nécessaires pour traiter une volumétrie galopante de données. Point de vue confirmé par l'analyste du cabinet Gartner, Roxane Edjali, qui précise que les principaux marchés impactés par le Big Data sont ceux du logiciel et du stockage. De fait, le traitement de données en masse suppose avant tout des réseaux rapides et dimensionnés en conséquence, de grandes capacités de stockage avec des supports performants (type mémoire Flash) ou encore des bases adaptées à l'analyse et bien entendu des outils pour exploiter les données, issues principalement du domaine décisionnel. En d'autres termes, le marché du Big Data se résume à « une conjonction d'événements » et ne devrait pas « donner lieu à un marché en tant que tel » selon Roxane Edjali. C'est de toute façon un business en pleine expansion du fait de l'augmentation des flux de données, et surtout parce que leur analyse, quand elle est bien menée, permet aux entreprises d'améliorer leur performance. Deux chercheurs du Massachusetts Institute of Technology (SloanBusiness School), Erik Brynjolfsson et Heekyung Kim, en partenariat avec Lorin Hitt, chercheur à l'université de Pennsylvanie (Wharton Business School), ont effectué une intéressante étude sur la question, menée auprès de 179 entreprises cotées. Au final ils parviennent à démontrer que les organisations qui s'appuient sur l'analyse des données pour développer leur stratégie augmentent leurs niveaux de productivité de 5 à 6 %. Une approche intelligente de l'information leur permet d'augmenter leur chiffre d'affaires en ajustant leur offre aux attentes de leurs clients potentiels, et de réduire leurs coûts. La capacité d'analyse de données informatiques serait donc devenue la source d'un avantage compétitif. Pour avoir un tel avantage, encore faut-il que les entreprises soient capables non seulement de collecter et de stocker les informations pertinentes à leurs activités, mais aussi de les trier et de les analyser. Il leur faut donc s'équiper de nouveaux logiciels qui permettent une telle analyse, et recruter des experts capables de créer et de gérer ces bases de données. Le rôle de ces professionnels est de sélectionner les données les plus intéressantes pour leur organisation, de les intégrer et de développer des modèles d'analyse susceptibles d'aider au mieux les cadres dirigeants dans les prises de décisions stratégiques. Traiter et analyser de la volumétrie suppose en effet un véritable savoir-faire, démocratisé en partie ces dernières années par la Business Intelligence. « La Business Intelligence classique part de la stratégie de l'entreprise et allume des voyants correspondant aux objectifs », résume Romain Chaumais cofondateur d'Ysance, société spécialisée dans le business informatique. A l'inverse, le Big Analytics dégage une logique dans un océan de données bien trop nombreuses pour qu'un humain puisse les analyser. « Le datamining automatisait déjà cette analyse mais avec des échantillons représentatifs. Le Big Data attaque les données dans leur totalité, ce qui permet d'identifier la moindre anomalie, détaille Romain Chaumais. L'informatique décisionnelle (en anglais : BI pour Business Intelligence) désigne, peut-on lire sur le site Wikipedia « les moyens, les outils et les méthodes qui permettent de collecter, consolider, modéliser et restituer les données, matérielles ou immatérielles, d'une entreprise en vue d'offrir une aide à la décision et de permettre à un décideur d'avoir une vue d'ensemble de l'activité traitée. Ce type d'application utilise en règle générale un entrepôt de données (ou datawarehouse en anglais) pour stocker des données transverses provenant de plusieurs sources hétérogènes ». Mais, ces compétences sont rares et beaucoup de projets décisionnels échouent encore en raison d'une mauvaise analyse conduisant à une modélisation des données inadaptée aux besoins. Conséquence : des délais de réponse trop longs quand l'infrastructure ne permet simplement pas d'obtenir les réponses aux questions que l'on se pose. Et, de fait, si la conjoncture actuelle pousse les entreprises à gérer de plus en plus de données, leur problématique à venir va moins porter sur les outils – ils existent et il suffit de les combiner – que sur les hommes capables de concevoir les bonnes infrastructures, plus communément appelés « data scientists » par la société de solutions informatiques EMC. Et ce, afin que le phénomène Big Data ne se résume pas à engranger plus de données inutilement. Si l'exploitation efficace et raisonnée des données informatiques est un défi technique et managérial pour les entreprises, il en va de même pour les autorités publiques. Ces dernières, en plus de devoir apprendre à exploiter la masse de données disponibles pour améliorer les services publics et mieux maîtriser les dépenses, doivent assurer la protection des données personnelles. Ce qui semble déjà poser problème avec certains géants du net très intéressé par le profilage des internautes.