Présidence de l'Algérie du Conseil de sécurité : défense des causes justes, efforts inlassables pour porter la voix de l'Afrique    Le groupe parlementaire d'amitié Algérie-Venezuela examine les moyens de renforcer la coopération avec l'Assemblée nationale vénézuélienne    29e édition du Prix du 1er Novembre 1954 : le ministère des Moudjahidine distingue les lauréats    Décès de l'ancien journaliste de l'APS Mohamed Bakir    Le ministre de la Santé se réunit avec le SNMGSP    Commission intergouvernementale mixte algéro-russe: signature de 9 accords et mémorandums d'entente dans plusieurs domaines    Championnat arabe de la course d'orientation: Alger abrite la 1e édition du 1er au 5 février    Football: Ahmed Kharchi seul candidat à la présidence de la LNFA    Foot/Ligue 1 Mobilis: Djezzy signe une convention de sponsoring avec l'US Biskra    Algérie/Mauritanie: Sonatrach signe un mémorandum d'entente avec la SMH pour le renforcement de la coopération énergétique    ONPO: le coût du Hadj fixé cette année à 840.000,00 DA    Constantine: Plus de 400 tonnes d'aides humanitaires collectées pour le peuple palestinien à Ghaza    Agrément à la nomination de la nouvelle ambassadeure d'Algérie à Oslo    La coopération bilatérale au centre des entretiens de Arkab avec le vice-ministre russe de l'Energie    Le Maroc empêche la visite de parlementaires basques au Sahara occidental    Pluies orageuses attendues sur des wilayas de l'Ouest à partir de jeudi soir    « L'appel à l'expulsion des Ghazaouis est une tentative désespérée et injuste »    «Le recensement vise à atteindre plusieurs objectifs politiques stratégiques»    Les moyens de renforcer l'efficacité énergétique examinés    Signature d'un protocole de coopération en matière de formation policière    Fédération tunisienne de football : Moez Nasri élu nouveau président    Le sélectionneur algérien plus objectif dans ses analyses    Débâcle des Verts au Mondial de hand : Les pouvoirs publics interviennent    Le Général d'Armée Saïd Chanegriha reçoit le SG adjoint délégué pour les affaires politiques et la politique sécuritaire de l'Otan    «Nous sommes maîtres chez nous !»    Poutine était prêt à rencontrer Zelenski au printemps 2022    Saisie de 1.700 kg de kif traité et 441 comprimés de Prégabaline 300 mg    A Monsieur le président de la République    A Monsieur le président de la République    Des milliers de déplacés au Darfour-nord en raison d'une escalade des attaques des FSR    Sansal, le Cercle algérianiste et le plan de partition de l'Algérie    Une commune en plein chantier    Arrivée à Skikda, la troisième halte    Tizi-Ouzou: la caravane Jeunesse et Mémoire nationale sur les traces des "novembristes"    Développement et modernisation de la capitale: une séance de travail consacrée au Plan blanc    Elaborer une stratégie nationale aux contours clairs        L'Algérie happée par le maelström malien    Un jour ou l'autre.    En Algérie, la Cour constitutionnelle double, sans convaincre, le nombre de votants à la présidentielle    Algérie : l'inquiétant fossé entre le régime et la population    Tunisie. Une élection sans opposition pour Kaïs Saïed    BOUSBAA بوصبع : VICTIME OU COUPABLE ?    Des casernes au parlement : Naviguer les difficiles chemins de la gouvernance civile en Algérie    Les larmes de Imane    Algérie assoiffée : Une nation riche en pétrole, perdue dans le désert de ses priorités    Prise de Position : Solidarité avec l'entraîneur Belmadi malgré l'échec    Suite à la rumeur faisant état de 5 décès pour manque d'oxygène: L'EHU dément et installe une cellule de crise    







Merci d'avoir signalé!
Cette image sera automatiquement bloquée après qu'elle soit signalée par plusieurs personnes.



Les autoroutes de l'avenir
Gestion de l'information numérique
Publié dans Horizons le 12 - 12 - 2012


L'humanité a produit environ 1,3 milliard de Go de données numériques en 2010, soit plus que la totalité des informations produites par l'Homme entre la préhistoire et 2003. Le géant américain IBM met en garde les entreprises contre ce déluge informationnel en invoquant une nouvelle « loi » de l'informatique : « plus la puissance de calcul des ordinateurs progresse et plus les entreprises deviennent bêtes ». « Chaque minute de chaque journée, explique Patrick Cason, Directeur Commercial et Marketing chez Easynet France sur le site www.distributique.com, nous générons des montagnes de données. En 60 secondes, nous envoyons plus de 204 millions d'emails et plus de 100.000 tweets et nous téléchargeons 47.000 applications. Nos réseaux d'entreprise et ceux de nos clients supportent des centaines d'applications qui utilisent et créent d'importantes sommes de données chaque jour : applications vidéo, suites d'applications métier, logiciels collaboratifs, CRM, ERP, applications Cloud en SaaS - la liste est longue ». Il fait référence, pour 2012, aux résultats d'une enquête menée auprès d'un groupe de clients, dont 90 % d'interrogés ont indiqué que l'explosion du volume des données serait l'un des principaux challenges pour leur entreprise cette année. Et ce n'est pas difficile de comprendre pourquoi, ajout-t-il « Les données sont, littéralement, une énorme problématique ». Le cabinet d'études IDC estime, de son côté, « qu'un milliard d'appareils connectés seront mis en service d'ici la fin 2012, et cela va doubler d'ici 2016. Ces appareils vont partager des sommes phénoménales de données inestimables pour les agences marketing, les revendeurs, les institutions gouvernementales, les professionnels de la santé, la liste est sans fin, tout comme le nombre de données comportementales et de localisation que nous produisons. » L'explosion du volume des données informatiques, du fait du développement de l'Internet et des nouvelles technologies de l'information, a ouvert de nouveaux horizons, notamment aux entreprises. Certaines utilisent déjà une partie de ces données pour prédire le comportement des consommateurs et améliorer leur offre de produits et services. C'est le cas, par exemple de Google, Facebook, Amazon, Microsoft, Walmart et LinkedIn, qui ont investi dans l'analyse de données informatiques ces dernières années. Quand elles ne mènent pas elles-mêmes ces analyses en interne, les entreprises peuvent les sous-traiter à des sociétés spécialisées, qui fleurissent aujourd'hui dans le monde entier. En 2011, tous les grands acteurs se sont positionnés. IBM, Oracle et Microsoft proposent des offres. IBM cible plutôt les grandes entreprises ayant déployé un cloud privé, même si son offre Cognos Consumer Insight peut être proposée en mode SaaS. De son côté, Teradata a racheté le spécialiste Aster Data et propose de déployer un cluster dans une ferme de machines classiques. Microsoft a lancé une offre packagée sur Windows Azure, tandis qu'Oracle fait de même sur le cloud Amazon AWS, tout en proposant un logiciel. Quant à SAS, son offre High Performance Analytics est déclinée sous forme de logiciel et d'un service cloud. Ce « marché du Big Data », qui a émergé autour de l'exploitation de la masse de données informatiques disponibles est estimé à 28 milliards de dollars par le cabinet Gartner pour 2012, et 36 milliards pour 2013. Dans son étude « Big Data Drives Rapid Changes in Infrastructure and $232 Billion in IT Spending Through 2016 », le cabinet d'analyses Gartner a estimé que les dépenses informatiques liées au Big Data devraient atteindre les 232 milliards de dollars entre 2011 et 2016. Ces dépenses ne prennent pas en compte l'infrastructure matérielle. Elles sont donc réparties entre les services, le logiciel et l'analytique des réseaux sociaux. Les experts rappellent toutefois qu'il n'existe pas de solution proprement dite « Big Data » mais une combinaison d'outils nécessaires pour traiter une volumétrie galopante de données. Point de vue confirmé par l'analyste du cabinet Gartner, Roxane Edjali, qui précise que les principaux marchés impactés par le Big Data sont ceux du logiciel et du stockage. De fait, le traitement de données en masse suppose avant tout des réseaux rapides et dimensionnés en conséquence, de grandes capacités de stockage avec des supports performants (type mémoire Flash) ou encore des bases adaptées à l'analyse et bien entendu des outils pour exploiter les données, issues principalement du domaine décisionnel. En d'autres termes, le marché du Big Data se résume à « une conjonction d'événements » et ne devrait pas « donner lieu à un marché en tant que tel » selon Roxane Edjali. C'est de toute façon un business en pleine expansion du fait de l'augmentation des flux de données, et surtout parce que leur analyse, quand elle est bien menée, permet aux entreprises d'améliorer leur performance. Deux chercheurs du Massachusetts Institute of Technology (SloanBusiness School), Erik Brynjolfsson et Heekyung Kim, en partenariat avec Lorin Hitt, chercheur à l'université de Pennsylvanie (Wharton Business School), ont effectué une intéressante étude sur la question, menée auprès de 179 entreprises cotées. Au final ils parviennent à démontrer que les organisations qui s'appuient sur l'analyse des données pour développer leur stratégie augmentent leurs niveaux de productivité de 5 à 6 %. Une approche intelligente de l'information leur permet d'augmenter leur chiffre d'affaires en ajustant leur offre aux attentes de leurs clients potentiels, et de réduire leurs coûts. La capacité d'analyse de données informatiques serait donc devenue la source d'un avantage compétitif. Pour avoir un tel avantage, encore faut-il que les entreprises soient capables non seulement de collecter et de stocker les informations pertinentes à leurs activités, mais aussi de les trier et de les analyser. Il leur faut donc s'équiper de nouveaux logiciels qui permettent une telle analyse, et recruter des experts capables de créer et de gérer ces bases de données. Le rôle de ces professionnels est de sélectionner les données les plus intéressantes pour leur organisation, de les intégrer et de développer des modèles d'analyse susceptibles d'aider au mieux les cadres dirigeants dans les prises de décisions stratégiques. Traiter et analyser de la volumétrie suppose en effet un véritable savoir-faire, démocratisé en partie ces dernières années par la Business Intelligence. « La Business Intelligence classique part de la stratégie de l'entreprise et allume des voyants correspondant aux objectifs », résume Romain Chaumais cofondateur d'Ysance, société spécialisée dans le business informatique. A l'inverse, le Big Analytics dégage une logique dans un océan de données bien trop nombreuses pour qu'un humain puisse les analyser. « Le datamining automatisait déjà cette analyse mais avec des échantillons représentatifs. Le Big Data attaque les données dans leur totalité, ce qui permet d'identifier la moindre anomalie, détaille Romain Chaumais. L'informatique décisionnelle (en anglais : BI pour Business Intelligence) désigne, peut-on lire sur le site Wikipedia « les moyens, les outils et les méthodes qui permettent de collecter, consolider, modéliser et restituer les données, matérielles ou immatérielles, d'une entreprise en vue d'offrir une aide à la décision et de permettre à un décideur d'avoir une vue d'ensemble de l'activité traitée. Ce type d'application utilise en règle générale un entrepôt de données (ou datawarehouse en anglais) pour stocker des données transverses provenant de plusieurs sources hétérogènes ». Mais, ces compétences sont rares et beaucoup de projets décisionnels échouent encore en raison d'une mauvaise analyse conduisant à une modélisation des données inadaptée aux besoins. Conséquence : des délais de réponse trop longs quand l'infrastructure ne permet simplement pas d'obtenir les réponses aux questions que l'on se pose. Et, de fait, si la conjoncture actuelle pousse les entreprises à gérer de plus en plus de données, leur problématique à venir va moins porter sur les outils – ils existent et il suffit de les combiner – que sur les hommes capables de concevoir les bonnes infrastructures, plus communément appelés « data scientists » par la société de solutions informatiques EMC. Et ce, afin que le phénomène Big Data ne se résume pas à engranger plus de données inutilement. Si l'exploitation efficace et raisonnée des données informatiques est un défi technique et managérial pour les entreprises, il en va de même pour les autorités publiques. Ces dernières, en plus de devoir apprendre à exploiter la masse de données disponibles pour améliorer les services publics et mieux maîtriser les dépenses, doivent assurer la protection des données personnelles. Ce qui semble déjà poser problème avec certains géants du net très intéressé par le profilage des internautes.

Cliquez ici pour lire l'article depuis sa source.