150e Assemblée de l'UIP : Boughali participe à la réunion des présidents des groupes géopolitiques    OPEP+ : Arkab participe à la 59e réunion du JMMC    Rebiga s'entretient avec plusieurs ministres et responsables d'organisations internationales    Le salon Djazagro s'ouvre lundi à Alger avec la participation de 650 exposants    Saihi examine avec le DG de l'OMS les moyens de renforcer la coopération sanitaire    L'Armée sahraouie cible des positions des forces d'occupation marocaines dans le secteur d'El Guelta    Ghaza: le bilan de l'agression sioniste s'alourdit à 50669 martyrs    Agressions sionistes: tous les Etats appelés à agir "individuellement et collectivement"    La présidente de l'ONSC reçoit des représentants de plusieurs associations nationales et locales    Les élus locaux pointés du doigt    La réforme du système financier algérien lié à la rente des hydrocarbures a besoin de profondes réformes structurelles    Le «macronisme» ou la fin inéluctable des régimes anachroniques et du mythe néocolonial français    L'ONU exige des explications    Un drone armé abattu    Les Usmistes ont toutes les chances de jouer la demi-finale    Les leaders des deux grLes leaders des deux groupes face à leur destinoupes face à leur destin    Entre une attitude légale et son maniement aléatoire !    Une situation catastrophique !    Reddition d'un terroriste et arrestation de 5 éléments de soutien aux groupes terroristes    Ce que fait l'Algérie pour les personnes à besoins spécifiques…    « Toutânkhamon, l'exposition immersive »    150e Assemblée de l'UIP: le groupe géopolitique africain examine la possibilité de proposer une clause d'urgence sur l'actualité africaine    Décès du Commandant du Secteur militaire de Timimoune: le président de la République présente ses condoléances    L'engagement de l'Etat algérien à répondre aux exigences dans le secteur de la santé souligné    Statut et régime indemnitaire des corps de l'Education: reprise des réunions ministère-syndicat    Keltoum, la doyenne de l'interprétation féminine au théâtre et au cinéma algériens    Le troisième Salon des "Games & Comic Con Dzaïr" s'ouvre à Alger    Foot/ Amical : Suède-Algérie le 10 juin à Solna (FAF)    Classement Fifa: l'Algérie 36e mondial, gagne une place    L'Algérie dépose un dossier d'inscription de "l'art de l'ornementation avec des bijoux en argent émaillé de l'habit féminin de la Kabylie" auprès de l'UNESCO    Pour les Algériens, rendez-vous mardi prochain en Afrique du Sud    «Le couscous, racines et couleurs d'Algérie»    Le recteur de la Mosquée de Paris agit-il en tant qu'émissaire à Alger pour libérer l'agent Sansal ?    Tennis/Tournoi M15 Monastir: l'Algérien Samir Hamza Reguig qualifié au 2e tour    La bataille de Djebel Béchar, un acte d'une grande portée historique    «La Présidente de la Tanzanie se félicite des relations excellentes unissant les deux pays»        L'Algérie happée par le maelström malien    Un jour ou l'autre.    En Algérie, la Cour constitutionnelle double, sans convaincre, le nombre de votants à la présidentielle    Algérie : l'inquiétant fossé entre le régime et la population    Tunisie. Une élection sans opposition pour Kaïs Saïed    BOUSBAA بوصبع : VICTIME OU COUPABLE ?    Des casernes au parlement : Naviguer les difficiles chemins de la gouvernance civile en Algérie    Les larmes de Imane    Algérie assoiffée : Une nation riche en pétrole, perdue dans le désert de ses priorités    Prise de Position : Solidarité avec l'entraîneur Belmadi malgré l'échec    Suite à la rumeur faisant état de 5 décès pour manque d'oxygène: L'EHU dément et installe une cellule de crise    







Merci d'avoir signalé!
Cette image sera automatiquement bloquée après qu'elle soit signalée par plusieurs personnes.



Les autoroutes de l'avenir
Gestion de l'information numérique
Publié dans Horizons le 12 - 12 - 2012


L'humanité a produit environ 1,3 milliard de Go de données numériques en 2010, soit plus que la totalité des informations produites par l'Homme entre la préhistoire et 2003. Le géant américain IBM met en garde les entreprises contre ce déluge informationnel en invoquant une nouvelle « loi » de l'informatique : « plus la puissance de calcul des ordinateurs progresse et plus les entreprises deviennent bêtes ». « Chaque minute de chaque journée, explique Patrick Cason, Directeur Commercial et Marketing chez Easynet France sur le site www.distributique.com, nous générons des montagnes de données. En 60 secondes, nous envoyons plus de 204 millions d'emails et plus de 100.000 tweets et nous téléchargeons 47.000 applications. Nos réseaux d'entreprise et ceux de nos clients supportent des centaines d'applications qui utilisent et créent d'importantes sommes de données chaque jour : applications vidéo, suites d'applications métier, logiciels collaboratifs, CRM, ERP, applications Cloud en SaaS - la liste est longue ». Il fait référence, pour 2012, aux résultats d'une enquête menée auprès d'un groupe de clients, dont 90 % d'interrogés ont indiqué que l'explosion du volume des données serait l'un des principaux challenges pour leur entreprise cette année. Et ce n'est pas difficile de comprendre pourquoi, ajout-t-il « Les données sont, littéralement, une énorme problématique ». Le cabinet d'études IDC estime, de son côté, « qu'un milliard d'appareils connectés seront mis en service d'ici la fin 2012, et cela va doubler d'ici 2016. Ces appareils vont partager des sommes phénoménales de données inestimables pour les agences marketing, les revendeurs, les institutions gouvernementales, les professionnels de la santé, la liste est sans fin, tout comme le nombre de données comportementales et de localisation que nous produisons. » L'explosion du volume des données informatiques, du fait du développement de l'Internet et des nouvelles technologies de l'information, a ouvert de nouveaux horizons, notamment aux entreprises. Certaines utilisent déjà une partie de ces données pour prédire le comportement des consommateurs et améliorer leur offre de produits et services. C'est le cas, par exemple de Google, Facebook, Amazon, Microsoft, Walmart et LinkedIn, qui ont investi dans l'analyse de données informatiques ces dernières années. Quand elles ne mènent pas elles-mêmes ces analyses en interne, les entreprises peuvent les sous-traiter à des sociétés spécialisées, qui fleurissent aujourd'hui dans le monde entier. En 2011, tous les grands acteurs se sont positionnés. IBM, Oracle et Microsoft proposent des offres. IBM cible plutôt les grandes entreprises ayant déployé un cloud privé, même si son offre Cognos Consumer Insight peut être proposée en mode SaaS. De son côté, Teradata a racheté le spécialiste Aster Data et propose de déployer un cluster dans une ferme de machines classiques. Microsoft a lancé une offre packagée sur Windows Azure, tandis qu'Oracle fait de même sur le cloud Amazon AWS, tout en proposant un logiciel. Quant à SAS, son offre High Performance Analytics est déclinée sous forme de logiciel et d'un service cloud. Ce « marché du Big Data », qui a émergé autour de l'exploitation de la masse de données informatiques disponibles est estimé à 28 milliards de dollars par le cabinet Gartner pour 2012, et 36 milliards pour 2013. Dans son étude « Big Data Drives Rapid Changes in Infrastructure and $232 Billion in IT Spending Through 2016 », le cabinet d'analyses Gartner a estimé que les dépenses informatiques liées au Big Data devraient atteindre les 232 milliards de dollars entre 2011 et 2016. Ces dépenses ne prennent pas en compte l'infrastructure matérielle. Elles sont donc réparties entre les services, le logiciel et l'analytique des réseaux sociaux. Les experts rappellent toutefois qu'il n'existe pas de solution proprement dite « Big Data » mais une combinaison d'outils nécessaires pour traiter une volumétrie galopante de données. Point de vue confirmé par l'analyste du cabinet Gartner, Roxane Edjali, qui précise que les principaux marchés impactés par le Big Data sont ceux du logiciel et du stockage. De fait, le traitement de données en masse suppose avant tout des réseaux rapides et dimensionnés en conséquence, de grandes capacités de stockage avec des supports performants (type mémoire Flash) ou encore des bases adaptées à l'analyse et bien entendu des outils pour exploiter les données, issues principalement du domaine décisionnel. En d'autres termes, le marché du Big Data se résume à « une conjonction d'événements » et ne devrait pas « donner lieu à un marché en tant que tel » selon Roxane Edjali. C'est de toute façon un business en pleine expansion du fait de l'augmentation des flux de données, et surtout parce que leur analyse, quand elle est bien menée, permet aux entreprises d'améliorer leur performance. Deux chercheurs du Massachusetts Institute of Technology (SloanBusiness School), Erik Brynjolfsson et Heekyung Kim, en partenariat avec Lorin Hitt, chercheur à l'université de Pennsylvanie (Wharton Business School), ont effectué une intéressante étude sur la question, menée auprès de 179 entreprises cotées. Au final ils parviennent à démontrer que les organisations qui s'appuient sur l'analyse des données pour développer leur stratégie augmentent leurs niveaux de productivité de 5 à 6 %. Une approche intelligente de l'information leur permet d'augmenter leur chiffre d'affaires en ajustant leur offre aux attentes de leurs clients potentiels, et de réduire leurs coûts. La capacité d'analyse de données informatiques serait donc devenue la source d'un avantage compétitif. Pour avoir un tel avantage, encore faut-il que les entreprises soient capables non seulement de collecter et de stocker les informations pertinentes à leurs activités, mais aussi de les trier et de les analyser. Il leur faut donc s'équiper de nouveaux logiciels qui permettent une telle analyse, et recruter des experts capables de créer et de gérer ces bases de données. Le rôle de ces professionnels est de sélectionner les données les plus intéressantes pour leur organisation, de les intégrer et de développer des modèles d'analyse susceptibles d'aider au mieux les cadres dirigeants dans les prises de décisions stratégiques. Traiter et analyser de la volumétrie suppose en effet un véritable savoir-faire, démocratisé en partie ces dernières années par la Business Intelligence. « La Business Intelligence classique part de la stratégie de l'entreprise et allume des voyants correspondant aux objectifs », résume Romain Chaumais cofondateur d'Ysance, société spécialisée dans le business informatique. A l'inverse, le Big Analytics dégage une logique dans un océan de données bien trop nombreuses pour qu'un humain puisse les analyser. « Le datamining automatisait déjà cette analyse mais avec des échantillons représentatifs. Le Big Data attaque les données dans leur totalité, ce qui permet d'identifier la moindre anomalie, détaille Romain Chaumais. L'informatique décisionnelle (en anglais : BI pour Business Intelligence) désigne, peut-on lire sur le site Wikipedia « les moyens, les outils et les méthodes qui permettent de collecter, consolider, modéliser et restituer les données, matérielles ou immatérielles, d'une entreprise en vue d'offrir une aide à la décision et de permettre à un décideur d'avoir une vue d'ensemble de l'activité traitée. Ce type d'application utilise en règle générale un entrepôt de données (ou datawarehouse en anglais) pour stocker des données transverses provenant de plusieurs sources hétérogènes ». Mais, ces compétences sont rares et beaucoup de projets décisionnels échouent encore en raison d'une mauvaise analyse conduisant à une modélisation des données inadaptée aux besoins. Conséquence : des délais de réponse trop longs quand l'infrastructure ne permet simplement pas d'obtenir les réponses aux questions que l'on se pose. Et, de fait, si la conjoncture actuelle pousse les entreprises à gérer de plus en plus de données, leur problématique à venir va moins porter sur les outils – ils existent et il suffit de les combiner – que sur les hommes capables de concevoir les bonnes infrastructures, plus communément appelés « data scientists » par la société de solutions informatiques EMC. Et ce, afin que le phénomène Big Data ne se résume pas à engranger plus de données inutilement. Si l'exploitation efficace et raisonnée des données informatiques est un défi technique et managérial pour les entreprises, il en va de même pour les autorités publiques. Ces dernières, en plus de devoir apprendre à exploiter la masse de données disponibles pour améliorer les services publics et mieux maîtriser les dépenses, doivent assurer la protection des données personnelles. Ce qui semble déjà poser problème avec certains géants du net très intéressé par le profilage des internautes.

Cliquez ici pour lire l'article depuis sa source.