L’explosion récente des masses de données multimédia et principalement vidéo, générés tant par des professionnels que par des particuliers nous oblige à revoir les méthodes et mécanismes d’analyse traditionnels. En effet, la base de données comme on l’a connait aujourd’hui n’est plus que SQL (NoSql)[1]. Elle doit pouvoir stocker et organiser des données complétement hétérogènes sur des modéles de plus en plus complexes avec en plus une contrainte de taille…La volumetrie.
Dans ce contexte, on voit emerger un mot, une expression,
On définit souvent les « Big Data » par la règle des « 3V »[2] : «…high-volume, –velocity and -variety information assets that demand cost-effective, innovative forms of information processing for enhanced insight and decision making…», ceci définit les enjeux inhérents à l’accroissement des données comme : Volume, Vélocité et Variété. Désormais, on attribue jusqu’à « 5 V » aux caractéristiques du Big Data : la Véracité (notion mise en avant par IBM) qui discute la pertinence en prenant compte du contexte. La valeur, qui montre plutôt l’interet économique, scientifique et technologique de la donnée.
Ces 5 caractéristiques, axes ou dimensions du Big Data sont pris en compte pour arriver à créer de la valeur là où les outils traditionnels étaient contraints par la volumétrie des données et leurs types. Le Big Data permet aujourd’hui de favoriser une médecine préventive et personnalisée. Ainsi, l’analyse des recherches des internautes sur un moteur de recherche a déjà permis de détecter plus rapidement l’arrivée d’une épidémie de grippe. Dans un futur proche, les appareils connectés devraient permettre l’analyse en continu des données biométriques des patients. Elle permet aussi, l’analyse des données du Big Data (données provenant des pass de transport en commun, géolocalisation des personnes et des voitures, etc.) permet de modéliser les déplacements des populations afin d’adapter les infrastructures et les services (horaires et fréquence des trains, par exemple). Comme le montre le profil des participants au salon Big Data Paris 2014, presque tout les secteurs économiques sont concernés par l’utilisation de cette technologie.
Cependant, Il faut savoir que le déploiement de solution Big Data a un cout, qui est financier (infrastructure, solutions logicielles…etc) , d’usage (formation et re-skilling des collaborateurs), de sécurité (En centralisant la donnée, on crée une cible très convoitée) mais aussi de protection de données personnels (Une grande problématique au niveau européen).
Par expérience, il faut savoir que les entreprises aujourd’hui ont la volonté de faire du Big Data, mais on se rend compte rapidement qu’elles n’ont en pas le besoin et que les solutions traditionnels y répondent bien. En effet, elles ne matchent pas aux « 5 V », parfois à cause de la volumétrie qui enfin de compte n’est pas aussi importante, de la vélocité qui n’est pas aussi importante.
Pour conclure, le « Big Data » est une nouvelle technologie de rupture pour certains, une évolution logique des outils de Business Intelligence (BI) pour d’autres. Il faut bien étudier, analyser et comprendre ses besoins en amont avant toute migration ou déploiement. Puis, savoir urbaniser l’infrastructure avec les contraintes rencontrées dans la phase amont. Il ne faut surtout pas hésiter à ce faire accompagner dans ces opérations par des ESN ((Entreprise de Services du Numérique)[3] de plus en plus spécialisées.
sources
[1] https://fr.wikipedia.org/wiki/NoSQL%3Dsike
[2] «Gartner’s Big Data Definition Consists of Three Parts, Not to Be Confused with Three « V »s» 2013
[3] http://www.syntec-numerique.fr/content/les-ssii-changent-de-nom-et-se-renomment-esn[/vc_column_text]