Bigdata 1 JUIN VOYAGE AU C ?UR DU BIG DATA CONTEXTE ?? TECHNOLOGIES ?? DOMAINES D ? APPLICATION ?? PERSPECTIVES CLE BIG DATA ? PAR ALEXEI GRINBAUM Direction de la recherche fondamentale Alexei Grinbaum est physicien et philosophe Il travaille au Laboratoi

JUIN VOYAGE AU C ?UR DU BIG DATA CONTEXTE ?? TECHNOLOGIES ?? DOMAINES D ? APPLICATION ?? PERSPECTIVES CLE BIG DATA ? PAR ALEXEI GRINBAUM Direction de la recherche fondamentale Alexei Grinbaum est physicien et philosophe Il travaille au Laboratoire de recherche sur les sciences de la matière Institut de recherches sur les lois fondamentales de l ? Univers du CEA OCTET Unité de mesure de la quantité de données pouvant être produites ou stockées Un kilooctet Ko correspond à mille octets quelques Ko c ? est le poids d ? un simple ?chier texte un mégaoctet Mo à un million d ? octets un CD-Rom fait Mo un gigaoctet Go à un milliard d ? octets la taille d ? une clef USB varie usuellement de à Go certaines allant jusqu ? à voire Go et un teraoctet To à mille milliards d ? octets soit la capacité de stockage d ? un disque dur performant ALGORITHME Description traduisible sous forme d ? un programme dans un langage informatique d ? une suite ?nie d ? étapes à exécuter pour obtenir à partir de données en entrée des données en sortie en vue d ? un objectif prédéterminé CALCUL HAUTE PERFORMANCE Représenter virtuellement des objets des phénomènes ou des systèmes particulièrement complexes nécessite d ? utiliser des calculateurs extrêmement puissants les supercalculateurs Aujourd ? hui les plus performants sont capables de réaliser plusieurs millions de milliards d ? opérations à la seconde peta op s D ? o? le terme de calcul haute performance ou HPC pour High Performance Computing qui désigne également par extension la science développée autour de ces équipements matériels logiciels etc - Voyage au c ?ur du Big Data DÉFINITION Big Data ?? de quoi parle-t-on ?? C ? est dans les années que le terme Big Data prend sa signi ?cation actuelle ?? un dé ? technologique à relever pour analyser de grands ensembles de données d ? abord scienti ?ques mais de plus en plus souvent collectés au quotidien par divers moyens techniques Big Data désigne à la fois la production de données massives et le développement de technologies capables de les traiter a ?n d ? en extraire des corrélations ou du sens Dé ?nition en sept étapes ? VOLUME Qui dit données massives dit volumes allant du kilooctet au petaoctet dépassant toute capacité de traitement rapide par le cerveau humain VÉLOCITÉ Fréquence à laquelle les données sont générées traitées et mises en réseau Cette fréquence étant de plus en plus élevée il est très souvent nécessaire d ? employer les ressources du calcul haute performance extreme computing Climatologues voir page astrophysiciens voir page comme spécialistes en génomique voir page en sont de fervents utilisateurs VARIÉTÉ Les données peuvent être textuelles visuelles ou sonores scienti ?ques ou provenant de la vie courante structurées ou non D ? o? la nécessité de les analyser automatiquement par des algorithmes pour en extraire des corrélations et des connaissances data mining et quelquefois de les représenter

  • 31
  • 0
  • 0
Afficher les détails des licences
Licence et utilisation
Gratuit pour un usage personnel Aucune attribution requise
Partager