Il s’agit d’un ouvrage collectif de 150 fiches thématiques réalisées par un large panel d’experts multidisciplinaires sur le big data, ses enjeux, ses implications et ses applications. Ce collectif se termine par une mise en perspective dans de nouveaux domaines, tel que le « deep learning » ou « apprentissage profond » qui s’inspire des techniques de probabilités et des réseaux neuronaux.

Au travers des fiches, on prend conscience de la grande diversité des données tant en termes de volume, de variété, de vitesse dans le traitement et l’analyse, de véracité, de visibilité, de valeur et d’usage, en particulier, dans la vie privée. Un des enjeux principaux est l’éducation des producteurs et des utilisateurs de données pour qu’ils puissent « comprendre et évaluer de manière critique les processus de collecte et d’analyse des données », s’agissant des entreprises, des citoyens ou des institutions publiques. Comme le dit Henri Verdier « Nous sommes entrés dans l’ère de la donnée ambiante, nous pensons et agissons dans une ‘copie numérique’ du monde ». Les données toujours plus nombreuses et précises marquent-elles la fin de la théorie ou servent-elles plutôt à mieux caractériser les phénomènes ? En tout cas, la non-qualité des données peut engendrer des conséquences importantes sur les prises de décisions et par ricochet, sur l’équation économique associée.

L’ouvrage illustre parfaitement l’ampleur du sujet dans toutes ses dimensions. Il s’agit d’un bon support pédagogique, mais son accessibilité à une grande population demeure restreinte car souvent écrit dans un langage « parascientifique ». Compte tenu de la vitesse de l’évolution du sujet, l’ouvrage pourrait se démoder rapidement sur certains chapitres. Le glossaire en fin d’ouvrage est excellent.