4 technologies qui vont révolutionner la stratégie Analytics

mc2i - Christophe de Boisset

Une exclusivité Les-Experts.tech

Par Christophe de Boisset, Consultant mc2i Groupe

Il y a près de 10 ans déjà, le Big Data commençait à devenir un buzz-word. Pourtant, beaucoup d’entreprises cherchent encore à adapter leurs modèles analytiques pour capter les bénéfices et les possibilités offertes par cette évolution technologique. Les objectifs sont souvent de briser les silos via des stratégies de lac de données et de BI 2.0, et les DSI rêvent de voir en chaque employé un datascientist source de « disruption ».

Toutefois ce modèle est encore très loin d’être réalisable. Aujourd’hui, l’intervention humaine est toujours nécessaire pour capter les données, choisir leurs modèles, les analyser et les restituer. Et les datascientists sont des ressources rares et recherchées.

Cet écart entre les objectifs affichés par les directions et la réalité concrète des projets, entraîne souvent une désillusion quant à l’utilité de cette technologie. Est-ce pour autant la fin du Big Data ? Rien n’est moins sûr car de nouvelles technologies émergent et pourraient modifier la façon de traiter les données dans les années à venir.

 

Le développement assisté par l’intelligence artificielle

D’aucuns pensent que l’intelligence artificielle ne fera qu’automatiser des tâches répétitives et que les métiers de production intellectuelle ne sont réalisables que par l’homme. Pourtant certaines tâches de développement informatique sont répétitives et donc éligibles à une automatisation par l’IA. Pourrait-on un jour accéder au mythe de l’intelligence artificielle autocréatrice ? C’est la question à laquelle cherche à répondre des collectifs de chercheurs en intelligence artificielle [AI software learn to make AI software]

Des IDE (environnement de développement) commencent déjà à proposer de premières utilisations de l’IA : Visual Studio de Microsoft scanne automatiquement des dépôts Github afin de proposer de l’autocomplétion basée sur les séquences de code déjà rédigées. Des recherches sont actuellement menées pour détecter automatiquement des schémas de bug ou une mauvaise utilisation de variables à partir du code source. De nombreux projets sont open source – notamment sur Github- et pourraient être une source d’apprentissage pour différents algorithmes.

L’IA peut donc être vue comme un soutien aux développeurs dans le cadre de programmes de grande envergure. Même s’il est peu probable que l’on assiste à un remplacement complet des développeurs par des machines, l’IA va considérablement simplifier leurs travaux.

 

L’analyse augmentée

Ce sujet touche directement les analystes puisque c’est bien le cœur de leurs activités qui va être modifié. L’analyse augmentée, est un élément crucial de l’analyse de données. Cela consiste à utiliser les capacités de l’ordinateur pour faciliter la mise en valeur de certains éléments. Une sorte de BI 3.0, dans laquelle les capacités des utilisateurs sont appuyées par de l’intelligence artificielle. Un premier exemple de cette technologie est la fonctionnalité ‘montre-moi’ proposée par Tableau. En effet, le logiciel propose aux utilisateurs des visualisations adaptées à leurs données. On peut alors imaginer, à plus grande échelle, des algorithmes qui étudient les métadonnées et proposent des analyses adaptées pour mettre en valeur des schémas qui sous-tendent un jeu de données.

Avec le développement de l’intelligence artificielle, ces fonctionnalités vont se répandre, pour accélérer les analyses des datascientists, de la même façon que pour les développeurs.

 

L’impact de l’IOT et des smart places

Aujourd’hui nous constatons un écart entre les capacités de calcul des entreprises, qui ont mis en place des clusters Big data, et le volume de données utiles à traiter. Malgré l’augmentation des capacités de calcul, peu de secteurs ont réellement le volume et la qualité de données pour justifier un ROI sur de gros projets d’analyses.

Deux nouveautés néanmoins sont en train de modifier cet état de fait. L’IoT, et à plus forte raison, les smart places (c’est à dire certaines structures totalement digitalisées comme le réseau électrique urbain via les smart-grid par exemple) commencent aujourd’hui à générer des volumes que l’on peut réellement qualifier de Big Data. Les multiples capteurs installés partout, captant toutes les informations à une granularité très fine et sans intervention humaine source d’erreur, permet de reconstruire des modèles digitaux de notre réalité.

Ce changement va devenir crucial dans les années à venir. Les craintes des utilisateurs – cf. l’actualité autour de Linky ou du RGPD- face à cette hyper digitalisation repose essentiellement sur l’utilisation qui sera faite d’une telle quantité de données. Les notions de vie privée et d’éthiques ont été longuement abordées à la mise en place du RGPD.

 

L’ordinateur quantique

L’ordinateur quantique est longtemps resté un sujet de science-fiction tant les contraintes techniques limitaient les avancées dans ce domaine. Cependant, de récentes nouvelles laissent penser que ces projets se concrétisent de plus en plus : Gartner l’a même élu comme technologie phare pour 2019.

L’ordinateur quantique est un réel changement de paradigme par rapport au système binaire que nous exploitons actuellement. Il fait passer les plus puissants clusters actuels pour de simples calculatrices. Avec une telle puissance de calcul nous devrions voir émerger de nombreuses utilisations notamment en cryptographie, mais également dans le monde de l’analyse médicale par exemple, pour des usages comme le décryptage du génome ou l’identification des facteurs de propagation de certaines maladies.

Aujourd’hui déjà, ce n’est pas la puissance de calcul qui manque aux entreprises. L’utilité dans l’analyse de telles machines ne va se poser que si nous sommes capables de générer suffisamment de données de qualité pour que les outils distribués actuels ne suffisent plus.

 

Ces évolutions technologiques, accélérées par les progrès de l’intelligence artificielle devraient rendre aujourd’hui l’analyse de données plus accessible et plus courante. Elle ne sera pas pour autant accessibles aux non-initiés. Le choix d’un algorithme, les résultats qu’il retourne ou l’évaluation de ceux-ci nécessitent de comprendre certaines mécaniques mathématiques et d’être capable de manipuler les données via différents langages. Cependant, avec l’avancée de l’IOT et des smart places, à mesure que la donnée devient plus accessible et les analyses plus faciles à déployer, nul doute que les dirigeants de demain seront des analystes autant experts dans la compréhension de leurs données que de leurs métiers.

%d blogueurs aiment cette page :