Free cookie consent management tool by TermsFeed
C'est pas mon idée !

samedi 27 décembre 2014

Google veut automatiser l'analyse de données

Google Research
Les géants du web ont littéralement inventé le concept de « big data ». Depuis, toutes les entreprises tentent de s'en emparer. Hélas, les compétences nécessaires – celles des fameux « data scientists » – sont rares et cette pénurie limite les opportunités… Qu'à cela ne tienne, il suffit d'automatiser leur travail : voilà le nouveau pari de Google !

Certes, il existe déjà, dans le même but, quelques offres qui prennent en charge les tâches laborieuses afin de libérer plus de temps pour l'exploration des données, ainsi que des solutions qui tentent de faciliter l'accès aux techniques évoluées d'analyse. Mais pourquoi ne pas rêver à des algorithmes qui seraient directement capables de détecter des motifs ou des tendances dans des masses d'information ou, au contraire, de repérer seuls des anomalies dans des modèles statistiques ?

Il s'agit justement de l'enjeu des recherches d'une équipe de l'université de Cambridge et Google est tellement séduite par cette idée qu'elle vient de lui attribuer une donation de 750 000 dollars (sans la moindre contrepartie) pour poursuivre ses travaux sur un système d'intelligence artificielle de l'analyse de données. Il est vrai que ceux-ci sont suffisamment avancés pour qu'un démonstrateur (simplifié) de « The Automatic Statistician » ait été mis en ligne publiquement au cours de l'été (retiré maintenant, mais une nouvelle version devrait être disponible début 2015).

The Automatic Statistician

À ce stade, le moteur qui a été élaboré reste embryonnaire. Il permet uniquement l'analyse de séries de données temporelles, au sein desquelles il va identifier les tendances significatives et les éventuelles exceptions que ces dernières comportent. Dans une logique de vulgarisation de l'accès à l'information, les algorithmes produisent un rapport illustré, de 5 à 15 pages, décrivant par le menu et en anglais « simple » les résultats obtenus. Dans une future incarnation, le système sera généralisé de manière à prendre en compte d'autres typologies de données.

L'ambition des chercheurs de Cambridge est de résoudre simultanément deux grands défis de la société numérique. D'une part, la masse d'information disponible – en croissance exponentielle – ne pourra être exploitée uniquement par des experts trop rares et trop coûteux : seule l'automatisation peut démocratiser l'accès à cette ressource. D'autre part, les résultats des analyses fourmillent aujourd'hui de concepts mathématiques qui les rendent complexes à interpréter : il faut impérativement les mettre à la portée du commun des mortels afin qu'ils soient largement utilisables.

En perspective, qu'on le souhaite ou non, il ne nous sera donc bientôt plus possible d'échapper aux algorithmes prédictifs omniprésents…

Information repérée grâce à Alexander Linden (Gartner). Merci !

Aucun commentaire:

Enregistrer un commentaire

Afin de lutter contre le spam, les commentaires ne sont ouverts qu'aux personnes identifiées et sont soumis à modération (je suis sincèrement désolé pour le désagrément causé…)