Decideo - Actualités : Data Science, Big Data, Business Intelligence

Interview de Stéphanie Bompas, PDG de CMV Informatics à l'occasion de la sortie de l'application Posipricing

Posipricing est une application, développée par CMV Informatics, pour rendre la veille concurrentielle intelligente, dynamique et même "agréable", aux dires de son éditeur. Nous en parlons avec la PDG de l'entreprise. Posipricing s'adresse aux décideurs des secteurs du e-commerce et de la distribution, qui passent beaucoup de temps à surveiller les prix de leurs concurrents. C'est pour les aider à surveiller leur image prix, à optimiser leur offre auprès des consommateurs et à connaître les informations de leurs concurrents que CMV Informatics a créé Posipricing. "Cette solution permet d'effectuer une veille tarifaire et des analyses concurrentielles intelligentes et dynamiques", explique l'éditeur. Nous avons posé nos questions à Stéphanie Bompas, PDG de CMV Informatics au sujet de cette application. Decideo : La veille concurrentielle en matière de prix, est-ce essentiellement collecter de la donnée ? Stéphanie Bompas, CMV Informatics : La collecte de la donnée…

Podcast: Ramzi Larbi, fondateur de VA2CS

VA2CS a développé un système d'alerte automatique visuelle à destination des personnes âgées. A base d'apprentissage machine, il détecte les comportements anormaux (chutes, levers nocturnes, perte de conscience...) afin de déclencher la réponse adéquate. Mais demain, il pourra devenir prédictif !

Podcast: Clément Monnet, Avocat au Cabinet Norton Rose Fulbright

A l'occasion d'une décision rendue par l'Office Européen des Brevets, qui refuse le statut d'inventeur à une intelligence artificielle, nous faisons le point sur l'état du droit, et comment il pourrait évoluer dans les prochaines années : vers la reconnaissance d'une personnalité électronique.

Podcast: Mehdi Merai, CEO de Dataperformers

Co-fondateur et dirigeant d'une startup québécoise spécialisée en intelligence artificielle, Mehdi Merai nous explique ce qui fait le succès d'une entreprise dans ce domaine en 2020, et comment il a vécu ses premières années d'entrepreneur.

Podcast: Adrien Gabeur, directeur en charge des solutions d'IA chez Sinequa

Sinequa, éditeur spécialiste de la recherche intelligente de données, a dévoilé récemment les résultats de sa dernière étude sur le niveau de préparation des grandes organisations en matière de RGPD. Cette étude, réalisée par l'institut indépendant Sapio Research, évalue les mesures mises en œuvre depuis deux ans en France, en Allemagne et en Grande-Bretagne. Il s'agit d'un panel représentatif de 752 professionnels, décisionnaires métier provenant des secteurs d'activité clés (Télécommunications 27%, Finance 18%, industrie manufacturière 14%), ou IT (responsables informatiques 38%, cadres 28%, C-Level 21.5% ou d'autres types 10.5%).

Direction générale de la santé : des problèmes récurrents de « remontée des données » … en réalité des erreurs, et peu de systèmes de contrôle

Ce ne sont que deux petites lignes, les dernières du communiqué de presse quotidien de la direction générale de la santé, qui a pris grand soin de ne pas insister sur cette incohérence… Mais ces deux petites lignes sont un exemple criant de l’inutilité d’un système décisionnel qui se concentre sur la visualisation des résultats, sans investir suffisamment dans la vérification de la qualité des données fournies. « Entre le 16 et le 17 mai, 483, nouveaux décès liés au coronavirus ont été recensés en France, dont 429 en Ehpad, du fait d’une actualisation des données remontées par les Agences régionales de santé, indique ce dimanche la Direction générale de la santé », explique BFM TV. « Une actualisation des données remontées par les Agences régionales de santé », quelle belle paraphrase pour ne pas avouer des erreurs dans les données communiquées, et une absence de contrôle de la qualité des données. De quelle erreur parle-t-on entre les…

Podcast: Henry Peyret, Auteur et techno-philosophe

Henry Peyret a été pendant plus de 20 ans, un des principaux analystes du marché informatique en France, pour Giga Group puis Forrester Research. Il nous a accordé une interview exclusive, sous forme de conversation parfois presque philosophique, mais toujours pragmatique, sur l'évolution des valeurs, des modèles économiques, et des technologies sous-jacentes.

La RPA permettra de concentrer les collaborateurs sur l’innovation, le commercial et la recherche de nouveaux marchés...

... tandis que les assistants numériques réaliseront efficacement les reportings ! Interview de Jean-François Pruvot, Vice-Président Europe du Sud chez Blue Prism. Défenseur du développement de l'automatisation des processus en période de crise, Blue Prism explique comment la "RPA" - Robotic Process Automation - permet d'absorber des pics d'activité, alors même que le nombre de salariés disponibles est en baisse. Que se passera-t-il une fois la crise terminée ? Les salariés "automatisés" retrouveront-ils leur emploi ? Ou saura-t-on les affecter à des tâches à plus forte valeur ajoutée, et accélérer ainsi la transformation digitale ? Nous avons posé quelques questions à Jean-François Pruvot, Vice-Président Europe du Sud chez Blue Prism. Decideo : Parler d'automatisation des processus alors que le monde entier est en chômage technique et que des millions d'emplois risquent d'être détruits par la crise en cours, c'est incroyablement provocateur ! Quel rôle…

Note de recherche : Glossaire des 70 métiers de la donnée (Contenu Premium accessible gratuitement)

Un document de recherche recensant les métiers de la data, leur dénomination en français, en anglais, quelques explications, et leur fréquence d'utilisation. Data Analyst – Analyste de données, Data Scientist – Scientifique des données, Data Engineer – Ingénieur de données, Data Manager – Gestionnaire de données, Data Specialist – Spécialiste des données, Statistician – Statisticien, Business Intelligence Analyst – Analyste en intelligence d’affaires, Data Architect – Architecte de données, Information Manager – Gestionnaire de l’information, Information Analyst – Analyste de l’information... connaissez-vous tous ces métiers ? Dans ce document, nous avons recensé, traduit et classé, les 70 métiers liés à la donnée et à son traitement. Ce travail de compilation, a permis d'identifier : - les 10 métiers les plus fréquemment cités dans Google; - les 10 métiers les plus fréquemment utilisés sur LinkedIn; - le podium des trois principaux…

YZR, une solution tactique pour normaliser un premier référentiel de données

Avec un modèle mixte entre édition de logiciels et prestations de service, YZR propose deux outils-services Taxonomyzr et Normalyzr. Ils permettent respectivement d’automatiser la production des référentiels et de normaliser automatiquement les données. Des outils tactiques qui peuvent apporter une aide précieuse dans le cadre d’une démarche de gouvernance des données. YZR (prononcez « wizer »), est une jeune entreprise – moins d’un an – mais créé par des moins jeunes ! Les fondateurs ont en effet cumulé de nombreuses années d’expérience chez de grands utilisateurs de données comme L’Oréal, McDonald’s, Elia, Google, Publicis ou encore eDreams. Leur projet : aider les entreprises à y voir clair dans leurs données, en automatisation la normalisation de ces dernières. Un problème simple en apparence… tellement simple qu’aucune entreprise ne parvient aujourd’hui à le résoudre simplement… et pour lequel des milliers d’heures en « moulinettes…

Les bases de données NoSQL au secours des nouvelles applications dans la banque

Couchbase est une base de données NoSQL orientée document qui envoie et reçoit des données en s'appuyant sur le protocole JSON (JavaScript Object Notation). L'éditeur travaille essentiellement avec des clients du secteur financier. Les bases de données relationnelles et les environnements informatiques classiques ne sont pas en mesure de répondre à ce qu'attendent les clients des banques en terme de service : difficulté à gérer les risques, limites en matière d'analyse et de dimensionnement, ou encore contraintes dans l'automatisation de la mise en conformité. Les Fintech sont sur ce plan, plus agiles que les grandes banques traditionnelles. Les solutions existent, elles passent entre autres par une transformation numérique de tous les processus. Mais les systèmes d'information classiques restent encore très structurées autour de bases de données relationnelles. Le monde du document et de la donnée non structurée, nécessitent la maitrise de nouveaux outils. Nous en…

GouvInfo IAI publie l'édition 2020 de son livre blanc sur la gouvernance de l’information

La nouvelle édition du document « Gouvernance de l’information : un océan bleu » est disponible depuis le 1er mai. Publié par l’association GouvInfo IAI, l’océan bleu est un recueil de 14 articles écrits par des professionnels de l’information. Ils nous expliquent et racontent leur quotidien, et leur chemin vers la gouvernance de l’information. Lionel Husson, François-Benjamin Remazeilles et Jean-Pascal Perrein ont mis en musique, pour GouvInfo IAI, les témoignages de : • Gérard Bagnoud – Directeur UNIRIS • Christophe Binot – Responsable gouvernance de l’information TOTAL • Marc Borry – Premier conseiller Police Fédérale de Belgique • Yael Cohen Hadria – Associate Marvell Avocats • Olivier Deboisboisel – Président PAGE • Marie-Laurence Dubois – Président AAFB • David Fayon – Groupe la Poste • Alain Garnier – Président Jamespot • François Herlent – Responsable gouvernance de l’information Maif • Jannick Labatut –…

"Notre vision des métadonnées est large, incluant à la fois les métadonnées techniques mais aussi métiers", explique Philippe Assunçao de TIBCO

Des données, c'est bien; des métadonnées, c'est mieux. Mais comment ça marche, ça sert à quoi ? Nous avons posé quelques questions, en particulier pour comprendre comment les métadonnées interviennent dans le cadre de la mise en conformité d'une entreprise avec le RGPD. Alors que TIBCO vient de lancer sa plateforme TIBCO Cloud Metadata, il est important de rappeler qu'un système d'information efficace est un système d'information gouverné. Et que la gouvernance passe par quelques fourches caudines que sont la gestion d'un dictionnaire de données; et justement la collecte, le stockage, la mise à disposition et l'analyse des métadonnées, les données sur les données. "Une bonne gestion des métadonnées permet de capter les moindres détails concernant la structure des données, leur utilisation ainsi que leur impact au sein de l’organisation. A contrario, une mauvaise gestion des données rend difficile la conformité aux réglementations, comme la RGPD. En effet,…

Podcast: Rik Van Bruggen, VP Sales EMEA de Neo4j est notre invité

Neo4j a 10 ans, pas plus. Et c'est sans doute la raison pour laquelle les bases de données graphes sont encore peu connues dans les directions informatiques. Pourtant, dans un monde de relations, de connexions, les bases de données relationnelles ne sont plus forcément les plus efficaces. A découvrir...

Dictionnaire des données : une définition expliquée en détail

Élément essentiel d’un projet de gouvernance des données orientée métiers, le dictionnaire des données est un des livrables du travail de cartographie, première étape de cette démarche de gouvernance. Définition et explications. Il y a quelques semaines, je vous proposais de réfléchir à l’usage des mots dictionnaire, référentiel, catalogue, pour nommer le résultat du travail de cartographie des données, et le document qui en est extrait. Nous parvenions à la conclusion que la notion de « référentiel » est la plus correcte pour décrire ce travail. Mais que dans un premier temps, le concept de « dictionnaire » est une première étape. Lançons-nous maintenant dans une définition de ce qu’est un dictionnaire des données : Le dictionnaire des données est un inventaire des actifs immatériels que sont les données, qui permet aux utilisateurs de découvrir et d’explorer tous les jeux de données disponibles, d’améliorer leur compréhension de ces…

Entrainer l’apprentissage machine sans données d’entrainement, ce serait possible !

Peut-on apprendre à un algorithme d’apprentissage machine à prédire ce qu’il n’a jamais appris ? En d’autres termes, peut-on entrainer un algorithme d’apprentissage machine sans données d’entrainement ? Imaginez que vous souhaitez détecter automatiquement des OVNIs dans le ciel, mais vous n’avez aucune photo d’OVNIs confirmés pour que l’algorithme puisse s’entrainer ; ou alors repérer des transactions frauduleuses, alors même que vous n’en avez jamais eu, ou pas assez… Ne pourrait-on pas tout simplement créer de fausses données d’entrainement ? C’est ce que propose de faire la startup israélienne Ai.Reverie, dans laquelle In-Q-Tel, la société de capital risque de la CIA, vient d’investir… Si leur technologie fonctionne, et moyennant les précautions que nous allons détailler plus bas, cela pourrait rendre l’apprentissage machine efficace dans des milliers de situations dans lesquelles les données manquent ! Soit les données sont…

Neo4j ouvre sa base de données graphes en cloud public

Le service Aura, qui représente la version de Neo4j disponible en cloud public, a été annoncé il y a quelques mois. Il est maintenant disponible et les tarifs sont annoncés. Dominée par les bases de données relationnelles depuis plusieurs décennies, l’architecture des systèmes d’information s’ouvre peu à peu aux bases de données graphes. Même si les concepts théoriques des bases de données graphes datent de la fin des années 60, il faudra attendre le début des années 2000, et la création de Neo4j, le pionner, pour que cette théorie soit transplantée dans un produit commercial. Quinze ans après, c’est maintenant en cloud et en mode «Data Base as a Service» que Neo4j propose sa base de données graphes, au travers de son service auto-administré, « Aura ».

Invenis met la création de modèles prédictifs à la portée d'un analyste de données

Machine Learning, Deep Learning, Regression linéaire, arbres de décisions, algorithmes prédictifs... que de mots compliqués pour automatiser la prédiction. Le sujet est-il vraiment réservé aux experts en statistiques ? "Non", pense Grégory Serrano, co-fondateur de Invenis, qui défend l'idée qu'un expert métier peut, sans devenir data scientist, créer et générer des modèles prédictifs. Pour comprendre ce qu'un analyste de données peut espérer faire aujourd'hui, sans disposer de l'expertise d'un Data Scientist, nous avons posé quelques questions à Grégory Serrano, co-fondateur de Invenis. Decideo : Le citizen data scientist est un concept encore peu développé dans les entreprises françaises. Vous l'utilisez comme axe de communication, comment définissez-vous cette fonction, et la voyez-vous se développer dans certaines entreprises ? Grégory Serrano, cofondateur de Invenis : Le concept du Citizen Data Scientist repose sur le fait qu’un collaborateur qui…

Et si l'on écoutait quelques podcasts sur la culture de la donnée ! data, data, data...

La période de confinement que nous vivons, nous conduit à rechercher des activités diversifiées. Marre des longues journées à alterner entre l’écran de l’ordinateur en télétravail, et celui de la télévision du salon… Oui, entre Zoom et Netflix, il y a d’autres alternatives. Et si pour reposer vos yeux, vous écoutiez la radio ? Pas forcément sur le vieux poste à lampes dans lequel s’exprimait le Général de Gaulle, mais son équivalent moderne, c’est à dire le podcast ! Ecouter un podcast c’est profiter d'un moment où notre cerveau est sollicité de manière différente. Tout comme la lecture d’un livre est différente du visionnage d’un film, écouter un podcast est différent de regarder une interview filmée. Rappelez-vous, nous avons des yeux, des oreilles, et un cerveau qui se charge d’analyser les messages transmis au travers de ces deux canaux. Vidéo = image + son; Podcast = son ; Livre = image. L’un n’est pas mieux que l’autre; chaque…

Big Data et marketing dans l'assurance : interview de Valérie Calvet, ADLPerformance

78 % des clients ont confiance dans leur assureur principal, mais ce dernier est bien éloigné de leur quotidien. C'est ce que révélait une étude menée par Deloitte et publiée fin 2019 par La Tribune. Dans le même temps, la concurrence arrive et investit des niches, s'appuyant sur le digital, et s'affranchissant de certaines lourdeurs. ADLPerformance, combine différentes expertises qui permettent aux assureurs de : faire remonter la data à l’aide des big data, l’analyser et la rendre lisible grâce à la data sémantique, transformer ces informations en actions prioritaires, structurer en centralisant toutes ces données afin de les enrichir, les segmenter, les scorer, les activer et les automatiser. In fine, en faire un véritable outil d’anticipation, capable de prédire les besoins, identifier des moments de vie et déterminer différents profils. ADLPerformance propose également d'enrichir ces datas de données externes. L’objectif est de développer une…