Decideo - Actualités sur le Big Data, Business Intelligence, Data Science, Data Mining

Éviter le stress lié à la conformité grâce au CCM

Être responsable de la conformité n'est pas une tâche aisée. Ce travail consiste à s'assurer que l’entreprise se conforme aux exigences réglementaires et légales externes, ainsi qu'aux politiques et règlements internes. Cela semble assez simple, mais considérons ceci : le nombre médian de réglementations par industrie aux États-Unis est de 1 130 et il atteint jusqu'à 45 000 réglementations pour le secteur de l'énergie. En Europe, être responsable de la conformité dans une banque n’est pas non plus aisé. On estime que les banques européennes doivent faire face à 185 modifications réglementaires par jour en moyenne, contre 10 seulement en 2004. Et si une entreprise ne se conformait pas ? Que peut-il arriver ? Dans certains cas, cela peut être dévastateur pour l'entreprise. Prenons l'exemple de la loi HIPAA (Health Insurance Portability and Accountability Act), qui définit les règles relatives aux données électroniques sur les soins de santé. Si l’Office…

Open data : le portail d'Issy-les-Moulineaux fait peau neuve

Initiée dès 2012, la démarche open data d'Issy-les-Moulineaux n'a cessé de s'amplifier. Aujourd'hui, en lien avec son partenaire, la start-up OpenDataSoft, la Ville déploie une nouvelle version de son portail data.issy.com, afin de gagner en compréhension pour les utilisateurs et mettre en valeur les visualisations obtenues à partir des données. Plus clair, plus ludique, adapté à la navigation sur smartphone : le portail open data d'Issy s'offre un lifting, en lien avec la refonte du site Internet www.issy.com. Organisé autour d'une barre de recherche et de 4 rubriques, il invite les internautes à consulter les visualisations réalisées grâce aux données brutes, comme le rapport financier ou les résultats électoraux. Il incite également les visiteurs à jouer avec les données par la création de cartes, de graphiques et répertorie les données les plus populaires. #LaDataNotreDada depuis 7 ans L'initiative open data d'Issy-les-Moulineaux remonte à 2012, bien…

Comparatif des offres Cloud pour le traitement de la langue naturelle

Ci-contre : article de National Geographics, Why Do Many Reasonable People Doubt Science? support de ce comparatif. Nous remercions National Geographics pour la fourniture du contenu de l’article en 4 langues : anglais, français, espagnol et allemand. La lecture par des machines de contenus écrits par des humains est un domaine de l’intelligence artificielle appelé traitement de la langue naturelle. Ce champ de recherche à la croisée de la linguistique, de la sémantique et de l’apprentissage automatique a atteint un niveau qualitatif suffisant pour quitter les laboratoires et investir l’économie productive. Des entreprises de tous secteurs d’activité utilisent aujourd’hui ces technologies pour valoriser leurs données et augmenter leur productivité. Des cas d’usage fréquents sont l’indexation et de la catégorisation de contenus, la fouille de données, l’analyse de retours consommateur, la veille informationnelle. La mise en œuvre des technologies de…

Big Data, IoT, IA : quelle gestion de la donnée ?

L’accroissement des volumes de données dans le sillage des technologies Big Data, IoT et IA est un véritable défi pour les entreprises. La base de données, peu représentée dans les questions liées à la révolution digitale, redevient aujourd’hui l’un des leviers clés des systèmes d’information. Comme souvent dans le digital, si les concepts nouveaux connaissent un enthousiasme débordant, les contours et les définitions ont tendance à diverger : ainsi et par exemple, en fonction de l’interlocuteur, le concept de cloud ne présente pas tout à fait le même visage. Malgré, bien sûr, une définition commune dans les grandes lignes. De leur côté, les Big Data, intelligence artificielle et IoT connaissent également leurs lots de différences marginales de points de vue. Mais c’est surtout leurs relations mutuelles qui impactent la définition qu’on en donne et, in fine, leur mise en œuvre. En ce sens, si le Big Data est globalement reconnu comme le fait de…

Nouvelles innovations de MicroStrategy 2019 pour une adoption maximale de l'analytique dans l'entreprise

La mise à jour de la plateforme rend l'HyperIntelligence™ accessible aux utilisateurs mobiles et permet d'injecter des analyses dans des applications d'entreprise courantes. MicroStrategy® Incorporated (Nasdaq : MSTR), fournisseurs mondial leader de l'Analytique d'Entreprise et des logiciels de mobilité, annonce la disponibilité de MicroStrategy 2019 Update 2, ajoutant de nouvelles fonctionnalités et produits pour MicroStrategy 2019, la première et seule plateforme d'entreprise au monde pour HyperIntelligence, la mobilité transformationnelle et l'analytique fédéré. Conçue pour révolutionner la façon dont les employés accèdent à leurs données critiques et collaborent, MicroStrategy 2019 Update 2 étend la portée d'HyperIntelligence pour développer une culture de la data capable de conduire de manière exponentielle la transformation numérique. MicroStrategy 2019 Update 2 améliore considérablement les fonctionnalités de la plateforme MicroStrategy 2019. Plus…

Big Data & Big Brother : de l’intérêt de connaître notre ADN

La littérature sur le big data est très centrée sur l'intelligence que les entreprises développent dans toutes leurs fonctions (finance, marketing …) par l’analyse de leurs données (clients, fournisseurs, concurrents …) pour optimiser leurs affaires. Cependant le big data concerne bien d’autres données, démographiques, scientifiques, génomiques, cliniques, climatiques, de capteurs en tout genre … qui sont intéressantes pour différents domaines autres que les affaires (politique, médecine, recherche scientifique, historique …). Parmi ces données, il y a celles de l’ADN qui sont utilisables dans différents buts, aujourd’hui par la police, la médecine, la généalogie … et demain par les assureurs, les recruteurs … Ces données ADN sont récentes, leur structure a été mise en lumière en 1953, puis leur connaissance affinée successivement jusque dans les années 1990. Au début un séquençage prenait plusieurs années et coûtait plusieurs millions…

Snowflake : 94 % des entreprises améliorent leurs résultats financiers grâce à l’intégration des données aux processus décisionnels

La première étude annuelle Customer Benchmark de Snowflake montre que les clients de la licorne gagnent en efficacité grâce aux données (tous secteurs confondus). Snowflake, le seul datawarehouse construit pour le cloud, annonce aujourd’hui les résultats de sa première étude Customer Benchmark. L’enquête menée par le cabinet de recherches Walker pour Snowflake révèle que 94 % des entreprises interrogées affirment que la prise de décisions basée sur des indicateurs, fondés sur des données, améliore leurs résultats financiers et leur permet de mieux servir leurs clients. L'enquête montre que les clients de Snowflake ont optimisé la gestion des données et bénéficié d'un accès plus rapide et plus complet à ces dernières. 36% des répondants ont indiqué que les progrès les plus importants avaient été réalisés dans la mise à l'échelle de leur data warehouse et ce, sans interruption ni retard. 35 % ont constaté une amélioration des performances…

Earthcube mise sur le DataHub de MarkLogic pour ses solutions de surveillances stratégiques basées sur l’IA

La start-up française qui analyse grâce à l’IA des images aériennes et satellites afin d’assurer la surveillance de sites critiques fait confiance à MarkLogic pour garantir la sécurité, l’efficacité et l'accessibilité des données de ses clients. MarkLogic Corporation, éditeur d’une plateforme de données permettant d’assurer et de simplifier l’intégration des tous types de données annonce aujourd’hui que la start-up française EarthCube a choisi son C5ISR (Command, Control, Communications, Computers, Combat Systems, Intelligence, Surveillance, and Reconnaissance) Data Hub pour porter son offre de surveillance des sites stratégiques sur l’analyse cartographique et l’IA. Fondée il y a trois ans, Earthcube propose à ses clients, principalement des acteurs de la défense et des industriels, une solution de surveillance stratégique basée sur l’Intelligence Artificielle et l’analyse d’imagerie cartographique. Baptisée, S-Cube cette solution analyse…

Les MSP Hardis Group et Cyllene choisissent la technologie IBM pour accélérer les projets d’Intelligence Artificielle de leurs clients

IBM (NYSE: IBM) annonce qu’Hardis Group et Cyllene, deux Fournisseurs de Services Managés (MSP) Français ont mis en place une architecture technique à destination des entreprises qui souhaitent développer des projets d'Intelligence Artificielle (IA) sur la base du puissant serveur IBM Power Systems AC922. « Nous observons une croissance exponentielle des projets d'Intelligence Artificielle (IA) dans tous les secteurs d'activités. Bon nombre d'entreprises veulent se lancer et découvrir ce que cela peut leur apporter. Fort de ce constat, et des challenges qui les attendent, Hardis Group et Cyllene ont décidé de les assister dans cette transformation en mettant à leur disposition une plateforme d’IA basée sur la technologie IBM Power Systems AC922. » note Stéphane Coche, Responsable des Systèmes Cognitifs IBM. Les préoccupations autour des ressources informatiques étant levées, les entreprises peuvent se concentrer sur l'exploitation des données, le recrutement des…

IA : Lancement de la Chaire de Recherche LegalCluster – Pôle Léonard de Vinci « Intelligence Juridique»

A l'heure où la stratégie française en matière d'Intelligence Artificielle (IA) est au cœur des préoccupations gouvernementales et industrielles. Legalcluster s'associe au Département Recherche du Pôle Léonard de Vinci pour constituer une Chaire sur l'« Intelligence Juridique». L'objectif est de créer un moteur de recherche intelligent dédié au domaine juridique. Legalcluster développe une plateforme de solutions et de services facilitant la collaboration des acteurs du droit des affaires. En collaboration avec les Enseignants-chercheurs du De Vinci Reseach Center (DVRC - laboratoire de Recherche EMLV/ESILV), l'entreprise Legalcluster s'engage, pour une durée de 3 ans, à constituer une capacité de recherche et de développement au profit de l'accompagnement des métiers du juridique à l'ère du numérique. La plateforme Legalcluster propose de définir des « cluster » juridiques dans une approche écosystémique. Son objectif est de garantir la pérennité des…

Western Digital obtient la certification SAP HANA pour sa gamme de baies IntelliFlash, permettant aux entreprises d’accélérer les analyses en temps réel

Les clients de SAP HANA vont bénéficier de gains de performances, d’efficacité et de flexibilité pour l’exécution d’applications critiques et d’analyses en temps réel sur les baies 100 % flash IntelliFlash. Western Digital (NASDAQ : WDC) annonce la certification de son offre de baies 100 % flash IntelliFlash en tant que solution de stockage d’entreprise pour la plateforme SAP HANA®. La gamme IntelliFlash de baies 100 % flash clés en main permet aux entreprises utilisatrices de SAP HANA de réduire le coût du traitement de données, d’analyser celles-ci en continu et d’obtenir des résultats plus rapidement. Les grandes entreprises s’appuient de plus en plus sur la plateforme SAP HANA pour la création, le déploiement et l’exploitation d’applications d’analytique prédictive en temps réel dans le cadre de leur activité. Alors que le volume et l’importance des données ne cessent de croître, il n’a jamais été aussi crucial pour les entreprises de…

Quand les industriels optimisent la qualité de leurs produits grâce à la tomographie à rayons X

Fabriquer un produit sans avoir au préalable testé ou inspecté les différentes pièces qui le composent peut générer des coûts exponentiels pour un industriel. Et si, à l'instar du corps humain, les fabricants faisaient passer un « scanner » au corps de ces composants ? C'est tout l'intérêt qu'apporte la tomographie à rayons X. Méthode d'analyse tridimensionnelle, la tomographie à rayons X permet d'étudier l'apparence externe d'un produit mais également de pénétrer à l'intérieur même des objets pour en étudier, sans destruction, leur structure interne. Scanner en profondeur pour recréer une image 3D De façon pragmatique, un faisceau de rayons X va passer à travers un objet posé sur un support en rotation. Pour chaque position angulaire, une image 2D sera enregistrée par un détecteur. Ensuite, ces images sont assemblées pour permettre une visualisation précise de l'objet en 3D. Fort de cette observation tridimensionnelle, l'opérateur va alors pouvoir…

Sur les 6 niveaux d’automatisation, lequel allez-vous atteindre ?

L’automatisation des tâches est la nouvelle ruée vers l’or : les premiers à s’y atteler auront l’avantage que confère le fait d’être des pionniers et développeront une expérience précieuse. Car l’automatisation est la pierre angulaire de la quatrième révolution industrielle, celle qui voit la machine dépasser l’homme en productivité dans des domaines qui nécessitaient jusque-là une intervention humaine en termes de savoir-faire, de prise de décision et de capacité d’évaluation. Aussi, avoir une longueur d’avance en matière d’automatisation est vital non seulement pour faire la différence dans un monde de plus en plus compétitif, mais aussi pour survivre dans les années à venir. Il n’est pas étonnant alors que certaines entreprises suffisamment prévoyantes intègrent déjà l’intelligence artificielle et le machine learning dans leurs systèmes et processus critiques, en particulier dans les domaines où les progrès de l’automatisation…

Enquête : l’utilisation de l’IA pour la détection de la fraude devrait tripler d’ici 2021

L’analytique avancée et la biométrique prennent une place de plus en plus importante dans le cadre des programmes de lutte contre la fraude, comme l’indique une enquête menée par des experts de la fraude en partenariat avec SAS. Bien que seules 13 % des organisations s’appuient sur l’intelligence artificielle (IA) et l’apprentissage automatique pour détecter et lutter contre la fraude, 25 % d’entre elles prévoient d’adopter de telles technologies dans les 12/24 mois à venir (ce qui représenterait une hausse de près de 200 %). Tel est l’un des enseignements tirés par l’ACFE (Association of Certified Fraud Examiners) à l’issue d’une enquête mondiale sur les tendances globales en matière de lutte contre la fraude menée en collaboration avec SAS, le leader de l’analytique. Pour sa toute première édition, ce rapport sur les technologies anti-fraude examine les données fournies par plus de 1 000 membres de l’ACFE sur l’utilisation de technologies…

Le Data Hub Service de MarkLogic obtient la certification de sécurité SOC 2 de Type II

Le MarkLogic Data Hub Service a obtenu la certification en répondant conformément aux cinq principes de l’audit SOC 2 de Type II : sécurité, disponibilité, intégrité du traitement, confidentialité et privacy. MarkLogic Corporation, éditeur d’une plateforme de données permettant d’assurer et de simplifier l’intégration de tous types de données, annonce aujourd’hui que sa solution MarkLogic Data Hub Service a été certifiée par l’American Institute of Certified Public Accountants (AICPA) et a obtenu le label Service Organization Controls 2 (SOC2) Type II. MarkLogic est déjà une des bases de données modernes les plus sécurisées et la seule à posséder une certification de sécurité Common Criteria. Le MarkLogic Data Hub Service a obtenu la certification selon les cinq principes de l’audit SOC 2 de Type II - sécurité, disponibilité, intégrité du traitement, confidentialité et privacy - renforçant ainsi le leadership de MarkLogic sur le marché de…

Les entreprises françaises prévoient d'allouer 47 millions de dollars en 2019 pour déployer des technologies de gestion des données

Veeam a récemment publié les résultats de son rapport Veeam Cloud Data Management 2019, qui analyse la façon dont les entreprises gèrent leurs données. Si le constat des conséquences négatives d'une mauvaise gestion des données – pertes financières, perte de confiance des clients et des employés… - est sans appel, le rapport révèle également les bonnes pratiques et solutions que les entreprises peuvent adopter pour poursuivre leur évolution vers une gestion intelligente des données. Cloud, compétences, culture et confiance : les 4 "C" de la réussite Grâce à l’amélioration de la gestion des données, les entreprises sont mieux avisées et plus performantes. Celles qui ont réussi leur stratégie de gestion des données identifient quatre éléments fondamentaux pour y arriver, à commencer par le cloud. En effet, 80 % des entreprises françaises considèrent le Cloud Data Management comme un élément clé de la gestion intelligente des données,…

Le Data Manager: Une profession en passe de devenir incontournable

La gestion des données s'inscrit désormais dans le quotidien des grandes entreprises. Bien que les PME commencent à se rendre compte de l'importance d'une gestion solide des données, cette pratique reste encore peu répandue. Selon une étude de l'Institut Yougov*, 6 dirigeants de PME sur 10 considèrent les données comme essentielles au développement de leurs activités. Et bien que 56 % des dirigeants pensent que les données permettent d'accroître l'efficacité des employés, leur gestion n'est pas la compétence la plus recherchée par les entreprises ; les principales qualités requises sont les aptitudes de collaboration (47%) et la créativité (39 %). Cependant, les entreprises les plus performantes aujourd'hui sont celles qui sont capables d'anticiper les besoins du marché et de faire des prévisions. La gestion de données oblige alors les entreprises à repenser leur organisation interne. Quelle organisation optimale pour la gestion de la donnée ? L'objectif de la…

Mise en conformité au RGPD : l’approche innovante d’Autodesk en matière d’intégration des données

Respecter les exigences strictes du RGPD n’est pas chose facile. Olivier Tijou, Directeur Général de Denodo France, Belux et Suisse francophone, explique comment une grande entreprise a relevé le défi tout en maîtrisant les coûts et les délais. A l’approche du premier anniversaire de l’entrée en vigueur du Règlement Général sur la Protection des Données (RGPD) de l’Union européenne, les entreprises internationales comme Autodesk, éditeur leader de logiciels pour la conception, l’ingénierie, la construction et le divertissement 3D, se sont mises en conformité ou écopent aujourd’hui de lourdes sanctions. Fin 2017, le rapport de Forrester Research « Predictions 2018: A Year of Reckoning » estimait que 80 % des entreprises concernées par le RGPD ne se seraient pas conformées au règlement dans les délais impartis, dont 50 % par choix. Trouver le bon équilibre entre technologie et processus, ou continuer de chercher comment appliquer le sacro-saint RGPD en…

Fujitsu s’associe à SAP pour la distribution des solutions Leonardo

Fujitsu annonce aujourd’hui l’intégration de SAP à son offre de transformation numérique. Les solutions de la suite SAP Leonardo apporteront aux clients de Fujitsu de nouveaux outils pour faciliter la collecte et l’exploitation des données. SAP a conçu Leonardo comme un système d’innovation digital...

Data lakes : comment tirer le plein potentiel du machine learning ?

À l’heure où les données s’imposent comme la source de renseignements n°1 pour les organisations de toutes tailles et de tous secteurs, il est aujourd’hui crucial de les exploiter afin d’obtenir les meilleurs résultats possibles, prendre les décisions les plus éclairées et optimiser la productivité. Chaque action, réaction ou interaction génère cependant la production d’un nouvel ensemble de données, aboutissant ainsi à une avalanche d’informations. Maîtriser l’avalanche Il devient indispensable de stocker et de gérer l’intégralité des données d’intérêt – qu’elles soient structurées ou non – dans un référentiel général. Communément appelé « lac de données » (ou data lake en anglais), ce référentiel constitue aujourd’hui le cœur de l’architecture de gestion des données pour les data scientists. Les data lakes sont bénéfiques à plusieurs égards : - Ils facilitent la découverte de données, - Ils accélèrent les…

L’art de la tarification

Fixer est un prix est un exercice délicat pour les entreprises. En théorie, baisser le prix d’un produit ou service en augmenterait la demande, et vice-versa. Cependant, la réalité est autre. En effet, l’offre, la demande et les prix ne sont pas les seuls facteurs qui influent sur la croissance d’une entreprise. Un acte d’achat est souvent motivé par de multiples facteurs. Si le prix en fait partie, l’urgence, la disponibilité ou encore les substituts en sont d’autres. Néanmoins, pour un vendeur, le prix reste l’un des principaux leviers. Selon l’ouvrage « The price advantage* », une hausse moyenne de 1 % d’un prix permet d’augmenter la rentabilité de 8,7 %. Il faudrait réduire les coûts variables d’environ 2,2 % et les coûts fixes de 7,3 % pour obtenir les mêmes résultats. La donnée pour aider à fixer les prix ? Aujourd’hui, grâce au digital, les entreprises disposent d’importantes informations pour affiner leur stratégie tarifaire.…

Alteryx prédit le gagnant de Wimbledon

Alors que le Grand Chelem anglais débute, Alteryx prédit que Roger Federer va battre Novak Djokovic en finale hommes du tournoi simple. Alteryx, Inc. éditeur de logiciels d’analyse de données, prévoit grâce à un algorithme de Machine Learning l’issue de Wimbledon (finale hommes simple). En analysant près de 100 ans d’Histoire du légendaire tournoi sur gazon à travers les données, Alteryx a construit un modèle prédictif suggérant la victoire en finale de Roger Federer sur Novak Djokovic. En parallèle de cette prédiction, Alteryx dresse aussi le profil du joueur de tennis masculin idéal. Afin de prédire quel athlète remportera le tournoi de Wimbledon en 2019 les équipes d’Alteryx ont développé un algorithme de Machine Learning et l’ont nourri à l’aide de données en provenance de différentes sources. En prenant ces facteurs en compte, l’algorithme a prédit que Roger Federer devrait gagner son 21e Grand Chelem et son 9e Wimbledon cette année.…

L’analytique au service de la lutte contre la fraude aux achats

SAS annonce les résultats d’une étude menée en collaboration avec l'Association of Certified Fraud Examiner. Il y a quelques années, PwC annonçait que la fraude aux achats était le deuxième délit économique le plus signalé dans le monde. Plus récemment, des responsables d'administrations publiques se sont penchés sur la question de la fraude sociale et des arnaques à la TVA. Leur verdict est formel, ils ont dressé un portrait inquiétant qui montre qu’aucune mesure de lutte anti-fraude véritablement efficace n’est prise en compte. A ce titre, pour palier à ces inactions, Bercy a annoncé la création cette semaine d’une unité de « police fiscale ». C’est dans ce contexte que SAS, leader de l’analytique, a interrogé 850 chefs d'entreprise tous secteurs confondus dans la zone EMEA afin d’évaluer les pratiques sur les fonctions suivantes : finances, achats, audit interne, conformité et éthique. L’objectif ? Montrer que l’analytique peut mettre fin…