Decideo - Actualités sur le Big Data, Business Intelligence, Data Science, Data Mining

Business Intelligence : L’innovation est-elle en panne ?

Après le choc de la fin des années 2000, la décennie 2010 a vu l’émergence de la Business Intelligence agile, et de concepts tels que la mobilité, la visualisation graphique, la mise en récit des données, le langage naturel, l’analyse prédictive. Mais depuis quelques temps, le rythme d’innovation semble se ralentir. C’est en tous cas la perception de nombreux analystes et utilisateurs. Sommes-nous parvenus à la fin d’un cycle ? Sur quoi devraient travailler les éditeurs de logiciels pour reprendre l’initiative ? Il y a une dizaine d’années, le monde des outils de Business Intelligence était en pleine révolution. Petit retour en arrière. Nous sommes en 2008, et une vague de rachats sans précédent touche le secteur des outils de reporting et d’analyse de données. Comme l’analysait à l’époque Michael Albo, les rachats se sont enchainés : dont les plus importants ont été, Hyperion par Oracle, Business Objects par SAP et Cognos par IBM. Entre temps,…

Atos lance le serveur Edge Computing le plus performant au monde

A l’occasion de la 4ème édition des Atos Technology Days organisée à VivaTech, Atos, leader international de la transformation digitale, annonce aujourd'hui le lancement de BullSequana Edge, le serveur Edge Computing le plus performant au monde, pour le traitement des données en périphérie. BullSequana Edge est conçu pour être utilisé en toute sécurité pour l’Internet des Objets (IoT), dans des environnements où les temps de réponse rapides sont critiques - tels que l’industrie 4.0, les véhicules autonomes, la santé et la sécurité des commerces et des aéroports – et pour lesquels les données doivent être traitées et analysées à proximité de la source d’origine en temps réel. Le serveur embarqué BullSequana Edge gère et traite en toute sécurité les données IoT, à proximité de la source où elles sont générées, afin qu'elles soient traitées immédiatement. Il analyse et exécute en temps réel des applications d'intelligence artificielle…

Alibaba Cloud et L'Oréal lance la première application mobile contre l'acné pour EFFACLAR

Le groupe L’Oréal et le groupe Alibaba ont annoncé conjointement EFFACLAR SPOTSCAN de La Roche-Posay, la première application de test mobile au monde contre l’acné alimentée par l’intelligence artificielle (IA) aujourd’hui lors du salon Viva Technology. EFFACLAR SPOTSCAN permet aux consommateurs en proie à l’acné, mais avec un accès limité à une assistance dermatologique de réaliser des autotests professionnels de la peau n’importe où et à tout moment, et de proposer des solutions de soins adéquats. L’application EFFACLAR SPOTSCAN en Chine est soutenue par les technologies d’IA apportées par Alibaba. Sur la base des images d’acné collectées et des résultats d’analyse des dermatologues, les data scientistes ont utilisé des technologies de Deep Learning, notamment la classification et la détection d’objets, afin de créer un réseau de neurones dédié au test de l’acné. Il est capable de faire le lien entre l’information visualisée et le…

Le traitement visuel de la data : sommes-nous aussi intelligents que des chimpanzés?

Peut-on renforcer notre intelligence au point d'atteindre certaines capacités du chimpanzé, et optimiser ainsi notre prise de décision ? Il existe de nombreuses formes d'intelligence. Le calcul du QI valorise principalement l'intelligence logico-mathématique, mais il existe également l'intelligence spatiale, l'intelligence interpersonnelle ou encore l'intelligence rythmique. Qu'en est-il du traitement visuel hyper rapide ? C'est une compétence que détiennent par exemple les chimpanzés, développée pour favoriser la survie en milieu hostile et que nous avons perdue, au profit du langage. Si la technologie nous rendait cette capacité, serait-ce une révolution dans la prise de décision contextualisée et l'analytique ? Sans aucun doute.

SAS nommé parmi les « Leaders » du Magic Quadrant de Gartner dédié aux outils de qualité des données

SAS annonce avoir été nommé parmi les Leaders du Magic Quadrant de Gartner consacré aux outils de qualité des données(1) pour sa vision complète et sa capacité d’exécution. L’éditeur se voit ainsi reconnu pour la 13e fois consécutive. Selon les termes du rapport, « Les outils de data management sont essentiels aux transformations numériques des entreprises. C’est particulièrement le cas aujourd’hui, à l’heure où beaucoup d’entre elles disposent de nouvelles fonctionnalités d’automatisation ou d’apprentissage automatique, et ont adopté des workflows orientés métiers ou cloud. » « La réussite de la transformation numérique et des projets d’intelligence artificielle est conditionnée par la qualité des données. Les entreprises doivent pouvoir se fier aux données alimentant leurs processus analytiques, et mettre en œuvre des politiques de gouvernance afin de réduire leurs délais de rentabilisation », déclare Todd Wright, responsable sénior…

Qlik évolue vers une plateforme SaaS d’analyse dans le Cloud, avec de nouvelles capacités multicloud et d’Intelligence Augmentée

Des innovations et des options étendues de déploiement sont disponibles selon un modèle de licence unique pour plus de flexibilité et de choix pour les clients. Qlik présente diverses innovations dans les domaines du multicloud et de l’Intelligence Augmentée, qui lui permettent de se positionner comme le leader des plateformes SaaS d’analyse pour les entreprises. En s’articulant autour du noyau Associative Difference® de sa plateforme d’analyse et de son architecture Cloud native reposant sur Kubernetes, Qlik est désormais en mesure de fournir Qlik Sense® Enterprise uniquement sur l’environnement Qlik Cloud® Services. La plateforme d’analyse Qlik® s’aligne ainsi sur la stratégie « Cloud-first » des entreprises et offre aux utilisateurs un choix et une flexibilité de déploiement hors pair, ainsi qu’une expérience homogène. En outre, Qlik devient le premier fournisseur de plateformes modernes de BI (Business Intelligence) et d’analyse en offrant un…

MarkLogic lance le Pharma Research Hub pour accélérer la recherche dans le monde de la santé et du médicament

Une solution cloud entièrement managée pour accélérer la recherche et le développement des médicaments et contribuer au fonctionnement optimal de l’intelligence artificielle. MarkLogic Corporation, éditeur d’une plateforme de données de nouvelle génération pour la simplification de l’intégration des données de toutes sortes, a annoncé aujourd’hui le lancement de son MarkLogic Pharma Research Hub, qui permet aux sociétés pharmaceutiques de réduire les coûts des essais de médicaments et d’accélérer la recherche. Il aide en effet les chercheurs à trouver, synthétiser et partager rapidement et facilement des données de haute qualité — notamment des données génétiques, protéomiques, pharmaceutiques, textuelles, binaires et des résultats d’essais cliniques — au sein d’un seul service cloud. Le MarkLogic Pharma Research Hub utilise le machine learning et d’autres technologies de pointe, notamment l’analyse sémantique, la correspondance…

Informatica annonce le lancement de la première solution de streaming dédiée aux entreprises pour la gestion de leurs données hybrides

Une solution unique qui permet une ingestion de données en temps réel et un traitement de toute latence dans les environnements Cloud et « on-premise ». Une solution unique, complète et adaptable de gestion des données en continu pour prendre en charge tous types d'utilisation et tous les modèles de déploiement. Permet une ingestion de flux en temps réel de l'IoT ainsi que des machine data (serveurs de données, robots par exemple) issues de l'Intelligence Artificielle et du Machine Learning. Prise en charge de l’ingestion de données de masse originaires d'une variété de sources (streaming, fichiers, capture de données en mode delta (CDC) …) Informatica, leader de l’Enterprise Cloud Data Management, annonce la première solution de données de traitement en temps réel et d'ingestion de données d'entreprise pour les déploiements hybrides, permettant ainsi aux entreprises de prendre des décisions business avisées grâce aux données, et en temps réel. Cette…

IBM étend son projet « New Collar » à la France

À l'ère du cloud hybride, du digital et de l'IA, les écoles P-TECH, la plateforme digitale SkillsBuild et des programmes éductatifs innovants pour préparer aux métiers de demain. IBM (NYSE : IBM) a annoncé aujourd'hui son intention de mettre en place son projet « New Collar » en France, afin de préparer chacun aux métiers de demain à l’ère du cloud, de la data, et de l’'IA. Le projet « New Collar » comprend : Le lancement des premières écoles P-TECH en France, en permettant aux adolescents de tous milieux confondus de développer les compétences requises pour les métiers de demain; Le déploiement de la plateforme digitale SkillsBuild aidant les chômeurs et les personnes en reconversion professionnelle à développer les compétences techniques et professionnelles requises pour réintégrer la vie professionnelle ; De nouveaux engagements dans les programmes d'apprentissage, notamment la participation au projet OpenClassrooms. Cette annonce, a été faite lors…

Umanis devient partenaire Gold de Cloudera en France

Avec le plus grand nombre d’experts certifiés en 2019, Umanis s’engage dans un partenariat à long terme avec Cloudera et participe à l’évolution technologique de la plateforme Data et IA de nouvelle génération. Umanis (www.umanis.com), leader français en solutions métiers “data oriented”, annonce être la première ESN française à bénéficier d’un partenariat de niveau Gold avec Cloudera, premier fournisseur mondial de plateformes de données depuis sa fusion avec Hortonworks en octobre 2018. Partenaire technologique de Cloudera depuis 2014, Umanis renforce ses liens avec la société californienne en signant un partenariat stratégique ayant pour objectif de l’accompagner dans sa conquête des plus grands comptes du marché français. Les directions des deux sociétés s’impliquent fortement dans ce partenariat, avec pour Umanis un investissement en ressources humaines à hauteur de plus de 30 experts et architectes cloud certifiés d’ici fin 2019, dont…

MarkLogic dope ses solutions au machine learning

Les dernières versions du Data Hub 5.0 et de la base de données MarkLogic 10 embarque des solutions de machine learning intégrées fonctionnant au plus proche des données. MarkLogic Corporation, éditeur d’une plateforme de données de nouvelle génération pour la simplification de l’intégration des données de toutes sortes, annonce aujourd’hui l’intégration d’un moteur de Machine Learning et d’autres fonctionnalités dans les dernières versions du MarkLogic Data Hub 5.0 et de la base de données multimodèle MarkLogic 10. Ces améliorations font de MarkLogic une plateforme intégrée et complète offrant une solution d’entreprise incomparable pour l’intégration, la conservation, la sécurisation, l’analyse et la gestion des données critiques et permet à MarkLogic de repousser les limites en matière d’intégration moderne des données. Le Data Hub MarkLogic, qui fonctionne dans le cloud ou sur site, repose sur la base de données multimodèle MarkLogic,…

IA : EURODECISION sensibilise les opérationnels de la RATP

Le Groupe RATP s’est appuyé sur EURODECISION, spécialiste des mathématiques décisionnelles, pour sensibiliser ses équipes opérationnelles à l’Intelligence Artificielle. Objectif : leur permettre de mieux comprendre les enjeux de l’IA, afin qu’ils puissent qualifier de manière autonome les sujets sur lesquels ces technologies peuvent s’appliquer dans leur quotidien. Le 25 janvier, dix personnes du Groupe RATP, parmi lesquelles des exploitants, des mainteneurs et des collaborateurs de l’ingénierie, ont participé à une journée d’acculturation et d’échanges sur le thème « Introduction à l’Intelligence Artificielle » animée par la société EURODECISION. « Le programme Intelligence Artificielle vise à construire et mettre en œuvre la stratégie IA pour le Groupe RATP, explique Yohan Amsterdamer, Chef de projets Intelligence Artificielle au sein de la RATP. Nous engageons, avec les départements métiers, la réalisation de projets d’innovation…

Atos devient le principal partenaire de Google Cloud pour le supercalcul

En amont de la 4ème édition des Atos Technology Days organisée à VivaTech, Atos, leader international de la transformation digitale, annonce aujourd'hui avoir été choisi par Google Cloud comme premier partenaire pour le calcul haute performance, élargissant ainsi le partenariat mondial avec de nouveaux services destinés aux entreprises. Les clients pourront s'appuyer sur le Centre d'Excellence en Programmation Parallèle (CEPP) d’Atos et ainsi disposer de la puissance de calcul nécessaire pour exploiter au mieux leurs données lorsqu'ils aborderont des enjeux scientifiques, techniques et commerciaux majeurs. Les entreprises nécessitent une grande puissance de calcul afin de transformer les immenses quantités de données complexes qui les entourent en informations précieuses. Atos aide ainsi les organisations à s'assurer que leurs applications exploitent au mieux les technologies haute performance de Google Cloud pour optimiser leurs solutions. Les clients au sein du…

Recherche de données : Sinequa optimise l'expérience des utilisateurs

La plateforme logicielle de nouvelle génération de Sinequa s'appuie sur le framework Angular 7 pour améliorer la présentation d'informations pertinentes aux utilisateurs finaux. Sinequa, éditeur de logiciels reconnu sur le marché de la recherche et de l'analyse de données basées sur les technologies de l'IA, annonce la nouvelle génération de sa plateforme logicielle de recherche et d'analyse de données conçue pour garantir une expérience utilisateur optimale, flexible et hautement performante sur tous types de périphériques. Sinequa a investi de manière significative pour optimiser la façon dont sa plateforme présente les informations pertinentes aux utilisateurs finaux. Cette initiative a permis de simplifier et de rationaliser l'expérience utilisateur en modifiant les composants de l'interface pour les calibrer spécifiquement pour répondre à leurs attentes. Cette évolution a nécessité une refonte complète du cadre de l'interface utilisateur afin de créer…

Avec Snowflake, Oney Bank divise par 7 les temps de calcul nécessaires à la production de ses rapports

En passant sur l’architecture cloud de Snowflake, Oney produit ses rapports en 1 journée au lieu de 7 jours. Snowflake Inc, le seul entrepôt de données conçu pour le cloud annonce aujourd’hui que Oney Bank a décidé de s’appuyer sur sa solution pour porter son offre d’analyse de données à des fins de category management et de monétisation des données. Sa filiale, Oney Data, en charge de ces activités, analyse d’importantes quantités de données issues de la grande distribution pour proposer ensuite à ses utilisateurs (category manager, acheteurs et responsables marketing des distributeurs et des marques) des rapports interactifs et des outils d’aide à la décision et d’optimisation de leurs marges et des ventes de leurs produits en magasin et online. Jusque fin 2018, Oney Data s’appuyait sur une data warehouse on premise basée sur des solutions SAS, associé à Tableau pour la restitution des rapports. Cette architecture limitait le potentiel de la…

Comment l’IA peut donner un second souffle aux commerces physiques

Les consommateurs dépensent de plus en plus d’argent en ligne. En effet, on prévoit que le cap historique des 100 milliards d’euros de ventes en ligne en France sera dépassé en 2019,[1] il est donc légitime de douter de la pérennité des commerces physiques. En dépit d’un contre-mouvement en faveur des entreprises locales, de nombreux grands détaillants faiblissent considérablement. Très récemment, ce ne sont pas moins de neuf Castorama et deux Brico Dépôt en France qui ont fermés suite au déclin de la fréquentation et des achats des clients dans leurs magasins physiques. Cependant, les consommateurs apprécient encore de faire leurs achats dans les magasins physiques. Il n’y a d’ailleurs aucune raison que cela change du jour au lendemain. En effet, pour les consommateurs, l’expérience sensorielle reste nécessaire pour certains articles qui nécessitent d’être vus, touchés et essayés avant d’être achetés ; avec en première ligne les produits…

IA inclusive versus IA exclusive : quelle stratégie adopter ?

A l’heure où toutes les entreprises s’intéressent à l’intelligence artificielle, nombreuses sont celles à s’interroger sur la meilleure façon de procéder. Faut-il confier ces projets aux experts ou inclure tous les collaborateurs. La stratégie IA doit elle être inclusive ou exclusive ? Point sur les deux modes opératoires qui présentent des avantages et des inconvénients. L’IA doit-elle être exclusive, c’est-à-dire réservée à quelques érudits, ou doit elle être inclusive, c’est-à-dire partagée par tous ? En d’autres termes doit-elle être confiée à des équipes d’experts chargées de travailler seules dans leur coin sur des projets spécifiques, ou doit-elle inclure tous les collaborateurs, chacun apportant ses compétences pour œuvrer à un but commun ? Telle est la question qui anime aujourd’hui de nombreuses entreprises qui s’interrogent non seulement sur la meilleure façon de procéder mais aussi sur les conséquences de l’IA sur…

Comment optimiser l’utilisation des données à travers une gestion intelligente de l’information ?

M-Files, spécialiste de la gestion intelligente de l’information apporte ses éclairages pour gérer et analyser utilement les données grâce à des conseils pratiques et accessibles à tous. En 2019, la quantité de toutes les données sur Terre est de 2,7 Zettabytes, ce qui équivaut à 200 milliards de films HD. Bien sûr, cet amas de données croit à une vitesse fulgurante et double tous les deux ans. A titre d’exemple, plus de 293 milliards de mails[1] sont envoyés chaque jour dans le monde. Cette multitude d’informations est impossible à suivre à l’échelle humaine. Pour s’attaquer à cet épineux problème, les entreprises adoptent des systèmes de gestion de l’information, pensant, à tort, que tous leurs problèmes seront alors réglés. Ces systèmes peuvent en effet créer plus de problèmes qu’ils n’en résolvent surtout quand les étagères technologiques sont réparties vers plusieurs référentiels de contenu. Et c’est souvent le cas pour les…

Delphix, leader mondial de la gestion des données, s’impose sur le marché français

Le groupe américain s’étend en France et plus largement en Europe. Delphix, éditeur américain qui aide les entreprises à innover grâce au DataOps, présent actuellement dans 7 pays, s’impose sur le marché français. A l’ère de la transformation digitale, les entreprises de tous les secteurs connaissent une croissance exponentielle de données. Or, le stockage, la copie et le déplacement de celles-ci sont souvent coûteux. Ajoutons à cela que de plus en plus de collaborateurs ont besoin d’avoir accès aux données, que ce soit pour développer de nouveaux services, gérer les fonctions quotidiennes de l’entreprise (l’infrastructure, la sécurité, la maintenance…) ou tout simplement pour assurer la conformité de leur entreprise au Règlement général sur la protection des données (RGPD). Fondée en 2008 en Californie, Delphix offre aux entreprises la capacité d’accélérer le développement applicatif, de sécuriser les données sensibles et de faciliter…

Cohesity acquiert Imanis Data afin d’améliorer la protection des données des charges de travail NoSQL et Hadoop

Un support avancé pour les bases de données distribuées permet de gérer le problème de la fragmentation massive des données en éliminant les silos d’infrastructures et de données. Cohesity, leader du stockage secondaire hyperconvergé annonce l'acquisition d’Imanis Data, Inc., leader dans la sauvegarde et la gestion de données pour les bases de données distribuées. Grâce à cette acquisition, les clients de Cohesity vont pouvoir bénéficier d’un support avancé pour sauvegarder et récupérer facilement et instantanément des charges de travail Hadoop et NoSQL ainsi que de bases de données sous-jacentes, y compris MongoDB. Cette annonce permet ainsi à Cohesity de renforcer des capacités déjà complètes en matière de sauvegarde et de récupération instantanée de bases de données traditionnelles telles qu’Oracle et SQL, ainsi que de charges de travail virtuelles, physiques et dans le cloud. En outre, les clients d'Imanis Data auront la possibilité…

GDPR : 1 an après

Un an après l’instauration du Règlement Général sur la Protection des Données (GDPR), toutes les entreprises devraient avoir fait le nécessaire pour analyser leurs données afin de répondre rapidement aux exigences d’accès formulées par le GDPR... Mais la réalité est toute autre. La plupart des entreprises n’ont fait que le strict minimum en matière de traitement et de stockage des données. Pour résumer, elles ont principalement appliqué le Règlement de deux façons. Premièrement, en supprimant les données obsolètes. Deuxièmement, en créant des formulaires de consentement sur Internet qui demandent aux utilisateurs d’autoriser – ou non – la collecte et l’utilisation de leurs données. Plutôt que de revoir et d’adapter leur stratégie de gestion des données, ces entreprises se sont donc contentées d’agir de façon à éviter tout problème juridique. Cette approche très simplifiée de la protection des données s’explique probablement par le…

RGPD : L’avenir de l’humanité au cœur des préoccupations

Depuis plus de 20 ans, les données sont produites et collectées de plus en plus massivement. Depuis plus récemment, notre simple présence dans un espace public génère des données. Les espaces vierges de technologies sont de plus en plus rares. L’exploitation de nos données nous échappe de plus en plus. Parfois, leurs exploitations échappent également aux entreprises auxquelles nous les confions. La montée en puissance de l’IA (Intelligence Artificielle), du machine learning ou encore du Big Data engendre de nouvelles motivations à collecter les données. Motivations entraînant de nouveaux services, nouveaux usages et nouveaux risques. Et vous, y avez-vous pensé ? Les applications de prise de rendez-vous médicaux sont très pratiques pour les actifs aux agendas surbookés et les timides du téléphone. Qu’en est-il des papys et mamys timides, eux, non pas du téléphone, mais de la technologie ? La consultation avec leur Docteur devient presque impossible. Est-ce…

Le moteur de recherche, une approche stratégique pour décloisonner l’accès à l’information

Rappel sur les fondamentaux du moteur de recherche Un moteur de recherche est une application qui récupère l’information des systèmes sources et la stocke dans son propre référentiel (« l’index »). Ainsi, l’information est restituée plus rapidement (parce que vous cherchez sur son index plutôt que sur l’ensemble des sources). Par exemple, si vous pensez aux recherches web (type Google) lorsque vous cherchez une information sur Internet, la comparaison est évidente. En amont de votre recherche, le moteur a scanné les différents sites pour récupérer l’information des pages existantes. Puis, il l’a stockée dans son index. Ainsi, lorsque vous cherchez, instantanément une réponse apparaît. Et pour cause ! Cet index a été spécialement conçu pour optimiser la performance à la recherche. En plus de cela, des traitements particuliers sont activables sur la donnée ainsi collectée. On pourra assurer la catégorisation, le filtrage, mais aussi des traitements…

Hewlett Packard Enterprise intègre BlueData afin d’accélérer l’intelligence artificielle et l’innovation pilotée par les données

La solution intégrée de HPE et BlueData simplifie et accélère considérablement le déploiement en entreprise de l’IA, du Machine Learning et des applications analytiques. Hewlett Packard Enterprise (HPE) annonce une nouvelle offre intégrée qui combine la plate-forme logicielle HPE BlueData avec les systèmes HPE Apollo et les services HPE Pointnext, afin d’apporter à ses clients une puissante solution pour l’intelligence artificielle (IA) et l’innovation business pilotée par les données. Cette annonce fait suite à l’acquisition par HPE de BlueData en novembre 2018 et représente une étape majeure dans la stratégie actuelle de la société pour le marché de l’IA et de l’analytique. BlueData est désormais disponible en tant que solution logicielle HPE autonome, tandis que les clients peuvent continuer d’exploiter les logiciels BlueData sur toute infrastructure. Avec BlueData, HPE offre à ses clients un modèle « as a Service » pour l’intelligence…