L’Intelligence Artificielle : l’ADN qui donne vie aux données

L’Intelligence Artificielle (IA) fait souvent surgir à l’esprit des images de robots d’accueil et de voitures autonomes – ou encore ces machines tape à l’œil qui réalisent sans aucun effort des tâches quotidiennes avec une vitesse et efficacité surhumaines. C’est pourtant derrière cette apparence que réside toute sa magie et qu’elle prend une signification différente, celle d’ADN des données qui comble les lacunes dans leur traitement.

L’imaginaire collectif est peuplé de cyborgs et autres robots dotés d’intelligence. Cependant, dans le monde d’aujourd’hui, l’IA, quoique impalpable, apparaît davantage comme la pierre angulaire, qui représente un atout essentiel pour toute entreprise. La plupart des organisations comprennent l’importance d’utiliser leurs données afin de réduire leurs coûts et de servir leurs clients de manière efficace. Que se passe-t-il cependant quand elles deviennent trop volumineuses pour être comprises? C'est ici que l'IA intervient, en transformant une foule de données distinctes en une vision significative de toutes les facettes de l'entreprise.

Big Data et IA : du code informatique aux bénéfices “business”

Les idées de programmation existaient depuis des siècles, mais ce n’est qu’à partir du 20ème siècle, avec l’avènement de nouveaux ordinateurs, qu’une recrudescence de langages de programmation a permis d’exploiter pleinement ces nouvelles machines, et de façonner le paradigme du “Big Data” qui illustre actuellement le monde moderne.
Nous avons récemment atteint un stade où nos appareils génèrent une quantité hallucinante de données. D’après un article récent de Forbes, le volume de nouvelles données créées en 2020 était estimé à 35 zettabites (ou 35 milliards de gigabites). Il y a deux ans, ce chiffre s’élevait à 33 zettabites, conduisant le cabinet d’analystes IDC à prédire qu’en 2025, 175 zettabites (ou 175 milliards de gigabites) de nouvelles données seraient créées mondialement. Cette masse est bien trop conséquente pour être traitée par un simple collaborateur ou même par une équipe entière. Les organisations comptent plutôt sur l’intelligence artificielle pour agréger, analyser et évaluer les données : actions incontournables dans toutes les industries.

Le secteur bancaire, par exemple, bénéficie énormément de l’IA. Au sein de la banque HDFC en Inde, le machine learning, un sous-groupe de l’IA, permet d’analyser les données démographiques, géographiques et autres pour des opérations de micro-crédit.
En gestion de contenu (Content Management), l’IA est utilisée dans des dizaines de cas , dans les moteurs de recherche d’entreprise (Enterprise Search) ou au sein de services a priori aussi différents que le marketing, le juridique et l’édition. Trouver, lire et recommander des articles est un processus qui existe depuis longtemps et qui, aujourd'hui, doit son succès à la complémentarité des algorithmes personnalisables de l'IA et d’équipes allant jusqu'à 20 employés.

Les données sont à l’IA ce que les nucléotides sont à l’ADN

La puissance de l’IA ne peut servir qu’avec la disponibilité de données. La capacité d’un algorithme à reconnaître des modèles et faire des suggestions dépend en effet de ce qu’il peut tirer des données brutes. Or, la prolifération continue des données risque, à terme, de les rendre chaotiques et incontrôlables. Aujourd'hui, les données ne sont plus seulement des chaînes de chiffres, de lettres et de symboles. Il peut s'agir de milliers de caractères représentant par exemple la parole humaine. Alors, comment donner un sens à tout cela ?
Le traitement automatique du langage naturel (TALN), un sous-domaine de l'informatique qui repose largement sur le machine learning, agit à la jonction de l'informatique et du langage naturel. C'est un exemple de technologie cognitive pouvant analyser rapidement de grands ensembles de données non structurées, comme les données médicales, les contrats et les textes juridiques, pour dégager des tendances et découvrir des solutions à des problèmes complexes. C'est une tâche chronophage qu'un être humain aurait du mal à accomplir, mais qui peut maintenant être réalisée en quelques secondes.
Un autre exemple est la traduction. Une personne qui part de zéro peut passer des années (voire toute une vie) à apprendre à traduire un travail de l'anglais au japonais. Un algorithme basé sur le machine learning peut maintenant le réaliser instantanément pendant que le texte est tapé.
C'est de cette façon que l'IA s'avère être l'ADN des données. Les données seules ne peuvent résoudre automatiquement un problème. Une base de données contenant chaque mot de toutes les langues du monde serait inutile sans un interprète pour lui donner un sens.

Une étude a montré que la "transplantation d'objet" compromet la fiabilité de la reconnaissance faciale basée sur l’IA, laissant entendre que le temps d’arrêt, un geste instinctif de l'homme qui nous aide à identifier quand les choses ne sont pas ce qu'elles semblent être, continue d'échapper aux algorithmes intelligents. L'évolution de l'IA en tant qu'ADN des données ne peut être écartée, et parfois la fusion de l'humain et de la machine est étonnante.

Conclusion

Pour résoudre un problème classique de machine learning -- identifier correctement des nombres écrits à la main -- les chercheurs de Caltech ont développé un réseau neuronal artificiel à base d'ADN. Si nous sommes en mesure de programmer l'IA dans des circuits biomoléculaires synthétiques, les entreprises devraient pouvoir utiliser l'IA pour mieux servir leurs clients.
En intégrant les technologies de base aux “Middlewares”, les applications deviennent des plates-formes flexibles, à la pointe de la technologie grâce à l’apport de l’IA. Élaborées avec rapidité et agilité, elles peuvent réduire le nombre d'étapes d'un processus de 20 à 4, tout en évoluant avec la demande des clients.
Un concept corollaire de l'entreprise est l’existence d’un hub de données intelligent avec une architecture centralisée pour leur gestion au niveau applications, lieux et objets. Au fur et à mesure que les données se développent et deviennent de plus en plus complexes, ce ‘hub’ les rend facilement exploitables grâce à sa couche d'intelligence artificielle, qui les régit tout en les rendant disponibles en temps réel aux utilisateurs professionnels.