BEJAÏA : Colloque sur les banques de données et le traitement statistique

22 ans après, le colloque sur les banques de données de Béjaïa revient pour analyser la révolution de l’IA et les nouveaux enjeux du traitement statistique.L’auditorium du campus de Targa Ouzemour a accueilli, mercredi et jeudi, le second colloque sur les «Banques de données et le traitement statistique». Cet événement scientifique était organisé par l’unité de recherche LaMOS (« Modélisation et optimisation des systèmes »), présidée par le Pr Djamil Aïssani.
«Il vaut mieux ne pas avoir de données que d’avoir des données faussées»
Dans son allocution d’ouverture, le Pr Aïssani a rappelé que lors de la précédente édition, tenue 22 ans auparavant en 2003, il s’agissait de discuter des méthodologies de recueil, d’organisation et d’exploitation des données statistiques, ainsi que de leur circulation.À cette époque, la plupart des institutions et organismes producteurs et utilisateurs de données se contentaient de mettre en place des bases de données informatisées sans vérifier si le recueil était réalisé correctement. «Il vaut mieux ne pas avoir de données que d’avoir des données faussées», a estimé notre interlocuteur. Il a également remarqué que ces données étaient présentées à l’état brut, sans organisation, ce qui les rendait inexploitables. De plus, la validité des analyses statistiques ne pouvait, dans la plupart des cas, être certifiée.
De la digitalisation aux défis de l’intelligence artificielle
Les choses ont évolué depuis avec la généralisation de l’outil informatique. « Les défis actuels dépassent la simple digitalisation » avec l’explosion du volume des données (Big Data) et l’émergence de nouvelles techniques (Data Mining, Data Science, Cloud Computing et Intelligence Artificielle). Dans notre pays, les utilisateurs de statistiques en sont encore au stade de l’acquisition des compétences requises dans ces techniques pour en extraire des connaissances. En outre, a souligné l’orateur, l’IA, « bien que prometteuse, soulève des questions éthiques et méthodologiques sur la fiabilité, l’explicabilité et la transparence des modèles».C’est ce constat qui a conduit à articuler cet événement autour de plusieurs axes de réflexion pour aborder cette problématique : apprentissage automatique et intelligence artificielle, Internet des objets, fouille de données et méthodes mathématiques, analyse des données incomplètes et complexes, etc.