Conférences & Colloques Recherche

Réunion de lancement WP4 TRAIL/ARIAC à l’UMONS

Publié le 2 février 2022
Rédigé par Hugo Bohy
Le quatrième lot de travaux (WP4) du projet ARIAC a été lancé le 02/02/2022 à l'UMONS (site de Houdain). Au début de la réunion de lancement, le professeur Thierry Dutoit a présenté le quatrième module de travail qui se concentre sur les implémentations optimisées de l'IA. L'événement était animé par le Dr Matie Mancas et a réuni 40 chercheurs en IA.

 

Le projet ARIAC (Applications and Research for Trusted Artificial Intelligence) a été conçu par TRAIL. TRAIL regroupe les cinq universités francophones et les quatre centres de recherche wallons agréés (CRA). Son ambition est de mutualiser la recherche en intelligence artificielle en Fédération Wallonie-Bruxelles.

Le projet ARIAC s’articule autour de 5 Work Packages :

Interaction humain-IA,
Mécanismes de confiance pour l’IA,
Intégration modèle-IA,
Implémentations optimisées de l’IA,
Usine TRAIL

L’événement a eu lieu le mercredi 2 février 2020 à l’UMONS (Rue de Houdain 9, Mons 7000, Auditorium 23) et diffusé en ligne.

 

Lancement du programme WP4 TRAIL/ARIAC :

********************************

13h00 : Thierry Dutoit (UMONS)
Introduction au WP4 et slides VIP : meilleure communauté !

13h15 : Sidi Mahmoudi (UMONS)
Edge AI : Implémenter des algorithmes sur des appareils à faible puissance de calcul

13h45 : Antonion Garcia-Diaz (ULB)
Cette présentation se concentre sur les recherches d’Antonio sur les techniques de recherche d’architecture neuronale automatique (NAS), les résultats de cette recherche à l’heure actuelle et ses contributions actuelles et futures à TRAIL.

14h00 : Sarah Klein (SIRRIS)
Avec une base installée croissante de capteurs collectant des données à haute résolution temporelle, une énorme quantité de données brutes doit être transférée vers un système backend. Dans de nombreux cas d’utilisation industrielle, cela est difficile mais la plupart du temps faisable. Cependant, dès que des appareils (souvent à ressources limitées) sont sur le terrain, l’envoi de données haute fréquence en temps réel via une connexion mobile devient très difficile et coûteux.

Une façon de faciliter le transfert de données de la périphérie vers un backend central consiste à compresser les données avant de les envoyer. Récemment, plusieurs algorithmes ont été proposés pour gérer la compression de séries temporelles sur des dispositifs contraints. Dans notre présentation, nous donnerons un aperçu des différentes classes de méthodes de compression et de leur application dans des cas d’utilisation industriels.

14h15 : Nathan Hubens (UMONS)
Présentation du prunning et de la librairie FasterAI : https://github.com/nathanhubens/fasterai

14h35 :
Antoine Vanderschueren (UCLouvain)
Nous présentons une nouvelle méthode simple et efficace pour former des réseaux de neurones « parsemés ». Notre méthode est basée sur une différenciation des voies avant et arrière : les poids dans la voie avant sont une version seuillée des poids maintenus dans la voie arrière. Ce découplage permet aux micro-mises à jour, produites par descente de gradient, de s’additionner ; conduisant ainsi à la possible réactivation des poids qui ont été mis à zéro auparavant lors de l’entraînement. A la fin de l’entraînement, les liens avec des poids nuls sont ‘prunés’.

15h00 : pause

15h20 : Lucile Dierckx (UCLouvain)
Le sujet proposé pour une courte présentation présenterait les idées principales d’un article qui vient d’être accepté pour une conférence. Cela se concentre sur la combinaison de la détection et de la classification de plusieurs chauves-souris dans les enregistrements audio.
Le défi est que les ensembles de données disponibles pour cette tâche sont soit pour la détection, soit pour la classification uni-label, mais pas pour leur combinaison. En effet, les étiquettes des jeux de données disponibles indiquent soit uniquement les positions des cris dans les enregistrements, soit uniquement l’espèce qui est entendue dans un fichier. De plus, il est rare de trouver des ensembles de données avec des étiquettes pour effectuer une classification multi-étiquettes des cris de chauve-souris.
Nous montrons donc comment nous parvenons à faire à la fois détection et classification multi-étiquettes en créant des étiquettes artificielles basées sur celles couramment disponibles. Nous montrons également comment nous évaluons les performances du modèle conçu non seulement sur le jeu de données généré, mais également sur la base des étiquettes dures disponibles.

15h30 :Noé Tits: (Flowchase)
Utilisation de techniques d’auto-supervision pour obtenir une représentation intelligente des phonèmes dans un espace latent. Cela nous permettrait d’obtenir des métriques et des distances pour évaluer la prononciation et détecter les erreurs.

16h00 :Maxime Zanella (UCLouvain/UMONS)
L’Active Learning s’attarde ensuite sur son utilité dans « l’apprentissage continu de la vie ».