Présentation PowerPoint

Published on
Embed video
Share video
Ask about this video

Scene 1 (0s)

[Audio] Prédiction avec réseaux de neurones convolutifs associés aux chaînes de Markov cachées conditionnelles Soumia Goumiri Encadrée par: Pr. D. BENBOUDJEMA Pr. W. PIECZYNSKI 06 Octobre 2025 Bonjour à toutes et à tous. Je m'appelle Soumia Goumiri et aujourd'hui j'ai l'honneur de vous présenter mes travaux de recherche, intitulés « Prédiction avec réseaux de neurones convolutifs associés aux chaînes de Markov cachées conditionnelles». Ces travaux ont été réalisés sous la direction du Professeur D. Benboudjema et du Professeur W. Pieczynski..

Scene 2 (35s)

[Audio] Contribution I: Modèle Hybride proposé Motivation Combiner les CNNs et les HMCs CNNs: Excellents pour l'extraction de caractéristiques visuelles, Peuvent manquer de contexte spatial global HMCs: Puissants pour les dépendances spatiales et les structures cachées Objectifs du Modèle Hybride Améliorer la précision de classification par rapport aux CNNs standards Réduire la dimensionnalité des données tout en préservant l'information pertinente notre contribution repose sur l'idée de combiner deux approches complémentaires. Les CNNs sont excellents pour extraire des caractéristiques visuelles, mais ils manquent parfois de contexte spatial global. Les HMCs, quant à eux, modélisent bien les dépendances spatiales et les structures cachées. L'objectif est donc de tirer profit des deux pour améliorer la précision de classification d'images, réduire la dimensionnalité et permettre une classification non supervisée.".

Scene 3 (1m 40s)

[Audio] Architecture CNN-HMC Rôle du CNN Extraction de caractéristiques Réduction de dimensionnalité Rôle du HMC Modélisation des dépendances Classification non supervisée Fig 11. Dimensionnalités des flux de données Flux de Données Image d'entrée → Couches CNN → Cartes de caractéristiques Cartes de caractéristiques → Scan de Peano → Séquence 1D Séquence 1D → Modèle HMC → Classification "Voici l'architecture du modèle hybride proposé. Le CNN extrait les caractéristiques et réduit la dimensionnalité. Le HMC modélise ensuite les dépendances et réalise la classification non supervisée. Le flux de données est clair : Image d'entrée → couches CNN → cartes de caractéristiques, Cartes converties en séquence 1D grâce au scan de Peano, Puis classification par HMC.".

Scene 4 (2m 36s)

[Audio] Processus d'Apprentissage CNN-HMC Application des couches CNN Scan de Peano Algorithme EM pour HMC Classification MPM Bayesienne Avantages du Processus Fig 12. Précision de CNN standard vs CNN-HMC • Combinaison de l'apprentissage supervisé CNN et non supervise HMC • Réduction significative de la dimensionnalité des données • Capture des dépendances spatiales ignorées par les CNN standards "Le processus d'apprentissage se déroule en quatre étapes : Application des couches CNN, Transformation par le scan de Peano, Utilisation de l'algorithme EM pour l'HMC, Classification bayésienne MPM. Ce processus a trois avantages : il combine apprentissage supervisé et non supervisé, réduit significativement la dimensionnalité et capture des dépendances spatiales ignorées par les CNN standards." 📷 Image : un graphique compare la précision d'un CNN standard et celle du modèle CNN-HMC, montrant une nette amélioration. Extraction des caractéristiques visuelles à partir des images d'entrée via les couches convolutives Transformation des cartes de caractéristiques 2D en séquences 1D en préservant les relations spatiales Estimation des paramètres du modèle HMC par l'algorithme Expectation-Maximization Utilisation du critère Maximum Posterior Mode pour la classification non supervisée.

Scene 5 (4m 14s)

[Audio] Évaluation et Résultats CNN-HMC Datasets Utilisés CAT/DOG Des animaux (64×64 pixels, 224×224 pixels,2 classes, 10,028 images) Test1: 2023, Test2: 9471 et Test3: 40 images CAR/BIKE Articles Voiture-Vélo (64×64 pixels, 224×224 pixels,2 classes) 4000 images ELEPHANT Éléphant asiatique vs africain (64×64 pixels, 224×224 pixels,2 classes) 840 images "Nous avons testé le modèle sur plusieurs bases : Chiens / Chats, plus de 2 000 images, Voitures / Vélos, 4000 images, Éléphants asiatiques vs africains, 840 images. Cela permet de valider le modèle sur des données variées et réelles.".

Scene 6 (5m 36s)

[Audio] Évaluation et Résultats CNN-HMC Modèles de Comparaison CNN Standard (4Conv) 4 couches convolutives + couches entièrement connectées Mini AlexNet Version réduite de l'architecture AlexNet Environnement & Configuration Google Colaboratory (Colab) Framework Keras GPU, avec 13 Go de RAM et 78,19 Go de disque "Pour comparer, nous avons utilisé : Un CNN standard à 4 couches, Une version réduite d'AlexNet. L'environnement expérimental était Google Colab, avec Keras, GPU, 13 Go de RAM et 78 Go de disque.".

Scene 7 (6m 20s)

[Audio] Résultat: CNN-HMC améliore la précision de 8.06% à 27.5% par rapport au CNN standard sur différents jeux de données. Fig 15. Comparaison entre (à gauche) CNN-HMC vs 4Conv et (à droite) CNN-HMC vs mAlexNet "Les résultats montrent que notre modèle CNN-HMC améliore la précision de 8 % à 27,5 % selon les datasets, par rapport aux CNN standards. Sur la figure, à gauche, vous voyez la comparaison avec un CNN à 4 couches, et à droite, avec mini-AlexNet.".

Scene 8 (7m 11s)

[Audio] Discussion des Résultats CNN-HMC Avantages du Modèle Hybride Amélioration significative de la précision (~8, 27) Précision moyenne (%) Capture des dépendances spatiales Classification non supervisée Limitations et Défis Complexité algorithmique Temps de calcul Fig 16. Comparaison des modèles CNN-SVM, CNN-gcForest CNN-RF CNN-LSTM et CNN-HMC en terme précision moyenne "En résumé : Notre modèle hybride apporte une amélioration significative de précision, Il capture les dépendances spatiales ignorées par les CNN, Et il permet la classification non supervisée. en comparant CNN-SVM, CNN-gcForest, CNN-RF, CNN-LSTM et CNN-HMC, ce dernier obtient la meilleure précision moyenne. Cependant, il reste des défis, notamment la complexité algorithmique et le temps de calcul.".