M'zir, KatiaIloul, SamiraAmmar, Mohammed(Promoteur)2025-04-202025-04-202024https://dspace.univ-boumerdes.dz/handle/123456789/1511144 p. : ill.Ce travail explore l'efficacité des modèles d'apprentissage profond, notamment les Vision Transformers (ViT), dans la classification des images échographiques foetales pour diagnostiquer et prédire les pathologies prénatales. L'étude a comparé les performances de divers modèles Vision Transformers et a confirmé que les ViT surpassent les CNN dans certaines tâches de classification d'images médicales. Deux modèles de Vision Transformers, ViT-B16 et ViT-L16, ont été utilisés, et il a été constaté que les ajustements des paramètres tels que le taux de dropout et le nombre d'époques influencent significativement les résultats. En optimisant ces hyperparamètres, les performances du modèle peuvent être améliorées. De plus, l'analyse a montré que l'augmentation des données améliore considérablement les résultats, soulignant l'importance d'une base de données étendue pour un apprentissage optimal. Parmi les modèles étudiés, le ViT-B16 a démontré une performance supérieure par rapport au ViT-L16, bien que le ViT-L16 demeure prometteur et pourrait être amélioré avec une base de données plus étenduefrclassification d’imagesVision TransformersVit-b16Vit-l16Détection des coupes foetale par les transformateurs de visionThesis