Détection des coupes foetale par les transformateurs de vision
 No Thumbnail Available 
Date
2024
Journal Title
Journal ISSN
Volume Title
Publisher
Université M'Hamed Bougara Boumerdés: Faculté de Technologie
Abstract
Ce travail explore l'efficacité des modèles d'apprentissage profond, notamment les Vision Transformers (ViT), dans la classification des images échographiques foetales pour diagnostiquer et prédire les pathologies prénatales. L'étude a comparé les performances de divers modèles Vision Transformers et a confirmé que les ViT surpassent les CNN dans certaines tâches de classification d'images médicales. Deux modèles de Vision Transformers, ViT-B16 et ViT-L16, ont été utilisés, et il a été constaté que les ajustements des paramètres tels que le taux de dropout et le nombre d'époques influencent significativement les résultats. En optimisant ces hyperparamètres, les performances du modèle peuvent être améliorées. De plus, l'analyse a montré que l'augmentation des données améliore considérablement les résultats, soulignant l'importance d'une base de données étendue pour un apprentissage optimal. Parmi les modèles étudiés, le ViT-B16 a démontré une performance supérieure par rapport au ViT-L16, bien que le ViT-L16 demeure prometteur et pourrait être amélioré avec une base de données plus étendue
Description
44 p. : ill.
Keywords
classification d’images, Vision Transformers, Vit-b16, Vit-l16
