Détection des coupes foetale par les transformateurs de vision

No Thumbnail Available

Date

2024

Journal Title

Journal ISSN

Volume Title

Publisher

Université M'Hamed Bougara Boumerdés: Faculté de Technologie

Abstract

Ce travail explore l'efficacité des modèles d'apprentissage profond, notamment les Vision Transformers (ViT), dans la classification des images échographiques foetales pour diagnostiquer et prédire les pathologies prénatales. L'étude a comparé les performances de divers modèles Vision Transformers et a confirmé que les ViT surpassent les CNN dans certaines tâches de classification d'images médicales. Deux modèles de Vision Transformers, ViT-B16 et ViT-L16, ont été utilisés, et il a été constaté que les ajustements des paramètres tels que le taux de dropout et le nombre d'époques influencent significativement les résultats. En optimisant ces hyperparamètres, les performances du modèle peuvent être améliorées. De plus, l'analyse a montré que l'augmentation des données améliore considérablement les résultats, soulignant l'importance d'une base de données étendue pour un apprentissage optimal. Parmi les modèles étudiés, le ViT-B16 a démontré une performance supérieure par rapport au ViT-L16, bien que le ViT-L16 demeure prometteur et pourrait être amélioré avec une base de données plus étendue

Description

44 p. : ill.

Keywords

classification d’images, Vision Transformers, Vit-b16, Vit-l16

Citation

Endorsement

Review

Supplemented By

Referenced By