Détection automatique des coupes echographiques foetales
| dc.contributor.author | Barnor, Baenedict | |
| dc.contributor.author | Nakyeyune, Susan | |
| dc.contributor.author | Ammar, Mohammed(Promoteur) | |
| dc.date.accessioned | 2023-03-01T08:41:53Z | |
| dc.date.available | 2023-03-01T08:41:53Z | |
| dc.date.issued | 2022 | |
| dc.description.abstract | Ce projet vise la classification des images échographiques du plan foetal. Ceci est réalisé en examinant le CNN en profondeur et en étudiant les méthodes de classification automatisées à l'aide d'architectures conçues pour les tâches d'apprentissage en profondeur. Trois architectures CNN différentes : EfficientNetB0, ResNet50 et InceptionV3 sont entraînées sur ces images pour examiner leurs performances. Le choix final de ces architectures est basé sur le niveau du taux de classification dans la classification des images. Sur la base des performances du taux de classification, le modèle EfficientNetB0 est arrivé en tête du classement et pour améliorer ses performances de classification, nous avons utilisé le prétraitement d'augmentation des données. Les images utilisées dans l'apprentissage de ces réseaux proviennent de l'EPH Kouba et de la Clinique des Lilas | en_US |
| dc.identifier.uri | https://dspace.univ-boumerdes.dz/handle/123456789/11121 | |
| dc.language.iso | fr | en_US |
| dc.publisher | Université M'Hamed Bougara Boumerdès: Faculté de Technologie | |
| dc.subject | Classification : Images | en_US |
| dc.subject | images échographiques : plan foetal | en_US |
| dc.subject | EfficientNetB0 | en_US |
| dc.subject | Data augmentation | en_US |
| dc.title | Détection automatique des coupes echographiques foetales | en_US |
| dc.type | Thesis | en_US |
Files
Original bundle
1 - 1 of 1
No Thumbnail Available
- Name:
- Barnor, Benedicta & Nakyeyune, Susan.pdf
- Size:
- 3.52 MB
- Format:
- Adobe Portable Document Format
License bundle
1 - 1 of 1
No Thumbnail Available
- Name:
- license.txt
- Size:
- 1.71 KB
- Format:
- Item-specific license agreed upon to submission
- Description:
