Doctorat
Permanent URI for this collectionhttps://dspace.univ-boumerdes.dz/handle/123456789/46
Browse
Item Approches de résolution exacte du problème de composition de cellules dans les systèmes cellulaires de production(2016) Merchichi, SabrinaCette thèse se situe dans le domaine de l'optimisation, en particulier celui de l'optimisation combinatoire. L'objectif de notre travail est d'étudier le problème de composition de cellules dans les systèmes cellulaires de production. Dans la première partie de cette thèse, nous nous intéressons à l'importance de la variable de décision choisie dans la modélisation du problème de composition de cellules. Nous commençons par la présentation de trois modèles mathématiques et deux modèles basés sur la théorie des graphes pour ce problème. Ensuite, nous examinons ces différents modèles d'un point de vue théorique. La deuxième partie traite essentiellement la résolution exacte du problème de composition de cellules. La méthode exacte que nous choisissons est de type séparation et évaluation. Nous présentons d'abord, une première version de cette méthode qui utilise une procédure de branchement basée sur les co-cycles. Ensuite, nous proposons une deuxième version de cette méthode qui met en œuvre une amélioration guidée par les contraintes et utilise une nouvelle procédure de calcul de la borne inférieure basée sur la méthode de recherche d'un co-cycle de poids minimum. Différents tests sont effectués sur un jeu d'exemples dans le but de montrer les avantages et les limites des modèles et des méthodes exactes présentéesItem Approches évolutionnaires pour le problème de partitionnement de graphes(Université M'hamed Bougara : Faculté des sciences, 2021) Chaouche, Ali; Boulif, Menouar(Directeur de thèse)We have studied through this thesis the application of evolutionary approaches, in particular the genetic algorithm (GAs), for solving the graph partitioning problem. Known for their simplicity and efficiency, GAs have been widely used to solve complex problems. Most of the research works has focused on designing new genetic operators or modifying the operating mechanism of the GA. Although this improved the efficiency of GAs, the performances of this latter is strongly related to the genetic representation of the solutions. From this perspective, we presented a state of the art of genetic representations with an a throughout study of their properties and characteristics in order to propose new representations based on the advantages of those present in the literature. The empirical study we conducted on a meticulously chosen data set from the literature shows the superiority of the proposed encoding schemes. These letters are based on the p-median problem that uses both vertex and edge informationItem Clustering et apprentissage profond pour la transcription assistée par ordinateur des documents manuscrits(Université M'Hamed Bougara Boumerdès : Faculté des Sciences, 2024) Faouci, Soumia; Gaceb, Djamel(Directeur de thèse)La reconnaissance automatique ou semi-automatique de l'écriture manuscrite offre des outils de grande importance pour les sociétés qui souhaitent augmenter leur productivité en numérisant facilement leurs documents manuscrits de tout type (administratifs, manuscrits anciens, chèques, adresses postales, ordonnances, etc.), selon un cadre applicatif varié. Actuellement, l'intelligence artificielle rend cette technologie encore meilleure, rapide et efficace, permettant de réduire les coûts et les délais de lecture optique, de transcription, d'interprétation, de catégorisation et de traitement des documents contenant du texte manuscrit. A l'inverse de l'écriture latine, la nature complexe de l'écriture arabe présente encore des grands challenges et difficultés devant le peu de logiciels OCR existants et qui sont limités à des vocabulaires restreints. L'écriture arabe est ligaturée avec des caractères qui sont souvent collés les uns aux autres et des styles très variables. Dans ce cadre, le projet de cette thèse représente une nouvelle contribution au développement de solutions alternatives aux OCR pour une transcription automatique plus adaptées aux documents manuscrits arabes. Les quatre contributions développées dans ce travail de thèse sont basées sur deux types de méthodes : apprentissage automatique et apprentissage profond. La première contribution est fondée sur le développement de plusieurs approches d'apprentissage automatique en utilisant deux classifieurs conventionnels MLP et SVM (non linéaire) avec une sélection optimale et combinaison de plusieurs caractéristiques discriminantes. La seconde contribution est basée sur l'usage de l'apprentissage profond par transferts selon différents niveaux de fine tuning. A ce niveau, une architecture CNN originale et simplifiée a été proposée et plusieurs modèles existants (CNN : MobileNet, DenseNet121, EfficientNet, InceptionV3, ResNet50 et VGG16 ou ViT : convnext-tiny-224) ont été développés, testés et comparés. La troisième contribution est basée la combinaison d'un modèle CNN et un classifieur automatique. Dans ce cadre, différentes combinaisons ont été testées entre les différents modèles CNN et les classifieurs (SVM, KNN et RF). La dernière contribution est destinée au développement d'un système de transcription de texte manuscrit arabe assistée par ordinateur en utilisant le clustering et la recherche des parties de mots arabes (PAW) dans un corpus d'images de documents scannés. A ce stade, deux approches sont développées et testées en utilisant les modèles CNN et les réseaux Siamois et un nouveau dataset des PAW est créée. Les expériences et les comparaisons faites sur différents datasets montrent la pertinence des approches développées et leur supériorité par rapport à la littératureItem Composants virtuels : abstraction, vérification et réutilisation(Université M'hamad Bougara : Faculté des Sciences, 2021) Chabane Eps Mechiouri, Sarah; Mezghiche, Mohamed(Directeur de thèse)L'int egration des syst emes embarqu es dans notre paysage technologique quotidien est de plus en plus importante, essentiellement gr^ace a l'av enement des syst emes cyberphysiques et Internet des objets. A n d'^etre comp etitifs, les industriels doivent d evelopper les syst emes dans des d elais de plus en plus courts, ces syst emes doivent ^etre de plus en plus performants et int egrer de plus en plus de fonctionnalit es, et ce au prix d'une complexit e croissante. A cette complexit e s'ajoute les exigences de abilit e, li ees a la nature souvent critique des syst emes embarqu es. La r eutilisabilit e de composants existants s'av ere une approche e cace et largement utilis ee dans divers projets pour contrer la complexit e des syst emes. La d emarche de conception a base de composants est corrobor ee dans le d eveloppement logiciel depuis quelques d ecennies, elle se focalise sur la r eutilisation du code en adoptant une forte standardisation des composants constituant le syst eme. L'utilisation des m ethodes formelles dans le cadre du d eveloppement de syst emes apporte un gain enorme en productivit e d'une part par la r eduction des co^uts et des d elais de validation, d'autre part, par l'e cacit e de ces m ethodes, qui apporte une abilit e plus elev ee. En e et, l'approche formelle s'appuie sur des formalismes et des techniques permettant de raisonner rigoureusement sur des syst emes. Cette th ese s'inscrit dans le contexte du d eveloppement de syst emes ables par construction ce qui permet de r eduire consid erablement le temps de leur conception. Nous proposons un cadre th eorique pour le d eveloppement de composants r eactifs synchrones s^urs de mani ere compositionnelle. Pour ce faire, nous o rons d'une part un cadre de description de composants r eactifs el ementaires dans un formalisme adapt e pour la v eri cation formelle de propri et es de s^uret e. D'autre part, nous etendons la th eorie des I/O-automata, qui est largement utilis ee pour la mod elisation des syst emes r eactifs avec un op erateur de composition pour la construction des syst emes globaux a partir de composants el ementaires. L'approche propos ee garantit la production de composants corrects par construction. Pour valider notre approche, nous avons montr e que l'op erateur de composition propos e assure la pr eservation de la s emantique comportementale des mod eles des composants r eactifs.Item Construction de code malveillant activable par attaque en faute pour support d'exécution sécurisé et contre-mesure associée(2019) Hamadouche, SamiyaLes éléments sécurisés ont gagné une grande place dans notre vie quotidienne. Ils existent sous plusieurs formes. La carte à puce est l’élément le plus représentatif de la famille des éléments sécurisés. Elle est considérée comme étant un support d’exécution d’applications et de stockage d’informations très sécurisé. Vu la nature des informations qu’elles détiennent, les cartes à puce sont devenues la cible des personnes malintentionnées qui veulent s’approprier des informations sensibles qui y sont stockées voir même prendre le contrôle du système. La sécurité d’une carte à puce peut être contournée par des attaques matérielles, logicielles ou combinées. C’est dans cette dernière catégorie que s’inscrit notre travail. Notre objectif dans cette thèse est de développer un nouveau vecteur d’attaque. En effet, c’est en maîtrisant les détails permettant de contourner la sécurité de la carte que nous pourrions par la suite trouver les contre-mesures permettant de s’en prémunir : « La meilleure défense c’est l’attaque ». La plateforme Java Card étant la plus utilisée, elle est retenue comme notre plateforme cible. Le but est de trouver une méthodologie de construction de codes malveillants activables par attaque en faute. L’idée est de cacher ce code malveillant dans un autre code sain (par construction) afin qu’il puisse être chargé dans la carte sans qu’il ne soit détecté par les mécanismes de sécurité embarqués ou une analyse du code. Une fois sur la carte, le comportement hostile est activé moyennant une injection de faute. Pour aboutir à notre objectif, nous avons proposé deux approches complémentaires répondant chacune à un problème particulier. La première est une approche de construction de séquence de code, reliant deux états mémoire donnés, par parcours d’arbre. Elle repose sur des fondements théoriques liés au domaine des CSPs (Constraint Satisfaction Problem). La seconde approche traite le mécanisme de désynchronisation de code qui permet la dissimulation d’un code donné en opérant des transformations dessus. La mise en œuvre des deux approches a donné lieu à deux outils pouvant générer des solutions de façon automatique. Des exemples d’application et une étude de cas ont permis de présenter des exploitations possibles des approches proposées afin de réaliser des opérations mettant en danger la sécurité d’une carte à puceItem Contribution à la qualité de service et la sécurité dans un réseau dynamique et distribué(Université M'Hamed Bougara Boumerdes : Faculté des Sciences, 2022) Nouasri, Amine; Riahla, Mohammed Amine(Directeur de thèse)Les réseaux dynamiques présentent l'avantage de mettre en place un réseau de communication peu coûteux et rapide à déployer. Un des exemples typiques de ces réseaux, et qui prend de plus en plus d'importance ces dernières années sont les flottes de drones, à travers leurs domaines d'application variés. Il très important d'assurer une Sécurité et une Qualité de service (ou QoS) dans l'exploitation de ces réseaux. Il convient d'assurer différents services de sécurité, comme l'authentification, l'intégrité, la confidentialité, et la disponibilité. En plus, ces échanges doivent être fait dans des délais acceptables et en minimisant les pertes de données. Ceci présente beaucoup de challenges dû aux propriétés Ad Hoc de ces réseaux. Notre travail dans cette thèse a donné le fruit à un système de monitoring d'une flotte de drones. Notre solution porte sur une approche réactive qui résume les incidents possibles à travers le calcul de certains paramètres clés du réseau, et de réorganiser les nœuds de manière à contrer les incidents et assurer une continuité de serviceItem Contributions au routage, qualité de service et sécurité dans les réseaux ad-hoc(2019) Baddari, IbtihelLa problématique de routage dans les réseaux ad-hoc consiste à déterminer et à maintenir le chemin le plus adapté en efficacité et efficience pour faire transiter les données à communiquer. Toutefois, les caractéristiques de ce type de réseaux présentent un challenge difficile et contraignant en relation avec les limites imposées dans le routage telles que la conservation d’un minimum de messages de contrôles, l’efficacité du délai de livraison des paquets, l’optimisation des ressources et principalement l’équilibrage de charge. Le problème de l’équilibrage de charge entre nœuds s’impose dans le processus de routage à mono-chemin lorsque certains nœuds du réseau sont peu utilisés et d’autres sont fortement congestionnés donc consomment rapidement leurs ressources à savoir la bande passante et l’énergie. Cette répartition non homogène de la charge influence négativement sur la durée de vie du réseau en engendrant un faible taux de délivrances de paquets avec succès, un long délai d’attente ainsi qu’une consommation inefficace de l’énergie. Afin d’affaiblir quelques faiblesses causées par le phénomène de non équilibrage, il a été développé la technique de routage appelée multi-chemin dont l’objectif est d’améliorer le temps de la réception de l’information et de mieux gérer les ressources disponibles dans le réseau. Tout de même, de nombreux problèmes restent posés dans cette architecture et l’amélioration escomptée n’est pas atteinte. Cette thèse porte sur l’étude, l’évaluation et l’amélioration du service de routage des données dans les réseaux Ad-hoc dans leurs deux architectures de mono et de multi-chemins. Une étude comparative de certains protocoles multi-chemins a été réalisée dont le but est de déceler les avantages et les inconvénients de chacun d’eux. Dans ce type de routage, nous avons proposé également une nouvelle approche baptisée AOMDV-LP (Ad-hoc On-Demand Distance Vector Multipath with Lifetime Prolonging) basée sur le protocole de routage AOMDV. L’objectif est d’arriver à un mécanisme efficace pour l’optimisation de la durée de vie du réseau et de contrôler sa congestion grâce à l’implémentation d’une procédure d’équilibrage de charge. L’idée principale est fondée sur une procédure de routage qui évite les routes à faible énergie et optimise le processus de routage en sélectionnant plusieurs chemins de bonne qualité comparés à la première version de l’AOMDV. A cet effet, une formule originale est établie et appliquée pour la sélection d’un meilleur chemin en considérant l’énergie des nœuds intermédiaires, le nombre de sauts pour atteindre la destination souhaitée ainsi qu’un nouveau paramètre appelé « coût du lien ». Les résultats obtenus sont très significatifs, satisfaisants et concluants avec un taux de pertes de paquets réduit, un délai de communication et un débit améliorésItem Contributions au routage, qualité de service et sécurité dans les réseaux ad-hoc(2019) Baddari, IbtihelItem Détection des communautés dans les réseaux sociaux(Université M'hamad Bougara : Faculté des Sciences, 2021) Djerbi, Rachid; Amad, Mourad(Directeur de thèse)Ces dernières années, plusieurs modèles, approches et algorithmes pour analyser et extraire les connaissances des réseaux sociaux (SN) ont été proposés. L'une des connaissances les plus recherchées dans ce contexte est de trouver le regroupement d'abonnés en ‘’clusters’’ autours des centres d’intérêt et de sujets de discussion. On parle alors du concept social des «communautés». Une communauté est donc un groupe d'abonnés (ou de noeuds dans le contexte graphique) fortement connectés entre eux et faiblement connectés avec les autres. La détection des communautés est devenue une tâche importante pour comprendre comment la structure du SN change avec le temps. C'est également une étape essentielle de l'analyse des SN. Cependant, trouver les communautés d’un réseau social reste un défi et un domaine de recherche d'actualité qui attire de nombreux chercheurs. Dans ce travail, nous proposons une nouvelle approche pour détecter la meilleure partition des communautés en fonction du nombre de noeuds en commun entre chaque paire d'entre eux. En se basant sur la vie sociale des individus au sein de leurs sociétés, nous cherchons l’ensemble des paires (parents) ayant le maximum de noeuds (fils) en commun pour en former une communauté (famille), les autres individus joindront les communautés adéquates selon quelques paramètres de préférences, les communautés trouvées se fusionnent selon quelques conditions. Le modèle proposé est stable, veut dire qu’il donne toujours les mêmes résultats (ou similaires) pour plusieurs exécutions sur le même graphe. Nos expériences sur des vrais SN montrent que l'approche proposée peut définir avec précision l’ensemble des communautés. Le modèle proposé est générique et plusieurs extensions ont été proposé comme la prise en charge des réseaux orientés/non orientés, dynamiques/statiques, pondérés ou non, communautés avec ou sans chevauchement. Dans ce mémoire nous parlons des réseaux sociaux et la détection des communautés, donnons un état de l’art et historique de cet axe de recherche, puis détaillerons notre contribution et nous finissons avec une conclusion et quelques perspectivesItem Development of a self-adaptive multi-agent system for medical image processing(Université M'hamad Bougara : Faculté des Sciences, 2022) Bennai, Mohamed Tahar; Mezghiche, Mohamed(Directeur de thèse)L'imagerie m edicale fournit une repr esentation visuelle des structures ou des activit es du corps humain selon di erentes modalit es anatomiques et fonctionnelles. L'une des m ethodes de traitement les plus couramment utilis ees sur ce type d'images est la segmentation. La segmentation est un processus lors duquel une image est divis ee en un ensemble de r egions d'int er^et. La complexit e de l'anatomie humaine et les artefacts d'acquisition des images m edicales complexi e grandement la segmentation de ces derni eres. Ainsi, plusieurs solutions ont et e propos ees pour automatiser la segmentation des images. Cependant, la plupart des solutions existantes utilisent des connaissances a priori et/ou n ecessitent une forte interaction avec l'utilisateur pour r ealiser correctement cette t^ache. Dans cette th ese, nous proposons plusieurs approches multi-agents pour l'automatisation de la segmentation d'images m edicales. Ces approches, utilisant un algorithme de croissance de r egions modi e, sont bas ees sur des agents autonomes et interactifs coop erant au sein de l'image a n de correctement la segmenter. Dans un premier temps, une approche a base de r egion utilise un ensemble d'agents mobiles pour explorer l'image et d etecter les r egions homog enes qui la composent. Lors du processus de d etection des r egions, chaque agent une m ethode de croissance des r egions qui introduit l'emploi de la valeur du gradient lors de l' evaluation des similarit es. Cette m ethode est ex ecut ee de mani ere coop erative par plusieurs g en erations d'agents jusqu' a ce que l'ensemble de l'image soit trait ee. Cette approche fut test ee sur un ensemble d'IRM c er ebrale avec di erent niveau de d et erioration. Les r esultats montrent que l'interaction entre la population d'agents o re une e cacit e certaine pour la segmentation des tissus c er ebraux dans des IRM saines. Par la suite, une autre approche appel ee MLISS et utilisant simultan ement les propri et es de similarit e et de discontinuit e de l'image pour la d etection des r egions est pr esent ee. Contrairement a l'approche pr ec edente, MLISS utilise deux ensembles distincts d'agents. Le premier ensemble d'agents a pour but de pr eparer la d etection des noyaux de r egions, quand le second groupe d'agents utilise une m ethode de croissance de r egion pour d etecter les r egions nales. Cette nouvelle architecture permet d'am eliorer les r esultats de segmentation de r egions compactes comme ce fut le cas lors de la segmentation des zones de mati ere blanche dans des images IRM c er ebrales. Pour nir, une nouvelle approche multi-agents, inspir ee des deux pr ec edentes et baptis ee MAMES, est propos ee pour la segmentation de r egions tumorales dans des images IRM c er ebrales 3D. MAMES a h erit e de l'architecture a deux ensembles d'agents de MLISS. De ce fait, la premi ere population d'agents permet le placement des germes de r egions et la croissance de ces derni eres, tandis que la seconde population interagit et collabore pour permettre la nalisation de la segmentation en fusionnant les r egions sur-segment ees. Les exp erimentations men ees sur des IRM c er ebrales saines et pathologiques ont fourni des r esultats prometteurs, d emontrent ainsi l'e cacit e de notre m ethode, notamment pour la segmentation des tumeursItem Extension floue de l'analyse de concepts formels pour la recherche d'Information(2018) Zerarga, LoutfiLes travaux e_ectu_es dans le cadre de cette th_ese reposent principalement sur l'id_ee d'utiliser le cadre th_eorique o_ert par l'analyse de concepts formels (ACF) dans le domaine de la recherche d'information (RI), domaine fort souvent abord_e uniquement sous un volet exp_erimental. Estimant que la RI peut aussi tirer pro_t d'un cadre formel, nous proposons une th_eorie axiomatique multi-sorte qui formalise le processus de recherche et les objets li_es _a la RI. Cette th_eorie o_re un cadre g_en_erique capable de reproduire et de repr_esenter les mod_eles de RI existants. Cette g_en_ericit_e est mise en _evidence en prouvant que trois interpr_etations di__erentes satisfont notre th_eorie ; _a savoir le mod_ele Bool_een, le mod_ele ou standard et le mod_ele vectoriel. L'utilit_e de notre th_eorie est aussi mise en _evidence par le fait qu'elle permet d'enrichir et le mod_ele Bool_een et le mod_ele ou standard. En d'autres termes, nous d_emontrons des propri_et_es alg_ebriques caract_erisant les di__erentes formes de requ^etes de ces mod_eles par les treillis de concepts formels et les treillis de N_-paires relatifs respectivement _a l'ACF et _a sa lecture possibiliste et oue. Ainsi enrichi, le mod_ele Bool_een a _et_e mis _a contribution dans le cadre de la RI structur_ee en se basant sur l'extension triadique de l'ACF, permettant ainsi le traitement des requ^etes orient_ees contenu et des requ^etes orient_ees contenu et structure. La quasi-majorit_e des approches existantes de RI bas_ees sur l'ACF ne prennent pas en consid_eration la pond_eration des requ^etes. A partir de ce constant, nous proposons une approche de recherche par navigation dans les treillis relatifs _a l'extension oue de l'ACF et _a son interpr_etation possibiliste. L'ignorance partielle/totale _etant une r_ealit_e forte souvent constat_ee dans les matrices d'incidence Documents_ Termes, nous proposons, dans le cadre de cette extension oue, de mod_eliser de pareilles r_ealit_e par des intervalles de v_erit_e. A_n de faciliter la recherche par navigation dans les treillis inh_erents _a l'ACF, nous proposons une transformation lin_eaire de ces derniers en d_e_nissant un ordre total sur les ensembles de concepts formels ous et duallement sur les ensembles de N_-paires ouesItem Gestion de contraintes dans les approches évolutionnaires(Université M'Hamed Bougara Boumerdès : Faculté des Sciences, 2024) Alouane, Basma; Boulif, Menouar(Directeur de thèse)Les problèmes d'optimisation sont souvent difficiles à résoudre efficacement par des méthodes exactes, notamment lorsque ces problèmes sont combinatoires, complexes ou NP-hard, en raison de la complexité exponentielle de celles-ci. Face à ces limitations, des méthodes approximatives telles que les approches évolutionnaires ont été proposées. En général, les problèmes d'optimisation sont soumis à des contraintes. Dans les approches évolutionnaires, les opérateurs d'exploitation et d'exploration (sélection, mutation et croi- sement) ne prennent pas en compte les contraintes, ce qui conduit à la division de l'espace de recherche en deux sous-ensembles disjoints : l'espace réalisable (contenant uniquement les solutions satisfaisant toutes les contraintes) et l'espace irréalisable (contenant les solu- tions violant au moins une contrainte). Ceci a incité les chercheurs à proposer d'équiper ces approches de méthodes de gestion des contraintes qui les gèrent et explorent l'information cachée dans les solutions irréalisables afin d'aider l'approche évolutionnaire à converger vers l'optimum. Dans cette thèse, nous proposons une technique de gestion des contraintes basée sur des fonctions de transformation. Nous étudions l'impact de la prise en compte de diffé- rents ordres de priorité des contraintes et proposons un système d'inférence floue pour gérer l'ordre des contraintes et aider l'algorithme évolutionnaire à converger vers l'espace réalisableItem Le problème de classification automatique de données : approches mono et multi-objectif(Université M'hamad Bougara : Faculté des Sciences, 2021) Boudane, Fatima; Berrichi, Ali( Directeur de thèse)Le clustering est l’une des tâches les plus importantes et les plus étudiées en data mining. Bien que beaucoup d’algorithmes de clustering aient été proposés dans la littérature de recherche, la plupart d'entre eux ne peuvent pas traiter correctement des ensembles de données ayant des clusters de formes arbitraires et de densité variable. De plus, les plus connus des algorithmes dépendent des paramètres utilisateur qui sont difficiles à définir. Dans le cadre de cette thèse, nous considérons le problème de clustering traitant des ensembles de données avec un nombre inconnu de clusters, ayant des formes arbitraires, présentant des variations de densité et contenant des outliers. Notre motivation principale est de proposer de nouvelles approches permettant d’automatiser le processus de clustering en considérant des ensembles de données possédant toutes ces spécifications. Pour répondre à ces exigences, nous avons proposé, tout d’abord, un nouvel indice de validation du clustering basé sur la connectivité et la densité (CDBCVI), qui permet de faire face au cas de clusters de formes arbitraires et de différentes densités. Il facilite ainsi l'évaluation des algorithmes de clustering et la sélection de leurs paramètres appropriés. Ce nouvel indice est basé sur les relations de densité et de connectivité entre les objets de données, extraites sur la base du graphe de proximité de Gabriel. L'incorporation des relations de connectivité et de densité permet d'obtenir de bons résultats de clustering dans le cas de clusters de n'importe quelle forme, taille ou densité. Par la suite, nous avons proposé trois approches de clustering mono- et multi-objectif qui permettent d’automatiser le processus de clustering et d’améliorer la qualité de ses résultats. Ces approches utilisent un schéma de codage de solutions basé sur la densité, inspiré des algorithmes basés sur la densité NBC (Neighborhood-Based Clustering) et DBSCAN (Density Based Spatial Clustering of Applications with Noise) qui sont très efficaces dans le cas de clusters ayant des formes arbitraires et des densités différentes. La première approche consiste à utiliser la métaheuristique de recherche par voisinage variable (Variable Neighborhood Search (VNS)), afin de remédier à la difficulté du choix de la valeur du paramètre unique de l’algorithme NBC et améliorer ses résultats. La deuxième approche consiste à utiliser l’algorithme de colonie d’abeilles artificielles (Artificiel Bee Colonies (ABC)) afin d’automatiser et améliorer la qualité du clustering de l’algorithme NBC. Quant à la troisième approche, elle consiste à utiliser l’algorithme ABC afin d’automatiser et améliorer la qualité du clustering en s’inspirant de la procédure d’expansion de clusters de l’algorithme DBSCAN. Pour améliorer le processus d'évaluation des solutions de clustering au cours des itérations, nous avons défini plusieurs fonctions objectif basées sur des concepts de densité, vu que la prise en compte d'une seule fonction objectif peut ne pas être conforme aux ensembles de données ayant des clusters de formes complexes et des outliers. Nous avons testé la performance des approches proposées par une expérimentation approfondie sur des ensembles de données réels et synthétiques. Les résultats expérimentaux démontrent l’efficacité et la supériorité des approches proposées par rapport à plusieurs d’autres approches de la littératureItem Méthode pour l’evaluation de l’agilité des systèmes d’information du e-gouvernement(gouvernement electronique)(Université M'Hamed Bougara Boumerdès : Faculté des Sciences, 2023) Aggoune, Soumia; Riahla, Mohammed Amine(Directeur de thèse)Le besoin de l’Agilité dans l'e-gouvernement est du aux changements permanents de l'environnement (politique, législatif, social, économique, technologique,...) qui à leurs tours provoquent des changements dans les réglementations et les lois, qui peuvent affecter les processus et les systèmes. Un changement d'une activité dans un processus ou dans une partie d'un système d'e-gouvernement, peut entraîner de nombreux problèmes dans d'autres parties ou dans le même processus ou système. Les systèmes d'information d’ E-gouvernement (SI e-Gov), en particulier, se caracérisent par un degré de volatilité élevé, puisque, les changements qui les affectent proviennent de multiple sources, y compris les modifications législatives, les réformes organisationnelles, les exigences des utilisateurs finaux, les évolutions technologiques, les problèmes d’interopérabilité et de distribution et ainsi de suite. Ces changements imposent d'une part, la nécessité d'une mise à jour continue de ces systèmes, qui sont hétérogènes, distribués et fragmentés, pour répondre aux besoins du Front Office (citoyens et entreprises) et du Back Office (organisation et structures internes). D’autre part, la nécessité de réaliser ces mises à jour de manière agile, assurant la cohérence d'ensemble et la continuité de service durant la maintenance. Mesurer et évaluer l’Agilité des systèmes d'e-gouvernement est une thématique relativement nouvelle ; mais qui attire de plus en plus les décideurs, car les gouvernements sont appelés à justifier les investissements (importants), évaluer les impacts et suivre les progrès. Les résultats du suivi et de l'évaluation P a g e 2 | 5 Peuvent être d'une grande valeur, aidant les gouvernements à construire des rapports politiques sur ce qui a été fait, et orienter les portefeuilles de projets sur ce qui reste à faire, à l'appui d'un meilleur programme gouvernemental. En outre, l'échange et le partage d'expériences dans ce domaine revêt d’une importance particulière pour les pays qui sont encore aux premiers stades de développement de l’e-gouvernement, en les permettant d’apprendre des expériences de succès et d’échecs des autres pays. Notre travail s’inscrit dans cette optique et propose une méthode pour l’évaluation de l’Agilité des systèmes d'information d’ E-gouvernement (SI e- gov). Le principe de cette méthode consiste à combiner les deux parties fondamentales du SI e-gov -Front Office et Back Office- dans un cadre dévaluation commun, pour évaluer son degré d’Agilité total. Pour construire notre méthode « from scratch », nous nous sommes basés sur le domaine de l’Ingénierie des méthodes. Une méthode selon ce domaine, traite les deux aspects de l’ingénierie : le produit et le processus ; et comprend par sonséquent, un (ou plusieurs) modèle de produit et un (ou plusieurs) modèle de processus. Le produit est le résultat à atteindre. Le processus est le chemin qu'il faut parcourir pour atteindre le résultat. En effet, le modèle de produit prescrit quelles sont les caractéristiques attendues du produit généré. Le modèle de processus prescrit des étapes méthodologiques pour atteindre le produit cible. Par rapport à notre travail, les produits de notre méthode sont : (1) les grilles d’analyses pour l’évaluation de l’Agilité, (2) les formules de calcule du degré d’Agilité et (3) le Rapport de final de l’évaluation. Tandisque le processus, consiste sur l’ensemble d’ étapes à suivre pour mener l’évaluation.Item Modèle de représentation et d'appariement de documents XML selon une indexation structurelle(2011) Ait El hadj, AliItem Modélisation des eh-wsns à capteurs non fiables(Université M'Hamed Bougara Boumerdes : Faculté des Sciences, 2022) Oukas, Nourredine; Boulif, Menouar(Directeur de thèse)Les réseaux de capteurs sans ?l (RCSFs) présentent un inconvénient majeur lié à la non ?abilité des capteurs. Ceci est dû à l’épuisement de l’énergie stockée dans leurs petites batteries qui est la cause principale de la majorité des pannes de ces réseaux. A cet effet, l’objectif principal de notre investigation est la détermination de solutions permettant aux RCSFs d’économiser de l’énergie. L’utilisation des énergies renouvelables de l’environnement pour alimenter les capteurs représente une des solutions ef?caces pour remédier à ce problème. Néanmoins, les RCSFs ont besoin d’utiliser d’autres stratégies de conservation d’énergie pour assurer la continuité et la qualité de service, surtout, dans le cas de déploiements à long-terme. En vue de cela, implanter un mécanisme de veille intelligent permet d’augmenter la durée de vie des batteries ; ce qui engendrera des effets positifs sur tout le réseau. L’évaluation des performances des RCSFs par des outils de simulations et/ou de modélisation est nécessaire pour prévoir le comportement du réseau avant son installation réelle. Ceci évitera de transgresser la contrainte du budget alloué. Parmi les outils de modélisation les plus performants, les Réseaux de Petri (RdP) avec leurs différentes extensions permettent à la fois de modéliser et d’évaluer les performances des RCSFs. Dans ce manuscrit, nous proposons une modélisation basée sur les RdPs Stochastiques Généralisés (RdPSGs) et RdPSGs Colorés, en tenant compte diverses circonstances et contraintes de déploiement réel. Ensuite, par une analyse expérimentale et une étude de cas, nous montrons comment utiliser les modèles proposés a?n de trouver le paramétrage qui permet au RCSF d’assurer les performances escomptéesItem Outils de développement formel pour les logiques de description(Université M'Hamed Bougara Boumerdes : Faculté des Sciences, 2023) Chaabani, Mohamed; Mezghiche, Mohamed(Directeur de thèse)Les Logiques de Description (DLs ) forment une famille de langages de repr´esentation et de raisonnement sur des connaissances structur´ees et formelles, d’un domaine d’application donn´e. Les DLs sont des fragments d´ecidables de la logique de premier ordre. Elles sont utilis´ees dans plusieurs domaines d’application. Pour repr´esenter la connaissance d’un certain domaine, les DLs exigent la d´e?nition de cat´egories g´en´erales d’individus, de relations logiques que les individus ou cat´egories peuvent entretenir ensembles. Le raisonnement dans les DLs consiste `a appliquer une m´ethode de preuve `a un ´enonc´e formul´e, dans le but de d´eterminer si cet ´enonc´e est valide ou satis?able dans le contexte d’une base de connaissances. La m´ethode de preuve la plus ?able est bas´ee sur les tableaux s´emantiques. D’o`u il apparaˆ?t n´ecessaire de d´emontrer la validit´e formelle du type de raisonnement utilis´e en faisant appel aux assistants de preuves notamment Coq et Isabelle/HOL. La puissance de la m´ethode des tableaux s´emantiques exploit´es dans di?´erents domaines de la prise de d´ecision tels que celui explor´es dans le cadre de cette th`ese a suscit´e plusieurs travaux sur la validation de cette m´ethode et son exploitation pour v´eri?er la correction de fonctionnement de di?´erents syst`emes. Notre contribution principale consiste `a d´evelopper un raisonneur, pour la logique de description. Pour ce faire nous avons opt´e `a formaliser dans un premier temps la logique ALC (Attribute Language with Complement) consid´er´ee comme un repr´esentant typique d’une large gamme de logiques de description en utilisant l’assistant de preuve Coq. Nous avons ensuite consid´er´e ALCQ une extension de ALC . Nous avons r´ealis´e sa formalisation dans l’assistant de preuve Isabelle/HOL, ensuite, nous avons d´emontr´e formellement sa correction. Cette v´eri?cation repose sur la sp´eci?cation de la syntaxe et de la s´emantique pour chaque logique. Nous associons `a chaque formalisation les preuves pour certi?er sa correction, `a savoir, preuves des propri´et´es de l’ad´equation, de la compl´etude et de la terminaison dans les assistants de preuve Coq et Isabelle/HOL. Nous nous sommes int´eress´e ensuite `a l’exploitation de ces logiques pour la description et le raisonnement sur la correction des transformations de mod`eles. Comme celui de la transformation de graphe dont l’objectif est d’´etudier la v´eri?cation de telles transformations de graphes. Nous avons d´e?ni dans ce contexte deux approches, la premi`ere est bas´ee sur la d´e?nition d’un langage formel ALCQ? comme une extension de la logique ALCQ par l’ajout de la notion substitution. La seconde approche est bas´ee sur la d´e?nition d’un moteur de transformation `a partir de un mod`ele pratique pour un raisonneur de DL . La derni`ere contribution s’inspire de l’approche d´evelopp´ee pr´ec´edemment. L’id´ee est de proposer un algorithme d´eriv´e de la m´ethode du tableau s´emantique pour la fragmentation horizontale dans le domaine des bases de donn´ees et des entrepˆots de donn´ees. L’algorithme con¸cu est formalis´e dans l’assistant de preuve Isabelle, avec la preuve de sa correction, notamment la propri´et´e de compl´etude et d’ad´equationItem Protocoles d'échange de clés et crypto-systèmes basés sur les courbes elliptiques(2019) Mehibel, NissaL'Internet devient de plus en plus omniprésent dans notre vie quotidienne et intervient dans divers domaines, où l'échange et le traitement de l'information doivent être sécurisés. La cryptographie est la solution qui est la plus utilisée pour sécuriser l'information, en assurant les contraintes de sécurité, à savoir la confidentialité, l'intégrité, l'authentification et la non-répudiation. Deux types de cryptographie sont classiquement distingués. La cryptographie asymétrique offre une distribution de clés sécurisée ainsi que la signature numérique, mais elle nécessite plus de calculs que la cryptographie symétrique. Pour cette raison, l'utilisation de la cryptographie basée sur les courbes elliptique prend de plus en plus de l'ampleur. C'est une cryptographie asymétrique connue pour sa robustesse qui est basée sur la difficulté de résoudre le problème de logarithme discret, d'une part, et pour son utilisation de clés de taille nettement plus réduite que celles de RSA, en offrant le même niveau de sécurité, d'autre part. Dans cette thèse, nous essayons de répondre aux contraintes de sécurité et de performance qu'impose le fonctionnement efficace des protocoles cryptographiques basés sur les courbes elliptiques, notamment à l'échange de clé Diffie-Hellman (DH), au crypto-système d'ElGamal et à l'algorithme de signature numérique. Nous proposons deux solutions pour répondre aux contraintes d'authentification. Dans la première, nous présentons une nouvelle approche d'échange de clé secrète DH. La deuxième concerne l'intégration de l'algorithme de signature numérique sur courbes elliptiques au protocole d'accord de clé DH. Nous analysons l'algorithme de signature numérique basé sur les courbes elliptiques ainsi que ses variantes, et nous proposons des améliorations y afférentes
