Doctorat
Permanent URI for this collectionhttps://dspace.univ-boumerdes.dz/handle/123456789/46
Browse
Item Modèle de représentation et d'appariement de documents XML selon une indexation structurelle(2011) Ait El hadj, AliItem Un modèle d'évaluation et de contrôle de l'agilité des systèmes d'information d'entreprise(2012) Imache, RabahDevant les mutations qui s'opèrent de plus en plus rapidement dans le monde économique, législatif et technologique, il devient nécessaire de définir de nouvelles méthodologies appropriées et de nouveaux outils adéquats permettant de mieux structurer, recycler, réutiliser et de mieux adapter les applications qui composent le système d'information d'entreprise (SIE) pour garantir l'évolutivité, la durabilité et la sécurité de l'entreprise. En effet, le système d'information est le système nerveux de l'entreprise sur lequel pèse la pression des changements internes et externes que subit l'entreprise. Ainsi le SIE devient de plus en plus complexe et hétérogène qu'il convient alors de rendre agile afin de garantir l'interopérabilité, l'intégration et l'évolutivité de ses composants dans le cadre de la cohérence globale. Notre travail porte sur l'évaluation et le contrôle de l'agilité des SIE. Il propose une approche flexible basée sur les concepts d'amélioration continue, d'urbanisation, et de la conceptualisation POIRE. Cette approche, à notre sens est nécessaire dans le contexte de développement durable des systèmes d'information agiles. Après avoir exposé la problématique de l'agilité des SIE, nous avons présenté les différentes approches existantes d'évaluation et/ou de production de l'agilité. L'analyse de l'état de l'art nous a permis de faire le constat suivant: les approches proposées sont soit théoriques soit elles portent sur une partie du système d'information. Nous avons aussi constaté que la conceptualisation des systèmes d'information porte sur deux, trois ou quatre niveaux (ou dimensions) de description. Vue la complexité de plus en plus croissante du SIE, il est important de l'appréhender d'une manière à maîtriser sa complexité afin de le rendre agile et contrôlable. Partant de ce constat, nous avons alors proposé un cadre méthodologique avec une conceptualisation du SIE comportant cinq dimensions en interaction: Processus, Organisation, Information, Ressource, et Environnement, d'où l'appellation POIRE. Toutes ces dimensions sont concernées par l'agilité et influencent la stratégie de l'entreprise et vice versa. En se basant sur les concepts d'amélioration continue et d'urbanisation qui permet de mieux structurer l'architecture du système d'information, nous considérons les dimensions du SIE à la fois individuellement et collectivement afin d'assurer la cohérence globale et de maitriser les recouvrements et influences inter dimensions. Ceci nous permet d'évaluer l'agilité cible et l'agilité réelle du système d'information à travers l'évaluation de l'agilité de chacune de ses dimensions POIRE, en termes de capacité disponibles et de leur exploitation, respectivement, et puis de proposer les ajustements nécessaires pour faire converger le niveau d'agilité globale réel vers la valeur cible afin d'aligner en permanence le SI sur la stratégie et les objectifs, de plus en plus moins stables, de l'entreprise. L'approche proposée appréhende le SIE, en termes d'influences mutuelles, par niveaux de complexité: modèle simple qui ignore les influences mutuelles entre les dimensions et entre leurs critères; le modèle étendu qui prend en considération les influences entre les dimensions POIRE; et le modèle détaillé qui prend en considération les influences entre les dimensions et les influences entre les critères de chaque dimension POIRE. Dans ce présent travail, nous avons détaillé le modèle simple et nous avons développé un prototype pour évaluer l'agilité du système d'information du tour opérateurItem Recherche d'information dans les documents XML : prise en compte des liens pour la sélection d'éléments pertinents(2016) Mataoui, M'HamedNotre travail se situe dans le contexte de la recherche d'information (RI), plus particulièrement la recherche d'information dans des documents semi structurés de type XML. L'exploitation efficace des documents XML disponibles doit prendre en compte la dimension structurelle. Cette dimension a conduit à l'émergence de nouveaux défis dans le domaine de la RI. Contrairement aux approches classiques de RI qui mettent l'accent sur la recherche des contenus non structurés, la RI XML combine à la fois des informations textuelles et structurelles pour effectuer différentes tâches de recherche. Plusieurs approches exploitant les types d'évidence ont été proposées et sont principalement basées sur les modèles classiques de RI, adaptées à des documents XML. La structure XML a été utilisée pour fournir un accès ciblé aux documents, en retournant des composants de document (par exemple, sections, paragraphes, etc.), au lieu de retourner tout un document en réponse une requête de l'utilisateur. En RI traditionnelle, la mesure de similarité est généralement basée sur l'information textuelle. Elle permetle classement des documents en fonction de leur degré de pertinence en utilisant des mesures comme:" similitude terme " ou " probabilité terme ". Cependant, d'autres sources d'évidence peuvent être considérées pour rechercher des informations pertinentes dans les documents. Par exemple, les liens hypertextes ont été largement exploités dans le cadre de la RI sur le Web.Malgré leur popularité dans le contexte du Web, peud'approchesexploitant cette source d'évidence ont été proposées dans le contexte de la RI XML. Le but de notre travail est de proposer des approches pour l'utilisation de liens comme une source d'évidencedans le cadre de la recherche d'information XML. Cette thèse vise à apporter des réponses aux questions de recherche suivantes : 1. Peut-on considérer les liens comme une source d'évidence dans le contexte de la RIXML? 2. Est-ce que l'utilisation de certains algorithmes d'analyse de liensdans le contexte de la RI XML améliore la qualité des résultats, en particulier dans le cas de la collection Wikipedia? 3. Quels types de liens peuvent être utilisés pour améliorer le mieux la pertinence des résultats de recherche? 4. Comment calculer le score lien des différents éléments retournés comme résultats de recherche? Doit-on considérer lesliens de type "document-document" ou plus précisément les liens de type "élément-élément"? Quel est le poids des liens de navigation par rapport aux liens hiérarchiques? 5. Quel est l'impact d'utilisation de liens dans le contexte global ou local? 6. Comment intégrer le score lien dans le calcul du score final des éléments XML retournés? 7. Quel est l'impact de la qualité des premiers résultats sur le comportement des formules proposées? Pour répondre à ces questions, nous avons mené une étude statistique, sur les résultats de recherche retournés par le système de recherche d'information"DALIAN", qui a clairement montré que les liens représentent un signe de pertinence des éléments dans le contexte de la RI XML, et cecien utilisant la collection de test fournie par INEX. Aussi, nous avons implémenté trois algorithmes d'analyse des liens (Pagerank, HITS et SALSA) qui nous ont permis de réaliser une étude comparative montrant que les approches "query-dependent" sont les meilleures par rapport aux approches "global context" . Nous avons proposé durant cette thèse trois formules de calcul du score lien: Le premièreest appelée "Topical Pagerank"; la seconde est la formule : "distance-based"; et la troisième est :"weighted links based". Nous avons proposé aussi trois formules de combinaison, à savoir, la formule linéaire, la formule Dempster-Shafer et la formule fuzzy-based. Enfin, nous avons mené une série d'expérimentations. Toutes ces expérimentations ont montré que: les approches proposées ont permis d'améliorer la pertinence des résultats pour les différentes configurations testées; les approches "query-dependent" sont les meilleurescomparées aux approches global context; les approches exploitant les liens de type "élément-élément"ont obtenu de bons résultats; les formules de combinaison qui se basent sur le principe de l'incertitude pour le calcul des scores finaux des éléments XML permettent de réaliser de bonnes performancesItem Une approche SVM-méta-heuristique pour laclassification : application à l'information médicale(2016) Nekkaa, MessaoudaCe projet de doctorat porte sur la r esolution du problème de classifcation de donn ees médicales par une approche méta-heuristique combinée avec un classifcateur SVM. La classifcation de données est un problème important et complexe en data mining. Ce problème nécessite une approche d'optimisation pour sa réesolution efficace. Dans cette thèse, nous nous interessons a la sélection d'attributs par une approche m eta-heuristique, ce qui permettra de sélectionner un sous-ensemble d'attributs pertinents pour la phase de classifcation. Nous proposons plusieurs méthodes de sélection d'attributs, combinant des algorithmes méeta-heuristiques avec un séparateur la vaste marge (SVM).Item Approches de résolution exacte du problème de composition de cellules dans les systèmes cellulaires de production(2016) Merchichi, SabrinaCette thèse se situe dans le domaine de l'optimisation, en particulier celui de l'optimisation combinatoire. L'objectif de notre travail est d'étudier le problème de composition de cellules dans les systèmes cellulaires de production. Dans la première partie de cette thèse, nous nous intéressons à l'importance de la variable de décision choisie dans la modélisation du problème de composition de cellules. Nous commençons par la présentation de trois modèles mathématiques et deux modèles basés sur la théorie des graphes pour ce problème. Ensuite, nous examinons ces différents modèles d'un point de vue théorique. La deuxième partie traite essentiellement la résolution exacte du problème de composition de cellules. La méthode exacte que nous choisissons est de type séparation et évaluation. Nous présentons d'abord, une première version de cette méthode qui utilise une procédure de branchement basée sur les co-cycles. Ensuite, nous proposons une deuxième version de cette méthode qui met en œuvre une amélioration guidée par les contraintes et utilise une nouvelle procédure de calcul de la borne inférieure basée sur la méthode de recherche d'un co-cycle de poids minimum. Différents tests sont effectués sur un jeu d'exemples dans le but de montrer les avantages et les limites des modèles et des méthodes exactes présentéesItem Extension floue de l'analyse de concepts formels pour la recherche d'Information(2018) Zerarga, LoutfiLes travaux e_ectu_es dans le cadre de cette th_ese reposent principalement sur l'id_ee d'utiliser le cadre th_eorique o_ert par l'analyse de concepts formels (ACF) dans le domaine de la recherche d'information (RI), domaine fort souvent abord_e uniquement sous un volet exp_erimental. Estimant que la RI peut aussi tirer pro_t d'un cadre formel, nous proposons une th_eorie axiomatique multi-sorte qui formalise le processus de recherche et les objets li_es _a la RI. Cette th_eorie o_re un cadre g_en_erique capable de reproduire et de repr_esenter les mod_eles de RI existants. Cette g_en_ericit_e est mise en _evidence en prouvant que trois interpr_etations di__erentes satisfont notre th_eorie ; _a savoir le mod_ele Bool_een, le mod_ele ou standard et le mod_ele vectoriel. L'utilit_e de notre th_eorie est aussi mise en _evidence par le fait qu'elle permet d'enrichir et le mod_ele Bool_een et le mod_ele ou standard. En d'autres termes, nous d_emontrons des propri_et_es alg_ebriques caract_erisant les di__erentes formes de requ^etes de ces mod_eles par les treillis de concepts formels et les treillis de N_-paires relatifs respectivement _a l'ACF et _a sa lecture possibiliste et oue. Ainsi enrichi, le mod_ele Bool_een a _et_e mis _a contribution dans le cadre de la RI structur_ee en se basant sur l'extension triadique de l'ACF, permettant ainsi le traitement des requ^etes orient_ees contenu et des requ^etes orient_ees contenu et structure. La quasi-majorit_e des approches existantes de RI bas_ees sur l'ACF ne prennent pas en consid_eration la pond_eration des requ^etes. A partir de ce constant, nous proposons une approche de recherche par navigation dans les treillis relatifs _a l'extension oue de l'ACF et _a son interpr_etation possibiliste. L'ignorance partielle/totale _etant une r_ealit_e forte souvent constat_ee dans les matrices d'incidence Documents_ Termes, nous proposons, dans le cadre de cette extension oue, de mod_eliser de pareilles r_ealit_e par des intervalles de v_erit_e. A_n de faciliter la recherche par navigation dans les treillis inh_erents _a l'ACF, nous proposons une transformation lin_eaire de ces derniers en d_e_nissant un ordre total sur les ensembles de concepts formels ous et duallement sur les ensembles de N_-paires ouesItem Rétro-conception d'application Java Card(2018) Mesbah, AbdelhakItem Validation des spécifications formelles de la mise à jour dynamique des applications java card(2018) Lounas, RazikaLa mise à jour dynamique des programmes consiste en la modification de ceux-ci sans en arrêter l'exécution. Cette caractéristique est primordiale pour les applications critiques en continuelles évolutions et nécessitant une haute disponibilité. Le but de notre travail est d'effectuer la vérification formelle de la correction de la mise à jour dynamique d'applications Java Card à travers l'étude du système EmbedDSU. Pour ce faire, nous avons premièrement établi la correction de la mise à jour du code en définissant une sémantique formelle des opérations de mise à jour sur le code intermédiaire Java Card en vue d'établir la sûreté de typage des mises à jour. Nous avons ensuite proposé une approche pour vérifier la sémantique du code mis à jour à travers la définition d'une transformation de prédicats. Nous nous sommes ensuite intéressés à la vérification de la correction concernant la détection de points sûrs de la mise à jour. Nous avons utilisé la vérification de modèles. Cette vérification nous a permis de corriger d'abord un problème d'inter blocage dans le système avant d'établir d'autres propriétés de correction: la sûreté d'activation et la garantie de mise à jour. La mise à jour des données est effectuée à travers les fonctions de transfert d'état. Pour cet aspect, nous avons proposé une solution permettant d'appliquer les fonctions de transfert d'état tout en préservant la consistance du tas de la machine virtuelle Java Card et en permettant une forte expressivité dans leurs écrituresItem Contributions au routage, qualité de service et sécurité dans les réseaux ad-hoc(2019) Baddari, IbtihelLa problématique de routage dans les réseaux ad-hoc consiste à déterminer et à maintenir le chemin le plus adapté en efficacité et efficience pour faire transiter les données à communiquer. Toutefois, les caractéristiques de ce type de réseaux présentent un challenge difficile et contraignant en relation avec les limites imposées dans le routage telles que la conservation d’un minimum de messages de contrôles, l’efficacité du délai de livraison des paquets, l’optimisation des ressources et principalement l’équilibrage de charge. Le problème de l’équilibrage de charge entre nœuds s’impose dans le processus de routage à mono-chemin lorsque certains nœuds du réseau sont peu utilisés et d’autres sont fortement congestionnés donc consomment rapidement leurs ressources à savoir la bande passante et l’énergie. Cette répartition non homogène de la charge influence négativement sur la durée de vie du réseau en engendrant un faible taux de délivrances de paquets avec succès, un long délai d’attente ainsi qu’une consommation inefficace de l’énergie. Afin d’affaiblir quelques faiblesses causées par le phénomène de non équilibrage, il a été développé la technique de routage appelée multi-chemin dont l’objectif est d’améliorer le temps de la réception de l’information et de mieux gérer les ressources disponibles dans le réseau. Tout de même, de nombreux problèmes restent posés dans cette architecture et l’amélioration escomptée n’est pas atteinte. Cette thèse porte sur l’étude, l’évaluation et l’amélioration du service de routage des données dans les réseaux Ad-hoc dans leurs deux architectures de mono et de multi-chemins. Une étude comparative de certains protocoles multi-chemins a été réalisée dont le but est de déceler les avantages et les inconvénients de chacun d’eux. Dans ce type de routage, nous avons proposé également une nouvelle approche baptisée AOMDV-LP (Ad-hoc On-Demand Distance Vector Multipath with Lifetime Prolonging) basée sur le protocole de routage AOMDV. L’objectif est d’arriver à un mécanisme efficace pour l’optimisation de la durée de vie du réseau et de contrôler sa congestion grâce à l’implémentation d’une procédure d’équilibrage de charge. L’idée principale est fondée sur une procédure de routage qui évite les routes à faible énergie et optimise le processus de routage en sélectionnant plusieurs chemins de bonne qualité comparés à la première version de l’AOMDV. A cet effet, une formule originale est établie et appliquée pour la sélection d’un meilleur chemin en considérant l’énergie des nœuds intermédiaires, le nombre de sauts pour atteindre la destination souhaitée ainsi qu’un nouveau paramètre appelé « coût du lien ». Les résultats obtenus sont très significatifs, satisfaisants et concluants avec un taux de pertes de paquets réduit, un délai de communication et un débit améliorésItem Construction de code malveillant activable par attaque en faute pour support d'exécution sécurisé et contre-mesure associée(2019) Hamadouche, SamiyaLes éléments sécurisés ont gagné une grande place dans notre vie quotidienne. Ils existent sous plusieurs formes. La carte à puce est l’élément le plus représentatif de la famille des éléments sécurisés. Elle est considérée comme étant un support d’exécution d’applications et de stockage d’informations très sécurisé. Vu la nature des informations qu’elles détiennent, les cartes à puce sont devenues la cible des personnes malintentionnées qui veulent s’approprier des informations sensibles qui y sont stockées voir même prendre le contrôle du système. La sécurité d’une carte à puce peut être contournée par des attaques matérielles, logicielles ou combinées. C’est dans cette dernière catégorie que s’inscrit notre travail. Notre objectif dans cette thèse est de développer un nouveau vecteur d’attaque. En effet, c’est en maîtrisant les détails permettant de contourner la sécurité de la carte que nous pourrions par la suite trouver les contre-mesures permettant de s’en prémunir : « La meilleure défense c’est l’attaque ». La plateforme Java Card étant la plus utilisée, elle est retenue comme notre plateforme cible. Le but est de trouver une méthodologie de construction de codes malveillants activables par attaque en faute. L’idée est de cacher ce code malveillant dans un autre code sain (par construction) afin qu’il puisse être chargé dans la carte sans qu’il ne soit détecté par les mécanismes de sécurité embarqués ou une analyse du code. Une fois sur la carte, le comportement hostile est activé moyennant une injection de faute. Pour aboutir à notre objectif, nous avons proposé deux approches complémentaires répondant chacune à un problème particulier. La première est une approche de construction de séquence de code, reliant deux états mémoire donnés, par parcours d’arbre. Elle repose sur des fondements théoriques liés au domaine des CSPs (Constraint Satisfaction Problem). La seconde approche traite le mécanisme de désynchronisation de code qui permet la dissimulation d’un code donné en opérant des transformations dessus. La mise en œuvre des deux approches a donné lieu à deux outils pouvant générer des solutions de façon automatique. Des exemples d’application et une étude de cas ont permis de présenter des exploitations possibles des approches proposées afin de réaliser des opérations mettant en danger la sécurité d’une carte à puceItem Protocoles d'échange de clés et crypto-systèmes basés sur les courbes elliptiques(2019) Mehibel, NissaL'Internet devient de plus en plus omniprésent dans notre vie quotidienne et intervient dans divers domaines, où l'échange et le traitement de l'information doivent être sécurisés. La cryptographie est la solution qui est la plus utilisée pour sécuriser l'information, en assurant les contraintes de sécurité, à savoir la confidentialité, l'intégrité, l'authentification et la non-répudiation. Deux types de cryptographie sont classiquement distingués. La cryptographie asymétrique offre une distribution de clés sécurisée ainsi que la signature numérique, mais elle nécessite plus de calculs que la cryptographie symétrique. Pour cette raison, l'utilisation de la cryptographie basée sur les courbes elliptique prend de plus en plus de l'ampleur. C'est une cryptographie asymétrique connue pour sa robustesse qui est basée sur la difficulté de résoudre le problème de logarithme discret, d'une part, et pour son utilisation de clés de taille nettement plus réduite que celles de RSA, en offrant le même niveau de sécurité, d'autre part. Dans cette thèse, nous essayons de répondre aux contraintes de sécurité et de performance qu'impose le fonctionnement efficace des protocoles cryptographiques basés sur les courbes elliptiques, notamment à l'échange de clé Diffie-Hellman (DH), au crypto-système d'ElGamal et à l'algorithme de signature numérique. Nous proposons deux solutions pour répondre aux contraintes d'authentification. Dans la première, nous présentons une nouvelle approche d'échange de clé secrète DH. La deuxième concerne l'intégration de l'algorithme de signature numérique sur courbes elliptiques au protocole d'accord de clé DH. Nous analysons l'algorithme de signature numérique basé sur les courbes elliptiques ainsi que ses variantes, et nous proposons des améliorations y afférentesItem Contributions au routage, qualité de service et sécurité dans les réseaux ad-hoc(2019) Baddari, IbtihelItem Vers une approche cloud de la protection de la vie privée sur les réseaux sociaux(Université M'hamad Bougara : Faculté des Sciences, 2021) Yahiatene, Youcef; Riahla, Med Amine(Directeur de thèse)Les réseaux sociaux en ligne "OSN" sont représentés par un ensemble de personnes ou de groupe de personnes interagissant les uns avec les autres. Les OSNs jouent un rôle clé dans la vie quotidienne des internautes. Ces derniers partagent des données à caractère privée ou publique telles que les vidéos, les commentaires, les audios, les photos, les twittes, etc. Un OSN collecte toutes les activités et les informations sur les utilisateurs ainsi que leurs contacts, relations et opinions. Le nombre d'utilisateurs de ces OSN a augmenté d'une manière phénoménale, par exemple Facebook a déclaré qu'il avait 2,8 milliards d'utilisateurs actifs mensuels au quatrième trimestre 2020. Avec cette croissance pharamineuse des utilisateurs, une quantité énorme de données est partagée sur les plateformes des réseaux sociaux. Les OSNs savent qui sont nos amis, à quoi nous ressemblons, où sommes-nous, ce que nous faisons, nos goûts, nos aversions et bien plus encore. Les OSNs ne s'arrêteront pas là, ils analysent les données des utilisateurs et ils ont d'autres moyens pour déterminer leurs comportements en utilisant plusieurs techniques telles que le tracking cookies et l'analyse des j'aimes "likes". La popularité des OSNs nous a permis d'inclure l'aspect social dans des réseaux existants tels que les réseaux de capteurs, les réseaux véhiculaires, etc. L'intégration des réseaux sociaux dans les "VANET" engendre un autre type de réseaux à savoir les réseaux sociaux véhiculaire "Vehicular Social Network VSN". Ce nouveau réseau suscite un nouveau type d'application à savoir la gestion intelligente du trafic aidant les utilisateurs à améliorer leurs comportements, il permet aussi aux usages de partager des données telles que des vidéos, des audios, des photos de route et d'autres informations provenant de différents capteurs intégrés dans un véhicule. Avec les données partagées dans les OSNs et les VSNs, l'aspect de la sécurité et de la confidentialité reste une préoccupation majeure. De ce fait, la protection de la vie privée et l'anonymat des échanges motivent nos recherches pour contribuer dans la protection de la vie privée des utilisateurs. Nous avons proposé un framework pour les OSNs appelé "CloudSN", ce dernier est basé sur le cloud computing et le chiffrement distribué basé sur les attributs "ABE". Les utilisateurs peuvent concevoir leur propre politique qui permet uniquement aux personnes autorisées d'avoir accès aux données. Concernant les VSNs, nous avons proposé un nouveau framework basé sur deux nouveaux concepts à savoir la blockchain et le Software-Defined Network "SDN". Ce dernier permet d'avoir un contrôle sur le réseau et une orchestration centralisée et une virtualisation des ressources disponibles en réseau. La blockchain a été introduite pour permettre la certification des transactions et garantir l'anonymat des données d'une manière entièrement distribuéeItem Composants virtuels : abstraction, vérification et réutilisation(Université M'hamad Bougara : Faculté des Sciences, 2021) Chabane Eps Mechiouri, Sarah; Mezghiche, Mohamed(Directeur de thèse)L'int egration des syst emes embarqu es dans notre paysage technologique quotidien est de plus en plus importante, essentiellement gr^ace a l'av enement des syst emes cyberphysiques et Internet des objets. A n d'^etre comp etitifs, les industriels doivent d evelopper les syst emes dans des d elais de plus en plus courts, ces syst emes doivent ^etre de plus en plus performants et int egrer de plus en plus de fonctionnalit es, et ce au prix d'une complexit e croissante. A cette complexit e s'ajoute les exigences de abilit e, li ees a la nature souvent critique des syst emes embarqu es. La r eutilisabilit e de composants existants s'av ere une approche e cace et largement utilis ee dans divers projets pour contrer la complexit e des syst emes. La d emarche de conception a base de composants est corrobor ee dans le d eveloppement logiciel depuis quelques d ecennies, elle se focalise sur la r eutilisation du code en adoptant une forte standardisation des composants constituant le syst eme. L'utilisation des m ethodes formelles dans le cadre du d eveloppement de syst emes apporte un gain enorme en productivit e d'une part par la r eduction des co^uts et des d elais de validation, d'autre part, par l'e cacit e de ces m ethodes, qui apporte une abilit e plus elev ee. En e et, l'approche formelle s'appuie sur des formalismes et des techniques permettant de raisonner rigoureusement sur des syst emes. Cette th ese s'inscrit dans le contexte du d eveloppement de syst emes ables par construction ce qui permet de r eduire consid erablement le temps de leur conception. Nous proposons un cadre th eorique pour le d eveloppement de composants r eactifs synchrones s^urs de mani ere compositionnelle. Pour ce faire, nous o rons d'une part un cadre de description de composants r eactifs el ementaires dans un formalisme adapt e pour la v eri cation formelle de propri et es de s^uret e. D'autre part, nous etendons la th eorie des I/O-automata, qui est largement utilis ee pour la mod elisation des syst emes r eactifs avec un op erateur de composition pour la construction des syst emes globaux a partir de composants el ementaires. L'approche propos ee garantit la production de composants corrects par construction. Pour valider notre approche, nous avons montr e que l'op erateur de composition propos e assure la pr eservation de la s emantique comportementale des mod eles des composants r eactifs.Item Détection des communautés dans les réseaux sociaux(Université M'hamad Bougara : Faculté des Sciences, 2021) Djerbi, Rachid; Amad, Mourad(Directeur de thèse)Ces dernières années, plusieurs modèles, approches et algorithmes pour analyser et extraire les connaissances des réseaux sociaux (SN) ont été proposés. L'une des connaissances les plus recherchées dans ce contexte est de trouver le regroupement d'abonnés en ‘’clusters’’ autours des centres d’intérêt et de sujets de discussion. On parle alors du concept social des «communautés». Une communauté est donc un groupe d'abonnés (ou de noeuds dans le contexte graphique) fortement connectés entre eux et faiblement connectés avec les autres. La détection des communautés est devenue une tâche importante pour comprendre comment la structure du SN change avec le temps. C'est également une étape essentielle de l'analyse des SN. Cependant, trouver les communautés d’un réseau social reste un défi et un domaine de recherche d'actualité qui attire de nombreux chercheurs. Dans ce travail, nous proposons une nouvelle approche pour détecter la meilleure partition des communautés en fonction du nombre de noeuds en commun entre chaque paire d'entre eux. En se basant sur la vie sociale des individus au sein de leurs sociétés, nous cherchons l’ensemble des paires (parents) ayant le maximum de noeuds (fils) en commun pour en former une communauté (famille), les autres individus joindront les communautés adéquates selon quelques paramètres de préférences, les communautés trouvées se fusionnent selon quelques conditions. Le modèle proposé est stable, veut dire qu’il donne toujours les mêmes résultats (ou similaires) pour plusieurs exécutions sur le même graphe. Nos expériences sur des vrais SN montrent que l'approche proposée peut définir avec précision l’ensemble des communautés. Le modèle proposé est générique et plusieurs extensions ont été proposé comme la prise en charge des réseaux orientés/non orientés, dynamiques/statiques, pondérés ou non, communautés avec ou sans chevauchement. Dans ce mémoire nous parlons des réseaux sociaux et la détection des communautés, donnons un état de l’art et historique de cet axe de recherche, puis détaillerons notre contribution et nous finissons avec une conclusion et quelques perspectivesItem Le problème de classification automatique de données : approches mono et multi-objectif(Université M'hamad Bougara : Faculté des Sciences, 2021) Boudane, Fatima; Berrichi, Ali( Directeur de thèse)Le clustering est l’une des tâches les plus importantes et les plus étudiées en data mining. Bien que beaucoup d’algorithmes de clustering aient été proposés dans la littérature de recherche, la plupart d'entre eux ne peuvent pas traiter correctement des ensembles de données ayant des clusters de formes arbitraires et de densité variable. De plus, les plus connus des algorithmes dépendent des paramètres utilisateur qui sont difficiles à définir. Dans le cadre de cette thèse, nous considérons le problème de clustering traitant des ensembles de données avec un nombre inconnu de clusters, ayant des formes arbitraires, présentant des variations de densité et contenant des outliers. Notre motivation principale est de proposer de nouvelles approches permettant d’automatiser le processus de clustering en considérant des ensembles de données possédant toutes ces spécifications. Pour répondre à ces exigences, nous avons proposé, tout d’abord, un nouvel indice de validation du clustering basé sur la connectivité et la densité (CDBCVI), qui permet de faire face au cas de clusters de formes arbitraires et de différentes densités. Il facilite ainsi l'évaluation des algorithmes de clustering et la sélection de leurs paramètres appropriés. Ce nouvel indice est basé sur les relations de densité et de connectivité entre les objets de données, extraites sur la base du graphe de proximité de Gabriel. L'incorporation des relations de connectivité et de densité permet d'obtenir de bons résultats de clustering dans le cas de clusters de n'importe quelle forme, taille ou densité. Par la suite, nous avons proposé trois approches de clustering mono- et multi-objectif qui permettent d’automatiser le processus de clustering et d’améliorer la qualité de ses résultats. Ces approches utilisent un schéma de codage de solutions basé sur la densité, inspiré des algorithmes basés sur la densité NBC (Neighborhood-Based Clustering) et DBSCAN (Density Based Spatial Clustering of Applications with Noise) qui sont très efficaces dans le cas de clusters ayant des formes arbitraires et des densités différentes. La première approche consiste à utiliser la métaheuristique de recherche par voisinage variable (Variable Neighborhood Search (VNS)), afin de remédier à la difficulté du choix de la valeur du paramètre unique de l’algorithme NBC et améliorer ses résultats. La deuxième approche consiste à utiliser l’algorithme de colonie d’abeilles artificielles (Artificiel Bee Colonies (ABC)) afin d’automatiser et améliorer la qualité du clustering de l’algorithme NBC. Quant à la troisième approche, elle consiste à utiliser l’algorithme ABC afin d’automatiser et améliorer la qualité du clustering en s’inspirant de la procédure d’expansion de clusters de l’algorithme DBSCAN. Pour améliorer le processus d'évaluation des solutions de clustering au cours des itérations, nous avons défini plusieurs fonctions objectif basées sur des concepts de densité, vu que la prise en compte d'une seule fonction objectif peut ne pas être conforme aux ensembles de données ayant des clusters de formes complexes et des outliers. Nous avons testé la performance des approches proposées par une expérimentation approfondie sur des ensembles de données réels et synthétiques. Les résultats expérimentaux démontrent l’efficacité et la supériorité des approches proposées par rapport à plusieurs d’autres approches de la littératureItem Approches évolutionnaires pour le problème de partitionnement de graphes(Université M'hamed Bougara : Faculté des sciences, 2021) Chaouche, Ali; Boulif, Menouar(Directeur de thèse)We have studied through this thesis the application of evolutionary approaches, in particular the genetic algorithm (GAs), for solving the graph partitioning problem. Known for their simplicity and efficiency, GAs have been widely used to solve complex problems. Most of the research works has focused on designing new genetic operators or modifying the operating mechanism of the GA. Although this improved the efficiency of GAs, the performances of this latter is strongly related to the genetic representation of the solutions. From this perspective, we presented a state of the art of genetic representations with an a throughout study of their properties and characteristics in order to propose new representations based on the advantages of those present in the literature. The empirical study we conducted on a meticulously chosen data set from the literature shows the superiority of the proposed encoding schemes. These letters are based on the p-median problem that uses both vertex and edge informationItem Recherche d'information guidée par l'image sur des grands corpus de documents scannés(Université M'hamad Bougara : Faculté des Sciences, 2021) Benabdelaziz, Ryma; Gaceb, Djamel(Directeur de thèse)La numérisation des documents est une tâche essentielle, car elle permet de passer de la version papier traditionnelle à la version numérique moderne. Les images de documents numérisés contiennent des informations sensibles et jouent un rôle important dans la préservation numérique du patrimoine culturel mondial et dans l'archivage des livres et des documents administratifs. La numérisation de documents implique le développement de techniques pour pouvoir exploiter leur contenu visuel à des fins de recherche de documents. Trouver un document nécessite d'abord de trouver ses entités (mots, logos, signatures, etc.), ce qui nécessite une analyse de l'image et de sa représentation dans un espace de caractéristiques visuelles, qui permet de réduire la quantité importante d'informations contenue dans l’image. En général, lorsque le document est de bonne qualité, l'étape de segmentation devient possible et ainsi on peut aisément rechercher et récupérer ses composantes. La plupart du temps, cette tâche est facile et réalisable lorsque le document contient du texte imprimé ; beaucoup de techniques ont été proposées dans ce contexte et qui ont produit des résultats intéressants. Cependant, si l'on veut traiter des documents complexes et de mauvaise qualité tels que les documents manuscrits anciens, il est nécessaire de faire appel à des techniques de représentation robustes et plus fines, car ni la taille, ni le style d'écriture, ni l'espace entre les lettres et les mots ne sont réguliers ou connus par rapport aux images du texte imprimé. Cela nécessite le développement de techniques conventionnelles basées sur les points d'intérêts qui permettent de représenter l’image à travers un ensemble de points pertinents. Cette stratégie de représentation est intéressante lorsque la possibilité de segmentation des documents est impossible. Il y a beaucoup de travaux basés sur ce type de représentation d'images, mais avec des précisions moyennes, et cela est dû aux nombreux paramètres qui doivent être pris en compte lors de la mise en œuvre de ces systèmes de recherche (prétraitement, relations spatiales entre les points, description, etc.). Ce projet de thèse investit dans le développement d'une technique complète de recherche de documents depuis l'extraction des points d'intérêts jusqu'à la mise en correspondance d'images. Notre nouvelle technique a produit des résultats intéressants et se classe parmi les premières en termes de précision par rapport à d'autres travaux dans le même domaine, mais elle reste encore limitée. Afin d'améliorer notre approche, nous avons évolué vers de nouvelles directions dans la représentation d'images en utilisant des techniques d'intelligence artificielle, basées sur le transfert de l'apprentissage profond, qui permettent l'extraction automatique des caractéristiques visuelles. Cette stratégie a donné d'excellents résultats par rapport à de nombreux travaux. Tous nos tests expérimentaux ont été initialement menés sur la base d'un ensemble d'images anciennes de mots manuscrits, et la complexité de cet ensemble nous a permis de développer des techniques puissantes qui peuvent être appliquées à d'autres entités de documents (logos, cachets, signatures, etc.).
