Informatique
Permanent URI for this communityhttps://dspace.univ-boumerdes.dz/handle/123456789/43
Browse
Item Adaptation des présentations multimédias pour une optimisation de la consommation d'énergie(2011) Rezoug, AbdellahDans un système d'adaptation de documents multimédia, un document subit une série de transformations afin qu'il puisse être exécuté sur un équipement terminal. Ces transformations permettent de rendre le document compatible avec les caractéristiques spécifiques du client (type codec vidéo, taille écran, résolution etc.), comme la conversion d'une image de format JPEG au format GIF, la conversion d'une vidéo à une bonde sonore etc. De nos jours, les applications multimédias investissent le Web et la téléphonie mobile et occupent une grande place dans la vie quotidienne. Cependant, cette tendance a eu comme conséquence une charge supplémentaire importante sur la consommation de la ressource énergétique et par conséquent sur la durée de vie de la batterie. Dans ce mémoire, nous explorons les techniques à même de remédier à ce problème. Il est question de discuter des fonctionnalités et options offertes par le langage standard de spécification de documents multimédia SMIL (Synchronized Multimedia Integration Language), et également des mécanismes d'économie d'énergie définis dans la littérature afin de dégager une architecture optimisée pour la fourniture de service multimédiaItem Algorithmes d'intellignece antificielle pour la classification d'attaquer réseau à partir de donnée TCP(2011) Gunadiz, SafiaLes réseaux et systèmes informatiques sont devenus aujourd'hui des outils indispensables pour le bon fonctionnement et l'évolution de la plupart des entreprises. Ainsi, les systèmes et réseaux informatiques sont déployés dans différents domaines comme la banque, la médecine ou encore le domaine militaire. L'accroissement de l'interconnexion de ces divers systèmes et réseaux les a rendus accessibles par une population diversifiée d'utilisateurs qui ne cesse d'augmenter. Ces utilisateurs, connus ou non, ne sont pas forcément pleins de bonnes intentions vis-à-vis de ces réseaux. En effet, ils peuvent essayer d'accéder à des informations sensibles pour les lire, les modifier ou les détruire ou encore tout simplement pour porter atteinte au bon fonctionnement du système. Dès lors que ces réseaux sont apparus comme des cibles d'attaques potentielles, les sécuriser est devenu un enjeu incontournable.La détection d'intrusions consiste à découvrir ou identifier l'utilisation d'un système informatique à d'autres fins que celles prévues. De nombreux mécanismes ont été développés pour assurer la sécurité des systèmes informatiques et tout particulièrement pour prévenir les intrusions, malheureusement, ces mécanismes ont des limitations. En effet, les systèmes informatiques présentent des failles qui permettent à des attaquants de contourner les mécanismes de prévention. Pour cela une seconde ligne de défense est nécessaire, la détection d'intrusions.L'intelligence artificielle a vu naître de nombreuses méthodes telles que les algorithmes génétiques, les réseaux de neurones, les algorithmes de fourmis virtuelles, etc.… qui peuvent être implémentées et utilisées pour la détection d'intrusions. Dans ce mémoire on implémente deux systèmes de détection d'intrusions, l'un est basé sur les réseaux de neurones et l'autre sur l'algorithme ANTClass. Les systèmes sont implémenté avec JBuilder X, et testé sur les données de la base de données KDD'99Item Amélioration de la performance des processeurs généralistes par la réduction du nombre d'instructions exécutées(2007) Goudjil, MohamedL’équation de performance d’un processeur fait apparaître trois termes : le cycle qui dépend de la technologie, l’IPC (Instructions Par Cycle) qui dépend de la microarchitecture et enfin, le nombre d’instructions exécutées qui dépend de l’architecture. En dehors des avancées technologiques, les améliorations apportées à la performance des processeurs généralistes ces dernières années ont surtout concernées la microarchitecture. Depuis la révolution RISC, le jeu d’instructions interne des processeurs s’est figé autour d’instructions simples. Une conséquence est que pour atteindre un degré élevé de l’IPC, il faut exécuter de nombreuses instructions élémentaires dans le même cycle. Une alternative est de réduire le nombre d’instruction à exécutée en profitant de la redondance qui existe dans les instruction d’accès mémoire. Il est à remarquer que dans un jeu d’instructions RISC, les instructions de chargement et de rangement sont des instructions complexes combinant les effets de deux instructions élémentaires. L’accès proprement dit dépend du calcul d’adresse. Ce qu’il fait que la réduction du nombre de tel type d’instruction apport un gain important. Dans ce travail nous avons présenté une nouvelle approche pour améliorer la performance en réduisant le nombre d’instructions à exécuter. Nous avons proposé une nouvelle architecture pour le banc de registres. Nos mesures montrent que la nouvelle architecture permettrait de réduire de 15% le taux d’instructions de chargement, et de 10% celui des instructions de rangementsItem Amélioration de la performance des processeurs généralistes par une exécution distribuée des instructions(2006) Bouache, MouradLe Banc de registres avec ses ports d’accès et le mécanisme de renvoi sont les ressources critiques parmi d’autres du chemin de données du processeur. Notre étude évalue l’impact de l’augmentation du degré superscalaire sur le flux des données manipulées par le processeur. Nous montrons que la réduction du nombre de ports d’accès au banc de registres, sans réorganisation de la lecture des registres sources et de l’écriture des destinations, est peu efficace. Les registres sources prêtes au renommage, critiques pour la performance, doivent être transmises par le chemin le plus direct possible c’est-à-dire le réseau de renvoi. Les autres registres sources sont moins critiques pour la performance. Leur chemin peut transiter par le banc de registresItem Approches de résolution exacte du problème de composition de cellules dans les systèmes cellulaires de production(2016) Merchichi, SabrinaCette thèse se situe dans le domaine de l'optimisation, en particulier celui de l'optimisation combinatoire. L'objectif de notre travail est d'étudier le problème de composition de cellules dans les systèmes cellulaires de production. Dans la première partie de cette thèse, nous nous intéressons à l'importance de la variable de décision choisie dans la modélisation du problème de composition de cellules. Nous commençons par la présentation de trois modèles mathématiques et deux modèles basés sur la théorie des graphes pour ce problème. Ensuite, nous examinons ces différents modèles d'un point de vue théorique. La deuxième partie traite essentiellement la résolution exacte du problème de composition de cellules. La méthode exacte que nous choisissons est de type séparation et évaluation. Nous présentons d'abord, une première version de cette méthode qui utilise une procédure de branchement basée sur les co-cycles. Ensuite, nous proposons une deuxième version de cette méthode qui met en œuvre une amélioration guidée par les contraintes et utilise une nouvelle procédure de calcul de la borne inférieure basée sur la méthode de recherche d'un co-cycle de poids minimum. Différents tests sont effectués sur un jeu d'exemples dans le but de montrer les avantages et les limites des modèles et des méthodes exactes présentéesItem Approches évolutionnaires pour le problème de partitionnement de graphes(Université M'hamed Bougara : Faculté des sciences, 2021) Chaouche, Ali; Boulif, Menouar(Directeur de thèse)We have studied through this thesis the application of evolutionary approaches, in particular the genetic algorithm (GAs), for solving the graph partitioning problem. Known for their simplicity and efficiency, GAs have been widely used to solve complex problems. Most of the research works has focused on designing new genetic operators or modifying the operating mechanism of the GA. Although this improved the efficiency of GAs, the performances of this latter is strongly related to the genetic representation of the solutions. From this perspective, we presented a state of the art of genetic representations with an a throughout study of their properties and characteristics in order to propose new representations based on the advantages of those present in the literature. The empirical study we conducted on a meticulously chosen data set from the literature shows the superiority of the proposed encoding schemes. These letters are based on the p-median problem that uses both vertex and edge informationItem Clustering et apprentissage profond pour la transcription assistée par ordinateur des documents manuscrits(Université M'Hamed Bougara Boumerdès : Faculté des Sciences, 2024) Faouci, Soumia; Gaceb, Djamel(Directeur de thèse)La reconnaissance automatique ou semi-automatique de l'écriture manuscrite offre des outils de grande importance pour les sociétés qui souhaitent augmenter leur productivité en numérisant facilement leurs documents manuscrits de tout type (administratifs, manuscrits anciens, chèques, adresses postales, ordonnances, etc.), selon un cadre applicatif varié. Actuellement, l'intelligence artificielle rend cette technologie encore meilleure, rapide et efficace, permettant de réduire les coûts et les délais de lecture optique, de transcription, d'interprétation, de catégorisation et de traitement des documents contenant du texte manuscrit. A l'inverse de l'écriture latine, la nature complexe de l'écriture arabe présente encore des grands challenges et difficultés devant le peu de logiciels OCR existants et qui sont limités à des vocabulaires restreints. L'écriture arabe est ligaturée avec des caractères qui sont souvent collés les uns aux autres et des styles très variables. Dans ce cadre, le projet de cette thèse représente une nouvelle contribution au développement de solutions alternatives aux OCR pour une transcription automatique plus adaptées aux documents manuscrits arabes. Les quatre contributions développées dans ce travail de thèse sont basées sur deux types de méthodes : apprentissage automatique et apprentissage profond. La première contribution est fondée sur le développement de plusieurs approches d'apprentissage automatique en utilisant deux classifieurs conventionnels MLP et SVM (non linéaire) avec une sélection optimale et combinaison de plusieurs caractéristiques discriminantes. La seconde contribution est basée sur l'usage de l'apprentissage profond par transferts selon différents niveaux de fine tuning. A ce niveau, une architecture CNN originale et simplifiée a été proposée et plusieurs modèles existants (CNN : MobileNet, DenseNet121, EfficientNet, InceptionV3, ResNet50 et VGG16 ou ViT : convnext-tiny-224) ont été développés, testés et comparés. La troisième contribution est basée la combinaison d'un modèle CNN et un classifieur automatique. Dans ce cadre, différentes combinaisons ont été testées entre les différents modèles CNN et les classifieurs (SVM, KNN et RF). La dernière contribution est destinée au développement d'un système de transcription de texte manuscrit arabe assistée par ordinateur en utilisant le clustering et la recherche des parties de mots arabes (PAW) dans un corpus d'images de documents scannés. A ce stade, deux approches sont développées et testées en utilisant les modèles CNN et les réseaux Siamois et un nouveau dataset des PAW est créée. Les expériences et les comparaisons faites sur différents datasets montrent la pertinence des approches développées et leur supériorité par rapport à la littératureItem Clustering par fusion floue de données appliqué à la segmentation d'image IRM(2008) Zouaoui, HakimaLes données traitées en imagerie médicale sont souvent imprécises et/ou incertaines du fait du mode d’acquisition des images ou de la modélisation des connaissances des médecins. Lorsqu’un expert examine une ou plusieurs images médicales, il prend en compte simultanément ses propres connaissances théoriques ainsi que les informations fournies par les images afin d’effectuer son diagnostic. De même, la fusion de données agrège informations numériques et connaissances théoriques et contextuelles afin de fournir une information synthétique pour l'aide au clinicien. L’objectif de ce mémoire consiste à développer une architecture de fusion de données basée sur la théorie possibiliste pour la segmentation d’une cible à partir de plusieurs sources d’images. Le processus de fusion est décomposé en trois phases fondamentales. Nous modélisons tout d'abord les informations dans un cadre théorique commun. Le formalisme retenu consiste à faire la coopération entre l’algorithme FCM (C-moyennes floues) dont la contrainte d’appartenance d’un individu à une classe est gérée d’une manière relative et l’algorithme possibiliste PCM (C-means possibilistes) pour les points aberrants . Nous agrégeons ensuite ces différentes informations par un opérateur de fusion. Celui-ci doit affirmer les redondances, gérer les complémentarités et prendre en compte les conflits soulignant souvent la présence d'une pathologie. Nous construisons enfin une information synthétique permettant d’exploiter les résultats de la fusion. Cette architecture développée est mise en oeuvre pour la segmentation des tumeurs cérébrales à partir des images IRM qui comprennent pour l’instant les séquences de base : T1, T2 et densité de protons (DP)Item Composants virtuels : abstraction, vérification et réutilisation(Université M'hamad Bougara : Faculté des Sciences, 2021) Chabane Eps Mechiouri, Sarah; Mezghiche, Mohamed(Directeur de thèse)L'int egration des syst emes embarqu es dans notre paysage technologique quotidien est de plus en plus importante, essentiellement gr^ace a l'av enement des syst emes cyberphysiques et Internet des objets. A n d'^etre comp etitifs, les industriels doivent d evelopper les syst emes dans des d elais de plus en plus courts, ces syst emes doivent ^etre de plus en plus performants et int egrer de plus en plus de fonctionnalit es, et ce au prix d'une complexit e croissante. A cette complexit e s'ajoute les exigences de abilit e, li ees a la nature souvent critique des syst emes embarqu es. La r eutilisabilit e de composants existants s'av ere une approche e cace et largement utilis ee dans divers projets pour contrer la complexit e des syst emes. La d emarche de conception a base de composants est corrobor ee dans le d eveloppement logiciel depuis quelques d ecennies, elle se focalise sur la r eutilisation du code en adoptant une forte standardisation des composants constituant le syst eme. L'utilisation des m ethodes formelles dans le cadre du d eveloppement de syst emes apporte un gain enorme en productivit e d'une part par la r eduction des co^uts et des d elais de validation, d'autre part, par l'e cacit e de ces m ethodes, qui apporte une abilit e plus elev ee. En e et, l'approche formelle s'appuie sur des formalismes et des techniques permettant de raisonner rigoureusement sur des syst emes. Cette th ese s'inscrit dans le contexte du d eveloppement de syst emes ables par construction ce qui permet de r eduire consid erablement le temps de leur conception. Nous proposons un cadre th eorique pour le d eveloppement de composants r eactifs synchrones s^urs de mani ere compositionnelle. Pour ce faire, nous o rons d'une part un cadre de description de composants r eactifs el ementaires dans un formalisme adapt e pour la v eri cation formelle de propri et es de s^uret e. D'autre part, nous etendons la th eorie des I/O-automata, qui est largement utilis ee pour la mod elisation des syst emes r eactifs avec un op erateur de composition pour la construction des syst emes globaux a partir de composants el ementaires. L'approche propos ee garantit la production de composants corrects par construction. Pour valider notre approche, nous avons montr e que l'op erateur de composition propos e assure la pr eservation de la s emantique comportementale des mod eles des composants r eactifs.Item Conception et développement d'un atelier génie logiciel supportant une méthodologie de mise en place des services d'e-gouvernement(2013) Amir, KarimL'une des problématiques majeures dans le domaine de l'e-gouvernement est l'identification et la construction des services en conformité avec le cadre légal qui régit les activités métier au sein des institutions. Dans le présent travail, après l'étude des méthodes liées à l'e-gouvernement et à l'ingénierie des services, on s'est intéressé à une méthode de construction des services à partir du cadre légal et à une autre pour l'identification des aspects organisationnels en se basant sur des scénarios. Nous proposerons de nouvelles sources pour l'identification des informations organisationnelles, ainsi que des améliorations de l'approche existante et enfin la conception et la réalisation d'une plate-forme, supportant les différentes étapes des deux approchesItem Conception et mise en oeuvre d'un nouveau protocole de gestion de clés cryptographiques dans les réseaux mobiles Ad Hoc(2013) Chaouche, AliComme résultats des développements significatifs dans les ordinateurs mobiles, et les technologies des communications sans fils, les appareils mobiles ont gagné en communication, calcul, et ressources mémoire pour être interconnecté. Par définition les réseaux mobiles ad hoc (MANETs : Mobile Ad Hoc Networks), se différencient des autres réseaux existants par le fait qu'ils ne se relient à aucune forme d'infrastructure fixe, le réseau n'a pas de stations de base, point d'accès, des serveurs à distance,...etc. Toutes les fonctionnalités du réseau sont assurées par les nœuds formant le réseau, chaque nœud joue le rôle de hôte et routeur reliant les données pour établir la connexion entre la source et la destination qui ne se trouvent pas dans la portée de transmissions l'un par rapport à l'autre, les MANETs ont montré leur importances, car ils sont meilleurs que leurs homologues les réseaux filaires dans plusieurs utilisations civile ou militaire. Cependant, la prolifération de ce paradigme de réseau dépend fortement du facteur de sécurité. Un système efficace et sécurisé de gestion de clés est un élément primordial pour fournir la plupart des services de sécurité au sein d'un réseau ad hoc. Un système de gestion de clés avec la propriété de haute disponibilité est au centre de fournir la sécurité réseau via les mécanismes cryptographiques. De ce fait, plusieurs mécanismes basés sur la cryptographie qui résoudre les problèmes de sécurité des MANET ont un recours direct à une infrastructure de gestion de clés efficace et sécurisée; ceci laisse les techniques de gestion de clés comme domaine de recherche ouvert dans le domaine de sécurité des réseaux ad hoc. Dans ce travail, nous proposons un nouveau schéma de gestion de clés pour les MANETs entièrement auto-organisé, pour faciliter la distribution des clés publiques dans le réseau. Dans cette solution, les nœuds échangent leurs clés publiques directement en clair, s'ils sont des voisins, d'autre part si les nœuds ne sont pas voisins (c'est-à-dire ne se retrouvent dans la portée de transmission l'un par rapport à l'autre), le nœud source envoie une requête clé à la destination à travers le maximum de chemins possibles, la destination envoie sa clé publique à la source après avoir authentifié sa requête clé, par les chemins inverses de la requête clé. De cette façon, la gestion de clés est assurée par la collaboration de tous les nœuds du réseau. De plus, notre nouveau protocole de gestion de clés fournit une flexibilité pour s'adapter au passage à large échelle de la taille du réseau. Les résultats de simulation montrent l'efficacité, la robustesse et la sécurité de notre nouveau schéma comparé aux autres techniques publiées dans la littératureItem Conception et mise en oeuvre d'un nouveau protocole de routage multi chemins pour les réseaux ad hoc basé sur la réputation noeuds(2008) Riahla, Mohamed AmineLes Réseaux ad hoc sont composés d'unités mobiles communiquant via un média sans fil, sans la nécessité d'infrastructure physique. Dans ce genre de topologie, tous les nuds coopèrent afin d'assurer la bonne gestion du réseau (contrôle, routage,…). La nature complètement distribuée de ce type de réseau pose le problème de performances (dûes aux calculs des routes) ainsi que les problèmes liées à la sécurité des échanges entre les nœuds. En ce qui Concerne les performances dues au routage des paquets, les protocoles actuels se divisent en deux catégories, les protocoles proactifs et les protocoles réactifs. Les protocoles proactifs établissent les routes à l'avance en se basant sur l'échange périodique des tables de routage comme dans le cas des réseaux classiques, alors que les protocoles réactifs cherchent les routes à la demande. Les deux classes souffrent d'un même problème qui est le nombre important de message de contrôle qui influence négativement sur la bande passante du réseau et les ressources énergétique des nœuds. Une troisième catégorie de protocoles de routage, dits hybrides, combinant les deux approches (réactive et proactive) a aussi été développée. Parmi les protocoles appartenant à cette catégorie, nous distinguons des protocoles inspirés des colonies de fourmis qui présentent, dans la plupart des cas, de meilleurs résultats. Tous les protocoles existant qui se basent sur le principe des fourmis utilisent une diffusion de fourmis (agents) par les nœuds sources pour la découverte des routes, ce qui augmente de façon exponentielle le nombre de messages de contrôle inutile. En ce qui concerne l'aspect sécurité, De nombreux travaux se focalisent sur les comportements malveillants pour contrer les attaques actives en négligeant les comportements égoïstes des nuds qui peuvent avoir des conséquences dramatiques dans le cas d'un réseau ad hoc; par exemple un hôte peut tout simplement rejeter les paquets en transit qu'il reçoit afin d'économiser son énergie. L'étude, qui a porté sur l'analyse des protocoles existants, nous a permis de faire ressortir un ensemble de problèmes; pour cela nous avons conçu un nouveau protocole de routage, le protocole AntTrust, afin d'apporter quelques solutions aux problèmes initiaux. Le travail consiste à formaliser et à mettre en uvre un protocole de routage Multi chemins pour les réseaux ad hoc basé sur la réputation des nuds. Ce protocole est basé sur le fonctionnement d'une colonie de fourmis pour le calcul dynamique des routes et sur un mécanisme de coopération pour contrer les mauvais comportements des nuds. Les résultats obtenus par le simulateur ns2, comparés aux autres protocoles, encouragent et montrent la validité de notre protocoleItem Confluence et préservation de la propriété de normalisation forte du système @(2006) Salmi, CheikhLe @ calcul est une extension simple du -calcul classique qui n’utilise aucun codage supplémentaire pour désigner les termes. Dans ce mémoire nous nous sommes principalement intéressé à l’étude de la confluence et la préservation de normalisation forte du @ calcul. En constatant, à travers notre étude des calculs avec substitution explicite, que la confluence et la préservation de la normalisation forte des calculs ne sont pas des propriétés évidentes à établir directement, nous avons considéré le @ en le présentant comme un formalisme de réécriture d’ordre supérieur. Ainsi, nous avons prouvé la normalisation forte du @ en utilisant une combinaison des techniques du ‘semantic labelling’ et l’ordre récursif sur les chemin. La confluence faible du @ est évidente après l’étude et la résolution de ses paires critiques.La confluence du @ découle immédiatement de sa préservation de normalisation forte et sa confluence faible par le lemme de Newman. La simplicité des règles de réécriture du @ calcul rend intéressant la définition d’une machine efficace exécutant les réductions de ce calcul. Il serait aussi intéressant de définir une version typée pour calculItem Construction de code malveillant activable par attaque en faute pour support d'exécution sécurisé et contre-mesure associée(2019) Hamadouche, SamiyaLes éléments sécurisés ont gagné une grande place dans notre vie quotidienne. Ils existent sous plusieurs formes. La carte à puce est l’élément le plus représentatif de la famille des éléments sécurisés. Elle est considérée comme étant un support d’exécution d’applications et de stockage d’informations très sécurisé. Vu la nature des informations qu’elles détiennent, les cartes à puce sont devenues la cible des personnes malintentionnées qui veulent s’approprier des informations sensibles qui y sont stockées voir même prendre le contrôle du système. La sécurité d’une carte à puce peut être contournée par des attaques matérielles, logicielles ou combinées. C’est dans cette dernière catégorie que s’inscrit notre travail. Notre objectif dans cette thèse est de développer un nouveau vecteur d’attaque. En effet, c’est en maîtrisant les détails permettant de contourner la sécurité de la carte que nous pourrions par la suite trouver les contre-mesures permettant de s’en prémunir : « La meilleure défense c’est l’attaque ». La plateforme Java Card étant la plus utilisée, elle est retenue comme notre plateforme cible. Le but est de trouver une méthodologie de construction de codes malveillants activables par attaque en faute. L’idée est de cacher ce code malveillant dans un autre code sain (par construction) afin qu’il puisse être chargé dans la carte sans qu’il ne soit détecté par les mécanismes de sécurité embarqués ou une analyse du code. Une fois sur la carte, le comportement hostile est activé moyennant une injection de faute. Pour aboutir à notre objectif, nous avons proposé deux approches complémentaires répondant chacune à un problème particulier. La première est une approche de construction de séquence de code, reliant deux états mémoire donnés, par parcours d’arbre. Elle repose sur des fondements théoriques liés au domaine des CSPs (Constraint Satisfaction Problem). La seconde approche traite le mécanisme de désynchronisation de code qui permet la dissimulation d’un code donné en opérant des transformations dessus. La mise en œuvre des deux approches a donné lieu à deux outils pouvant générer des solutions de façon automatique. Des exemples d’application et une étude de cas ont permis de présenter des exploitations possibles des approches proposées afin de réaliser des opérations mettant en danger la sécurité d’une carte à puceItem Construction du treillis de concepts formels pour des contextes à intervalle de vérité à partir d'implications résiduées(2012) Seddoud, FerroudjaClassiquement l'analyse de concepts formels est basée sur des relations binaires et Booléennes entre un ensemble d'objets et un ensemble de propriétés (appelé contexte formel). Généralement ces relations sont complètement renseignées. Il s'avère que dans la réalité certaines relations entre objets et propriétés peuvent être partiellement connues, incertaines, imprécises, vagues, floues ou carrément inconnues. De ce fait, l'ACF est amenée à considérer des relations de diverses natures, modélisant des réalités concrètes (e.g. mesures, observations, jugements,…etc.) Plusieurs approches proposent d'étendre l'ACF à l'ACF floue. Actuellement, la tendance générale de l'ACF consiste à utiliser une algèbre résiduée pour maintenir les propriétés de fermeture. Notre première contribution consistera à trouver une algèbre minimale (plus faible que la résiduation). Une telle algèbre délivre un ensemble d'implications floues plus général (plus grand) que l'ensemble des implications résiduées. L'ensemble des concepts formels flous (treillis de concepts formels) obtenu à partir d'une implication residuée est généralement infini. Aussi, il n'existe pas d'approche dans la littérature proposant la construction intégrale de ce treillis (car il est infini). Notre deuxième contribution consistera à : Mettre en évidence quelques implications floues qui engendrent un ensemble fini de concepts formelsItem Contribution à la définition d’une approche d’indexation sémantique de documents textuels(2014) Azzoug, WassilaLes systèmes de recherche d’information classiques reposent sur l'indexation par les mots-clés pour représenter le contenu des documents et requêtes. Dans de tels systèmes, les documents sont sélectionnés par un processus de recherche à partir du nombre de mots-clés qu’ils partagent avec la requête. Ce processus, basé sur l’appariement lexical, peut réduire la précision des résultats de la recherche si les sens des mots communs dans la requête et les documents sont différents. L’indexation sémantique tente de pallier à ce problème en offrant une représentation par les sens des mots. Le but étant de retrouver des documents sémantiquement pertinents à une requête utilisateur. Dans ce présent travail, nous proposons une approche d’indexation sémantique qui s’appuie sur les sens des mots, ou concepts, dans la représentation des documents et requêtes. Ces concepts sont identifiés par des techniques de désambiguïsation des sens des mots en utilisant njointement les ressources linguistiques WordNet et son extension aux domaines WordNetDomains comme sources d’évidence. Nous proposons en outre, la pondération des termes des index sémantiques par une nouvelle définition de la centralité d’un concept. Les concepts pondérés sont ensuite représentés dans un modèle de recherche qui repose sur une évaluation sémantique de la pertinence d’un document pour une requête donnée. L’évaluation expérimentale de notre modèle de RI sémantique proposé a montré des résultats très satisfaisantsItem Contribution à la qualité de service et la sécurité dans un réseau dynamique et distribué(Université M'Hamed Bougara Boumerdes : Faculté des Sciences, 2022) Nouasri, Amine; Riahla, Mohammed Amine(Directeur de thèse)Les réseaux dynamiques présentent l'avantage de mettre en place un réseau de communication peu coûteux et rapide à déployer. Un des exemples typiques de ces réseaux, et qui prend de plus en plus d'importance ces dernières années sont les flottes de drones, à travers leurs domaines d'application variés. Il très important d'assurer une Sécurité et une Qualité de service (ou QoS) dans l'exploitation de ces réseaux. Il convient d'assurer différents services de sécurité, comme l'authentification, l'intégrité, la confidentialité, et la disponibilité. En plus, ces échanges doivent être fait dans des délais acceptables et en minimisant les pertes de données. Ceci présente beaucoup de challenges dû aux propriétés Ad Hoc de ces réseaux. Notre travail dans cette thèse a donné le fruit à un système de monitoring d'une flotte de drones. Notre solution porte sur une approche réactive qui résume les incidents possibles à travers le calcul de certains paramètres clés du réseau, et de réorganiser les nœuds de manière à contrer les incidents et assurer une continuité de serviceItem Contributions au routage, qualité de service et sécurité dans les réseaux ad-hoc(2019) Baddari, IbtihelLa problématique de routage dans les réseaux ad-hoc consiste à déterminer et à maintenir le chemin le plus adapté en efficacité et efficience pour faire transiter les données à communiquer. Toutefois, les caractéristiques de ce type de réseaux présentent un challenge difficile et contraignant en relation avec les limites imposées dans le routage telles que la conservation d’un minimum de messages de contrôles, l’efficacité du délai de livraison des paquets, l’optimisation des ressources et principalement l’équilibrage de charge. Le problème de l’équilibrage de charge entre nœuds s’impose dans le processus de routage à mono-chemin lorsque certains nœuds du réseau sont peu utilisés et d’autres sont fortement congestionnés donc consomment rapidement leurs ressources à savoir la bande passante et l’énergie. Cette répartition non homogène de la charge influence négativement sur la durée de vie du réseau en engendrant un faible taux de délivrances de paquets avec succès, un long délai d’attente ainsi qu’une consommation inefficace de l’énergie. Afin d’affaiblir quelques faiblesses causées par le phénomène de non équilibrage, il a été développé la technique de routage appelée multi-chemin dont l’objectif est d’améliorer le temps de la réception de l’information et de mieux gérer les ressources disponibles dans le réseau. Tout de même, de nombreux problèmes restent posés dans cette architecture et l’amélioration escomptée n’est pas atteinte. Cette thèse porte sur l’étude, l’évaluation et l’amélioration du service de routage des données dans les réseaux Ad-hoc dans leurs deux architectures de mono et de multi-chemins. Une étude comparative de certains protocoles multi-chemins a été réalisée dont le but est de déceler les avantages et les inconvénients de chacun d’eux. Dans ce type de routage, nous avons proposé également une nouvelle approche baptisée AOMDV-LP (Ad-hoc On-Demand Distance Vector Multipath with Lifetime Prolonging) basée sur le protocole de routage AOMDV. L’objectif est d’arriver à un mécanisme efficace pour l’optimisation de la durée de vie du réseau et de contrôler sa congestion grâce à l’implémentation d’une procédure d’équilibrage de charge. L’idée principale est fondée sur une procédure de routage qui évite les routes à faible énergie et optimise le processus de routage en sélectionnant plusieurs chemins de bonne qualité comparés à la première version de l’AOMDV. A cet effet, une formule originale est établie et appliquée pour la sélection d’un meilleur chemin en considérant l’énergie des nœuds intermédiaires, le nombre de sauts pour atteindre la destination souhaitée ainsi qu’un nouveau paramètre appelé « coût du lien ». Les résultats obtenus sont très significatifs, satisfaisants et concluants avec un taux de pertes de paquets réduit, un délai de communication et un débit améliorés
