Doctorat

Permanent URI for this collectionhttps://dspace.univ-boumerdes.dz/handle/123456789/46

Browse

Search Results

Now showing 1 - 10 of 13
  • Item
    Construction de code malveillant activable par attaque en faute pour support d'exécution sécurisé et contre-mesure associée
    (2019) Hamadouche, Samiya
    Les éléments sécurisés ont gagné une grande place dans notre vie quotidienne. Ils existent sous plusieurs formes. La carte à puce est l’élément le plus représentatif de la famille des éléments sécurisés. Elle est considérée comme étant un support d’exécution d’applications et de stockage d’informations très sécurisé. Vu la nature des informations qu’elles détiennent, les cartes à puce sont devenues la cible des personnes malintentionnées qui veulent s’approprier des informations sensibles qui y sont stockées voir même prendre le contrôle du système. La sécurité d’une carte à puce peut être contournée par des attaques matérielles, logicielles ou combinées. C’est dans cette dernière catégorie que s’inscrit notre travail. Notre objectif dans cette thèse est de développer un nouveau vecteur d’attaque. En effet, c’est en maîtrisant les détails permettant de contourner la sécurité de la carte que nous pourrions par la suite trouver les contre-mesures permettant de s’en prémunir : « La meilleure défense c’est l’attaque ». La plateforme Java Card étant la plus utilisée, elle est retenue comme notre plateforme cible. Le but est de trouver une méthodologie de construction de codes malveillants activables par attaque en faute. L’idée est de cacher ce code malveillant dans un autre code sain (par construction) afin qu’il puisse être chargé dans la carte sans qu’il ne soit détecté par les mécanismes de sécurité embarqués ou une analyse du code. Une fois sur la carte, le comportement hostile est activé moyennant une injection de faute. Pour aboutir à notre objectif, nous avons proposé deux approches complémentaires répondant chacune à un problème particulier. La première est une approche de construction de séquence de code, reliant deux états mémoire donnés, par parcours d’arbre. Elle repose sur des fondements théoriques liés au domaine des CSPs (Constraint Satisfaction Problem). La seconde approche traite le mécanisme de désynchronisation de code qui permet la dissimulation d’un code donné en opérant des transformations dessus. La mise en œuvre des deux approches a donné lieu à deux outils pouvant générer des solutions de façon automatique. Des exemples d’application et une étude de cas ont permis de présenter des exploitations possibles des approches proposées afin de réaliser des opérations mettant en danger la sécurité d’une carte à puce
  • Item
    Protocoles d'échange de clés et crypto-systèmes basés sur les courbes elliptiques
    (2019) Mehibel, Nissa
    L'Internet devient de plus en plus omniprésent dans notre vie quotidienne et intervient dans divers domaines, où l'échange et le traitement de l'information doivent être sécurisés. La cryptographie est la solution qui est la plus utilisée pour sécuriser l'information, en assurant les contraintes de sécurité, à savoir la confidentialité, l'intégrité, l'authentification et la non-répudiation. Deux types de cryptographie sont classiquement distingués. La cryptographie asymétrique offre une distribution de clés sécurisée ainsi que la signature numérique, mais elle nécessite plus de calculs que la cryptographie symétrique. Pour cette raison, l'utilisation de la cryptographie basée sur les courbes elliptique prend de plus en plus de l'ampleur. C'est une cryptographie asymétrique connue pour sa robustesse qui est basée sur la difficulté de résoudre le problème de logarithme discret, d'une part, et pour son utilisation de clés de taille nettement plus réduite que celles de RSA, en offrant le même niveau de sécurité, d'autre part. Dans cette thèse, nous essayons de répondre aux contraintes de sécurité et de performance qu'impose le fonctionnement efficace des protocoles cryptographiques basés sur les courbes elliptiques, notamment à l'échange de clé Diffie-Hellman (DH), au crypto-système d'ElGamal et à l'algorithme de signature numérique. Nous proposons deux solutions pour répondre aux contraintes d'authentification. Dans la première, nous présentons une nouvelle approche d'échange de clé secrète DH. La deuxième concerne l'intégration de l'algorithme de signature numérique sur courbes elliptiques au protocole d'accord de clé DH. Nous analysons l'algorithme de signature numérique basé sur les courbes elliptiques ainsi que ses variantes, et nous proposons des améliorations y afférentes
  • Item
    Contributions au routage, qualité de service et sécurité dans les réseaux ad-hoc
    (2019) Baddari, Ibtihel
    La problématique de routage dans les réseaux ad-hoc consiste à déterminer et à maintenir le chemin le plus adapté en efficacité et efficience pour faire transiter les données à communiquer. Toutefois, les caractéristiques de ce type de réseaux présentent un challenge difficile et contraignant en relation avec les limites imposées dans le routage telles que la conservation d’un minimum de messages de contrôles, l’efficacité du délai de livraison des paquets, l’optimisation des ressources et principalement l’équilibrage de charge. Le problème de l’équilibrage de charge entre nœuds s’impose dans le processus de routage à mono-chemin lorsque certains nœuds du réseau sont peu utilisés et d’autres sont fortement congestionnés donc consomment rapidement leurs ressources à savoir la bande passante et l’énergie. Cette répartition non homogène de la charge influence négativement sur la durée de vie du réseau en engendrant un faible taux de délivrances de paquets avec succès, un long délai d’attente ainsi qu’une consommation inefficace de l’énergie. Afin d’affaiblir quelques faiblesses causées par le phénomène de non équilibrage, il a été développé la technique de routage appelée multi-chemin dont l’objectif est d’améliorer le temps de la réception de l’information et de mieux gérer les ressources disponibles dans le réseau. Tout de même, de nombreux problèmes restent posés dans cette architecture et l’amélioration escomptée n’est pas atteinte. Cette thèse porte sur l’étude, l’évaluation et l’amélioration du service de routage des données dans les réseaux Ad-hoc dans leurs deux architectures de mono et de multi-chemins. Une étude comparative de certains protocoles multi-chemins a été réalisée dont le but est de déceler les avantages et les inconvénients de chacun d’eux. Dans ce type de routage, nous avons proposé également une nouvelle approche baptisée AOMDV-LP (Ad-hoc On-Demand Distance Vector Multipath with Lifetime Prolonging) basée sur le protocole de routage AOMDV. L’objectif est d’arriver à un mécanisme efficace pour l’optimisation de la durée de vie du réseau et de contrôler sa congestion grâce à l’implémentation d’une procédure d’équilibrage de charge. L’idée principale est fondée sur une procédure de routage qui évite les routes à faible énergie et optimise le processus de routage en sélectionnant plusieurs chemins de bonne qualité comparés à la première version de l’AOMDV. A cet effet, une formule originale est établie et appliquée pour la sélection d’un meilleur chemin en considérant l’énergie des nœuds intermédiaires, le nombre de sauts pour atteindre la destination souhaitée ainsi qu’un nouveau paramètre appelé « coût du lien ». Les résultats obtenus sont très significatifs, satisfaisants et concluants avec un taux de pertes de paquets réduit, un délai de communication et un débit améliorés
  • Item
    Validation des spécifications formelles de la mise à jour dynamique des applications java card
    (2018) Lounas, Razika
    La mise à jour dynamique des programmes consiste en la modification de ceux-ci sans en arrêter l'exécution. Cette caractéristique est primordiale pour les applications critiques en continuelles évolutions et nécessitant une haute disponibilité. Le but de notre travail est d'effectuer la vérification formelle de la correction de la mise à jour dynamique d'applications Java Card à travers l'étude du système EmbedDSU. Pour ce faire, nous avons premièrement établi la correction de la mise à jour du code en définissant une sémantique formelle des opérations de mise à jour sur le code intermédiaire Java Card en vue d'établir la sûreté de typage des mises à jour. Nous avons ensuite proposé une approche pour vérifier la sémantique du code mis à jour à travers la définition d'une transformation de prédicats. Nous nous sommes ensuite intéressés à la vérification de la correction concernant la détection de points sûrs de la mise à jour. Nous avons utilisé la vérification de modèles. Cette vérification nous a permis de corriger d'abord un problème d'inter blocage dans le système avant d'établir d'autres propriétés de correction: la sûreté d'activation et la garantie de mise à jour. La mise à jour des données est effectuée à travers les fonctions de transfert d'état. Pour cet aspect, nous avons proposé une solution permettant d'appliquer les fonctions de transfert d'état tout en préservant la consistance du tas de la machine virtuelle Java Card et en permettant une forte expressivité dans leurs écritures
  • Item
    Extension floue de l'analyse de concepts formels pour la recherche d'Information
    (2018) Zerarga, Loutfi
    Les travaux e_ectu_es dans le cadre de cette th_ese reposent principalement sur l'id_ee d'utiliser le cadre th_eorique o_ert par l'analyse de concepts formels (ACF) dans le domaine de la recherche d'information (RI), domaine fort souvent abord_e uniquement sous un volet exp_erimental. Estimant que la RI peut aussi tirer pro_t d'un cadre formel, nous proposons une th_eorie axiomatique multi-sorte qui formalise le processus de recherche et les objets li_es _a la RI. Cette th_eorie o_re un cadre g_en_erique capable de reproduire et de repr_esenter les mod_eles de RI existants. Cette g_en_ericit_e est mise en _evidence en prouvant que trois interpr_etations di__erentes satisfont notre th_eorie ; _a savoir le mod_ele Bool_een, le mod_ele ou standard et le mod_ele vectoriel. L'utilit_e de notre th_eorie est aussi mise en _evidence par le fait qu'elle permet d'enrichir et le mod_ele Bool_een et le mod_ele ou standard. En d'autres termes, nous d_emontrons des propri_et_es alg_ebriques caract_erisant les di__erentes formes de requ^etes de ces mod_eles par les treillis de concepts formels et les treillis de N_-paires relatifs respectivement _a l'ACF et _a sa lecture possibiliste et oue. Ainsi enrichi, le mod_ele Bool_een a _et_e mis _a contribution dans le cadre de la RI structur_ee en se basant sur l'extension triadique de l'ACF, permettant ainsi le traitement des requ^etes orient_ees contenu et des requ^etes orient_ees contenu et structure. La quasi-majorit_e des approches existantes de RI bas_ees sur l'ACF ne prennent pas en consid_eration la pond_eration des requ^etes. A partir de ce constant, nous proposons une approche de recherche par navigation dans les treillis relatifs _a l'extension oue de l'ACF et _a son interpr_etation possibiliste. L'ignorance partielle/totale _etant une r_ealit_e forte souvent constat_ee dans les matrices d'incidence Documents_ Termes, nous proposons, dans le cadre de cette extension oue, de mod_eliser de pareilles r_ealit_e par des intervalles de v_erit_e. A_n de faciliter la recherche par navigation dans les treillis inh_erents _a l'ACF, nous proposons une transformation lin_eaire de ces derniers en d_e_nissant un ordre total sur les ensembles de concepts formels ous et duallement sur les ensembles de N_-paires oues
  • Item
    Une approche SVM-méta-heuristique pour laclassification : application à l'information médicale
    (2016) Nekkaa, Messaouda
    Ce projet de doctorat porte sur la r esolution du problème de classifcation de donn ees médicales par une approche méta-heuristique combinée avec un classifcateur SVM. La classifcation de données est un problème important et complexe en data mining. Ce problème nécessite une approche d'optimisation pour sa réesolution efficace. Dans cette thèse, nous nous interessons a la sélection d'attributs par une approche m eta-heuristique, ce qui permettra de sélectionner un sous-ensemble d'attributs pertinents pour la phase de classifcation. Nous proposons plusieurs méthodes de sélection d'attributs, combinant des algorithmes méeta-heuristiques avec un séparateur la vaste marge (SVM).
  • Item
    Recherche d'information dans les documents XML : prise en compte des liens pour la sélection d'éléments pertinents
    (2016) Mataoui, M'Hamed
    Notre travail se situe dans le contexte de la recherche d'information (RI), plus particulièrement la recherche d'information dans des documents semi structurés de type XML. L'exploitation efficace des documents XML disponibles doit prendre en compte la dimension structurelle. Cette dimension a conduit à l'émergence de nouveaux défis dans le domaine de la RI. Contrairement aux approches classiques de RI qui mettent l'accent sur la recherche des contenus non structurés, la RI XML combine à la fois des informations textuelles et structurelles pour effectuer différentes tâches de recherche. Plusieurs approches exploitant les types d'évidence ont été proposées et sont principalement basées sur les modèles classiques de RI, adaptées à des documents XML. La structure XML a été utilisée pour fournir un accès ciblé aux documents, en retournant des composants de document (par exemple, sections, paragraphes, etc.), au lieu de retourner tout un document en réponse une requête de l'utilisateur. En RI traditionnelle, la mesure de similarité est généralement basée sur l'information textuelle. Elle permetle classement des documents en fonction de leur degré de pertinence en utilisant des mesures comme:" similitude terme " ou " probabilité terme ". Cependant, d'autres sources d'évidence peuvent être considérées pour rechercher des informations pertinentes dans les documents. Par exemple, les liens hypertextes ont été largement exploités dans le cadre de la RI sur le Web.Malgré leur popularité dans le contexte du Web, peud'approchesexploitant cette source d'évidence ont été proposées dans le contexte de la RI XML. Le but de notre travail est de proposer des approches pour l'utilisation de liens comme une source d'évidencedans le cadre de la recherche d'information XML. Cette thèse vise à apporter des réponses aux questions de recherche suivantes : 1. Peut-on considérer les liens comme une source d'évidence dans le contexte de la RIXML? 2. Est-ce que l'utilisation de certains algorithmes d'analyse de liensdans le contexte de la RI XML améliore la qualité des résultats, en particulier dans le cas de la collection Wikipedia? 3. Quels types de liens peuvent être utilisés pour améliorer le mieux la pertinence des résultats de recherche? 4. Comment calculer le score lien des différents éléments retournés comme résultats de recherche? Doit-on considérer lesliens de type "document-document" ou plus précisément les liens de type "élément-élément"? Quel est le poids des liens de navigation par rapport aux liens hiérarchiques? 5. Quel est l'impact d'utilisation de liens dans le contexte global ou local? 6. Comment intégrer le score lien dans le calcul du score final des éléments XML retournés? 7. Quel est l'impact de la qualité des premiers résultats sur le comportement des formules proposées? Pour répondre à ces questions, nous avons mené une étude statistique, sur les résultats de recherche retournés par le système de recherche d'information"DALIAN", qui a clairement montré que les liens représentent un signe de pertinence des éléments dans le contexte de la RI XML, et cecien utilisant la collection de test fournie par INEX. Aussi, nous avons implémenté trois algorithmes d'analyse des liens (Pagerank, HITS et SALSA) qui nous ont permis de réaliser une étude comparative montrant que les approches "query-dependent" sont les meilleures par rapport aux approches "global context" . Nous avons proposé durant cette thèse trois formules de calcul du score lien: Le premièreest appelée "Topical Pagerank"; la seconde est la formule : "distance-based"; et la troisième est :"weighted links based". Nous avons proposé aussi trois formules de combinaison, à savoir, la formule linéaire, la formule Dempster-Shafer et la formule fuzzy-based. Enfin, nous avons mené une série d'expérimentations. Toutes ces expérimentations ont montré que: les approches proposées ont permis d'améliorer la pertinence des résultats pour les différentes configurations testées; les approches "query-dependent" sont les meilleurescomparées aux approches global context; les approches exploitant les liens de type "élément-élément"ont obtenu de bons résultats; les formules de combinaison qui se basent sur le principe de l'incertitude pour le calcul des scores finaux des éléments XML permettent de réaliser de bonnes performances