Informatique
Permanent URI for this communityhttps://dspace.univ-boumerdes.dz/handle/123456789/43
Browse
Item Une machine abstraite pour le système XcB+ -calcul(2004) Korso, LilaItem Une approche pour la sélection de méthodologies de développement logiciel : an approach for selecting software développement méthodologie(2006) Touil, GhassenLes processus ou les méthodologies de développement logiciel sont une approche récente pour adresser la complexité croissante du logiciel. Ces dernières années, nous avons vécu une croissance et une diversité de méthodologies de développement logiciel. Les principes de base rendent ces méthodologies de développement différentes et définissent une gamme de projets de logiciel qui peuvent être traités. Le choix de la méthodologie correcte est un facteur critique pour le succès de n'importe quel projet. Le grand nombre de méthodologies de développement logiciel disponibles aujourd'hui et les différents soucis qu'un projet peut faire sortir rendent difficile de concorder un projet avec une méthodologie appropriée. Dans la présente étude nous fournissons quelques directives qui aideront les organisations à prendre des décisions sur la méthodologie à employer pour développer un produit donné. Un framework de facteurs en relation avec la méthodologie, le projet et l'organisation a été fourni et appliqué pour comparer les quatre méthodologies suivantes, qui représentent le courant principal dans le développement logiciel : Rational Unified Process, Extreme Programming, Cleanroom Software Engineering et Open Source Development. Le framework inclut les facteurs les plus important lors de la sélection d’une méthodologie. Le Balanced Scorecard avec ses quatre perspectives complémentaires a été employé pour guider le procédé de sélection. L'application d'un tel modèle a été présentée et illustrée dans une étude de cas pour choisir une méthodologie de développement pour un projetItem Confluence et préservation de la propriété de normalisation forte du système @(2006) Salmi, CheikhLe @ calcul est une extension simple du -calcul classique qui n’utilise aucun codage supplémentaire pour désigner les termes. Dans ce mémoire nous nous sommes principalement intéressé à l’étude de la confluence et la préservation de normalisation forte du @ calcul. En constatant, à travers notre étude des calculs avec substitution explicite, que la confluence et la préservation de la normalisation forte des calculs ne sont pas des propriétés évidentes à établir directement, nous avons considéré le @ en le présentant comme un formalisme de réécriture d’ordre supérieur. Ainsi, nous avons prouvé la normalisation forte du @ en utilisant une combinaison des techniques du ‘semantic labelling’ et l’ordre récursif sur les chemin. La confluence faible du @ est évidente après l’étude et la résolution de ses paires critiques.La confluence du @ découle immédiatement de sa préservation de normalisation forte et sa confluence faible par le lemme de Newman. La simplicité des règles de réécriture du @ calcul rend intéressant la définition d’une machine efficace exécutant les réductions de ce calcul. Il serait aussi intéressant de définir une version typée pour calculItem Un Système à base d’acteurs pour l’interrogation des BDD en langue naturelle(2006) Badaoui, AtikaDés les débuts de l’informatique, l’un des soucis majeurs de l’utilisateur fut de pouvoir stocker massivement des données et de pouvoir en disposer régulièrement afin d’en extraire de nouvelles informations, de les consulter et de les modifier. C’est ce qui a fait des bases de données un outil indispensable dans tous les systèmes de gestion de l’information. Cependant, l'utilisateur de bases de données est bien souvent un non informaticien. Un dialogue homme-machine trop rigide syntaxiquement, rend parfois difficile l'emploi d'un tel système. Ceci a généralement pour effet de limiter le nombre d'utilisateurs potentiels, et de les éloigner d'outils informatiques qu'ils rejettent, car trop compliqués, ou trop difficiles à utiliser. L'avantage majeur d'une interface en langue naturelle réside dans le fait que l'utilisateur n'est plus obligé de connaître la structure de la base de données. En plus, une interface en langue naturelle peut interpréter des expressions anaphoriques et elliptique ce qui est impossible avec les langages formels. La mise en place d’un système d’interrogation de BDD en langue naturelle en considérant la sémantique, l’interrogation et la génération de réponse est très compliquée. Cette complexité est due à la diversité des sources de connaissances que manipule le système et la nécessité d’une communication continue et d’un échange d’informations entre ses différents composants. De telles exigences impliquent le choix d’une approche permettant d’une part la distribution des connaissances et d’autre part d’assurer une communication efficace entre les sources de connaissance. Dans une telle approche les niveaux de traitement seront vus comme des processus actifs communiquant entre eux, et chaque niveau sera considéré comme une composition d’un ensemble d’objets dynamiques. Le modèle acteur, se présente comme une solution idéale pouvant satisfaire de telles exigences. Par sa définition, un acteur est considéré comme un expert vivant en société et communiquant avec d'autres experts pour résoudre des problèmes. Notre travail s’inscrit dans le projet SGBD Act21 en cours de développement à l’Institut National d’Informatique, il consiste à proposer une architecture d’un système autorisant la manipulation d’une BDD en langue naturelle. Il reçoit en entrée une question en langue naturelle formulée par l’utilisateur du système, la traduit en une requête SQL et la transmet au module REQ chargé de l’exécution d’une requête de type SQLItem Une approche de modélisation de procédés logiciels à base de composants(2006) Belkasemi, DjamelLe Domaine des procédés logiciels est vaste et les procédés logiciels sont intrinsèquement complexes. De nombreux travaux de recherches poursuivent leurs efforts pour caractériser et pour mieux cerner les procédés. Des approches ont été proposées pour les modéliser et des environnements ont été développés pour les supporter. Dans ce travail, Nous proposons une approche de modélisation de procédés logiciels à base de composants permettant à des équipes distribuées de coopérer dans la modélisation et l'exécution des procédés en utilisant des environnements hétérogènes. Un Frame Work basé sur le langage XML a été développé pour supporter l'approche proposéeItem Un système de preuve d'ordre supérieure basé sur le E lambda calcul(2006) Hamimed, LyazidLa majorité des systèmes de peuvre existantssont basés sur le paradigme " type as formula" due au typage du lambda calcul et plus précisément inspiré de l'interprétation de la relation des termes avec leurs types, Cette interprétation de la relation des termes avec leurs types, cette interprétation , connue souvent l'isomorphisme de Curry Howard, consiste à considérer les types comme étant des propositions et les termes comme étant des preuves le E-calcul est une extension du lambda calcul pur, ou une nouvelle procédure du processus de calcul est définie et deux constantes sont introduite: une de constantes est destinée à représenter l'implication et l'autre pour représenter la quantification universelleItem Amélioration de la performance des processeurs généralistes par une exécution distribuée des instructions(2006) Bouache, MouradLe Banc de registres avec ses ports d’accès et le mécanisme de renvoi sont les ressources critiques parmi d’autres du chemin de données du processeur. Notre étude évalue l’impact de l’augmentation du degré superscalaire sur le flux des données manipulées par le processeur. Nous montrons que la réduction du nombre de ports d’accès au banc de registres, sans réorganisation de la lecture des registres sources et de l’écriture des destinations, est peu efficace. Les registres sources prêtes au renommage, critiques pour la performance, doivent être transmises par le chemin le plus direct possible c’est-à-dire le réseau de renvoi. Les autres registres sources sont moins critiques pour la performance. Leur chemin peut transiter par le banc de registresItem Modélisation et simulation des processus biologiques dans le À-calcul(2007) Ishak Boushaki, SaidaDans ce mémoire nous avons étudié la modélisation des réactions biologiques et leur simulation dans le À-calcul stochastique. Les processus biologiques, considérés comme des processus parallèles, sont d'abord exprimés dans le langage du À-calcul stochastique, ensuite sont simulés à l'aide d'outils comme BioSpi et SPiM, basés sur l'algorithme de Gillespie. Pour illustrer cette méthode nous avons considéré l'exemple de réaction de régulation de la transcription de gènes par rétroaction. Après sa modélisation dans le À-calcul stochastique, nous avons exécuté le programme obtenu à l'aide d'outil SPiM. Les résultats de la simulation obtenus donnent des informations utiles sur cette réaction de régulationItem Un IDS réparti basé sur une société d'agents intelligents(2007) Bourkache, GhenimaLes réseaux informatiques sont de plus en plus susceptibles d’être la cible de dérèglements divers, à l’encontre de leur sécurité, tels que les congestions, les accès malveillants et les attaques. A cet effet, il devient inéluctable de munir ces systèmes d’outils et de mécanismes capables d’inhiber ces dérèglements. Afin de détecter toute tentative de violation de la politique de sécurité, une surveillance permanente ou régulière des systèmes peut être mise en place : ce sont les Systèmes de Détection d'Intrusions (IDS). Les systèmes de détection d’intrusions sont devenus très largement déployés dans les systèmes d’informations et ils ont gagné une place importante dans la conception de la stratégie de sécurité. Malgré la réputation de ces outils, la plupart des systèmes de détection d’intrusions sont monolithiques et centralisés alors que la collecte des données sur le réseau est distribuée. A cet effet, notre objectif s’inscrit dans le cadre d’une détection d’intrusions distrubuée et intelligente. Dans cet esprit, nous proposons un modèle pour construire un système de détection d’intrusions réparti comportemental en utilisant une méthode de classification basé sur le fonctionnement des fourmis – ANTClass – et fonctionnant sur le principe d’une société d’agents mobiles réactifs dédiée à la détection d’intrusions distribuée et intelligente dans un réseau. Ce modèle vise à résoudre les problèmes induits par des systèmes de détection d’intrusions centralisésItem Amélioration de la performance des processeurs généralistes par la réduction du nombre d'instructions exécutées(2007) Goudjil, MohamedL’équation de performance d’un processeur fait apparaître trois termes : le cycle qui dépend de la technologie, l’IPC (Instructions Par Cycle) qui dépend de la microarchitecture et enfin, le nombre d’instructions exécutées qui dépend de l’architecture. En dehors des avancées technologiques, les améliorations apportées à la performance des processeurs généralistes ces dernières années ont surtout concernées la microarchitecture. Depuis la révolution RISC, le jeu d’instructions interne des processeurs s’est figé autour d’instructions simples. Une conséquence est que pour atteindre un degré élevé de l’IPC, il faut exécuter de nombreuses instructions élémentaires dans le même cycle. Une alternative est de réduire le nombre d’instruction à exécutée en profitant de la redondance qui existe dans les instruction d’accès mémoire. Il est à remarquer que dans un jeu d’instructions RISC, les instructions de chargement et de rangement sont des instructions complexes combinant les effets de deux instructions élémentaires. L’accès proprement dit dépend du calcul d’adresse. Ce qu’il fait que la réduction du nombre de tel type d’instruction apport un gain important. Dans ce travail nous avons présenté une nouvelle approche pour améliorer la performance en réduisant le nombre d’instructions à exécuter. Nous avons proposé une nouvelle architecture pour le banc de registres. Nos mesures montrent que la nouvelle architecture permettrait de réduire de 15% le taux d’instructions de chargement, et de 10% celui des instructions de rangementsItem Reformulation de requêtes dans les systèmes de recherche d'information dans des documents XML(2007) Mataoui, M'HamedNotre travail se situe dans le contexte de la recherche d’information (RI), plus particulièrement la recherche d'information dans des documents semi structurés de type XML. La reformulation de requêtes est une phase importante dans les systèmes de recherche d’information. Elle permet en effet de récrire la requête de l’utilisateur selon les informations retrouvées par la requête initiale. De manière générale, ceci consiste, dans le cas notamment de la réinjection de la pertinence, d’extraire à partir des documents jugés pertinents par l’utilisateur, les mots-clés importants puis les rajouter à la requête initiale. L’objectif de ce projet est de proposer une solution pour adapter ce processus bien connu et bien établi dans les systèmes de recherche d’information plein texte, à la recherche d’information dans des documents XML. L’utilisation de la technique de réinjection de pertinence dans le contexte de la RI structurée nécessite la prise en charge de la dimension structurelle en plus de la dimension textuelle. Dans ce travail nous avons tenté d’apporter des réponses aux différentes questions posées, à savoir : Comment effectuer une reformulation de requêtes par réinjection de pertinence dans ce contexte? Comment extraire les meilleurs termes à partir d’unités d’information jugées pertinentes et non pertinentes par l’utilisateur, sachant que ces unités peuvent avoir des sémantiques différentes (ex : un paragraphe, une section, un titre), et peuvent être imbriquées les unes dans les autres? Quels poids doit-on assigner à ces différents termes dans ces différents cas de figures? Est-il opportun, par exemple, d’assigner le même poids à un terme provenant d’un titre et d’une section? Comment intégrer l’information structurelle dans la formation de la nouvelle requête ? Nos propositions concernent les catégories de stratégies : le ré-ordonnancement de la liste des résultats; et puis l'expansion de requêtes. Concernant la stratégie de ré-ordonnancement, nous proposons deux méthodes : le réordonnancement contextuel et le ré-ordonnancement par nom de Journal. En ce qui concerne l’expansion de requêtes, nous proposons deux méthodes : expansion par ajout de termes et expansion par ajout de contraintes structurelles. L’évaluation effectuée porte sur les méthodes de ré-ordonnancement appliquées sur des résultats renvoyés par le système de recherche d’information XFIRM en utilisant des jugements de pertinence issus de la campagne INEX. L’évaluation des formules proposées nous a permis de constater que les résultats obtenus après ré-ordonnancement sont meilleurs que ceux de l'exécution de baseItem Prise en compte de l'hétérogéniété structurelle en recherche d'information semi-structurée(2007) Bouidghaghen, OuardiaLes travaux présentés dans ce mémoire se situent dans le contexte général de gestion automatisée de corpus de documents XML de structures hétérogènes. Leur objectif est de proposer des solutions pour l'interrogation de ce type de documents sans se soucier de cette hétérogénéité. L'émergence d'XML comme langage de représentation a créé une grande quantité de documents qui bien que se rapportant au même domaine sont structurés différemment. Cela est une conséquence directe de la liberté qu'offre XML aux concepteurs pour représenter leurs données. En effet, deux concepteurs différents peuvent employer différents noms de balises pour désigner un même concept. De même, le nombre des balises et leur agencement, peuvent varier à travers des sources disparates de documents. L'hétérogénéité des structures des documents est de ce fait inévitable. L'accès aux documents semi structurés suivant des structures hétérogènes, dans le cadre de la recherche d'information soulève un réel problème. En effet, comme ces documents peuvent être interrogés à la fois à travers des requêtes comportant que des mots clés ou des requêtes combinant mots clés et contraintes structurelles (balises), la connaissance de toutes les structures dans le second cas par un utilisateur est impossible. Il appartient alors au système de recherche d'information de fournir des moyens adéquats pour l'interrogation de tels corpus. Il est nécessaire alors de répondre aux questions suivantes : quelle méthode peut être utilisée pour établir les correspondances entre les différentes structures? Les correspondances doivent-elles se focaliser uniquement sur la différence des noms de balises, ou bien faut-il considérer aussi la différence de structuration de ces balises? Nous nous sommes intéressés dans ce mémoire à proposer des solutions pour répondre à de telles problématiques. Dans ce cadre, nous avons présenté principalement trois contributions. Dans la première, pour remédier au problème de la variation linguistique, nous proposons de concevoir un dictionnaire des balises synonymes de la collection en utilisant une ontologie (WordNet). Dans la seconde, nous tentons de répondre aux deux problèmes de la différence des noms de balises et leur structuration dans les différents schémas des documents. Pour cela, nous proposons d'utiliser une ontologie pour concevoir une structure générique unifiant tous les schémas des documents de la collection. Dans la dernière, nous proposons de convertir les documents XML de structures hétérogènes vers un schéma de médiation. Cette conversion se fait de manière automatique à partir de règles de transformation applicables pour toute la collectionItem Une architecture optimisée pour le support de services d'utilisateurs mobiles = optimized IP based architecture for mobile users service support(2008) Outioua, Mustapha IdirPar son succès, l’Internet a permis l’émergence de nouveaux concepts à introduire dans son réseau. Parmi ces concepts on distingue la gestion de la mobilité qui est due à l’émergence des réseaux sans fil et la gestion de la qualité de service dans le but d’opérer de nouvelles applications sur ce réseau. Les premières solutions de la gestion de la mobilité consistaient seulement à maintenir la connexion du mobile pendant que celui-ci change de point d’attachement au réseau. Cette solution ne tient pas compte de la gestion de la qualité de service offerte par le réseau au nouveau point d’attachement. Dans un réseau mobile offrant une qualité de service, la durée nécessaire à l’accomplissement de la nouvelle connexion est importante, cependant, si le mobile doit s’authentifier et si le réseau doit aussi installer la qualité de service à chaque changement de point d’attachement, la niveau de service se voit influencée par cette duréeItem Un système de programmation pour la composition de services Web(2008) Chouiref, ZahiraLa troisième génération du Web est orientée service. Cette orientation favorise l’interopérabilité des applications et des systèmes. Les services Web sont des technologies émergentes et prometteuses pour le développement, le déploiement et l’intégration d’applications Internet. Ces technologies, basées sur XML, fournissent une infrastructure pour décrire (WSDL), découvrir (UDDI), invoquer (SOAP) et composer (BPEL4WS) des services. Un des avantages majeurs des services Web par rapport à ses prédécesseurs tels que CORBA, DCOM et XML-RPC est l’apport de l’interopérabilité sur Internet. L’accès aux services Web est défini comme étant la succession de trois étapes, à savoir : la recherche de fournisseurs du service souhaité, la sélection de l'un de ces fournisseurs et la éalisation du service par l’invocation du fournisseur choisi. Cependant, les services Web ne sont pas capables de résoudre tous les problèmes. Actuellement, de nombreuses infrastructures pour supporter des services, sont déployées par différents organismes. La diversité de ces infrastructures et des organismes qui les déploient entraîne des hétérogénéités. Plusieurs types d’hétérogénéités existent : Les différences technologiques existant entre les infrastructures provoquent une hétérogénéité technologique. L'absence d'une pensée unique et la diversité des personnes définissant des services et leurs descriptions entraînent des hétérogénéités sémantiques et structurelles dans ces définitions. Ces hétérogénéités peuvent intervenir d'une infrastructure à une autre, ou au sein d'une même infrastructureItem Conception et mise en oeuvre d'un nouveau protocole de routage multi chemins pour les réseaux ad hoc basé sur la réputation noeuds(2008) Riahla, Mohamed AmineLes Réseaux ad hoc sont composés d'unités mobiles communiquant via un média sans fil, sans la nécessité d'infrastructure physique. Dans ce genre de topologie, tous les nuds coopèrent afin d'assurer la bonne gestion du réseau (contrôle, routage,…). La nature complètement distribuée de ce type de réseau pose le problème de performances (dûes aux calculs des routes) ainsi que les problèmes liées à la sécurité des échanges entre les nœuds. En ce qui Concerne les performances dues au routage des paquets, les protocoles actuels se divisent en deux catégories, les protocoles proactifs et les protocoles réactifs. Les protocoles proactifs établissent les routes à l'avance en se basant sur l'échange périodique des tables de routage comme dans le cas des réseaux classiques, alors que les protocoles réactifs cherchent les routes à la demande. Les deux classes souffrent d'un même problème qui est le nombre important de message de contrôle qui influence négativement sur la bande passante du réseau et les ressources énergétique des nœuds. Une troisième catégorie de protocoles de routage, dits hybrides, combinant les deux approches (réactive et proactive) a aussi été développée. Parmi les protocoles appartenant à cette catégorie, nous distinguons des protocoles inspirés des colonies de fourmis qui présentent, dans la plupart des cas, de meilleurs résultats. Tous les protocoles existant qui se basent sur le principe des fourmis utilisent une diffusion de fourmis (agents) par les nœuds sources pour la découverte des routes, ce qui augmente de façon exponentielle le nombre de messages de contrôle inutile. En ce qui concerne l'aspect sécurité, De nombreux travaux se focalisent sur les comportements malveillants pour contrer les attaques actives en négligeant les comportements égoïstes des nuds qui peuvent avoir des conséquences dramatiques dans le cas d'un réseau ad hoc; par exemple un hôte peut tout simplement rejeter les paquets en transit qu'il reçoit afin d'économiser son énergie. L'étude, qui a porté sur l'analyse des protocoles existants, nous a permis de faire ressortir un ensemble de problèmes; pour cela nous avons conçu un nouveau protocole de routage, le protocole AntTrust, afin d'apporter quelques solutions aux problèmes initiaux. Le travail consiste à formaliser et à mettre en uvre un protocole de routage Multi chemins pour les réseaux ad hoc basé sur la réputation des nuds. Ce protocole est basé sur le fonctionnement d'une colonie de fourmis pour le calcul dynamique des routes et sur un mécanisme de coopération pour contrer les mauvais comportements des nuds. Les résultats obtenus par le simulateur ns2, comparés aux autres protocoles, encouragent et montrent la validité de notre protocoleItem Recherche de partitions floue optimales par segmentation floue pour le fouille de données quantitatives(2008) Alouane, BasmaLe problème original de recherche de règles d'association consistait à extraire certaines corrélations à partir de données binaires. Constatant que souvent les données sont quantitatives, le problème a été étendu. L'idée consiste à ramener le problème à un cas binaire. Cependant une telle transformation cause le problème de valeurs aux limites. Afin de pallier à ce problème, les ensembles flous ont été proposés. Toutes les approches existantes dans la littérature considèrent que les ensembles flous sont donnés d'une manière empirique. A cette fin, nous proposons dans notre mémoire une approche originale qui permet de générer automatiquement les partitions floues. Nous proposons aussi deux méthodes pour trouver le nombre de partitions flouesItem Clustering par fusion floue de données appliqué à la segmentation d'image IRM(2008) Zouaoui, HakimaLes données traitées en imagerie médicale sont souvent imprécises et/ou incertaines du fait du mode d’acquisition des images ou de la modélisation des connaissances des médecins. Lorsqu’un expert examine une ou plusieurs images médicales, il prend en compte simultanément ses propres connaissances théoriques ainsi que les informations fournies par les images afin d’effectuer son diagnostic. De même, la fusion de données agrège informations numériques et connaissances théoriques et contextuelles afin de fournir une information synthétique pour l'aide au clinicien. L’objectif de ce mémoire consiste à développer une architecture de fusion de données basée sur la théorie possibiliste pour la segmentation d’une cible à partir de plusieurs sources d’images. Le processus de fusion est décomposé en trois phases fondamentales. Nous modélisons tout d'abord les informations dans un cadre théorique commun. Le formalisme retenu consiste à faire la coopération entre l’algorithme FCM (C-moyennes floues) dont la contrainte d’appartenance d’un individu à une classe est gérée d’une manière relative et l’algorithme possibiliste PCM (C-means possibilistes) pour les points aberrants . Nous agrégeons ensuite ces différentes informations par un opérateur de fusion. Celui-ci doit affirmer les redondances, gérer les complémentarités et prendre en compte les conflits soulignant souvent la présence d'une pathologie. Nous construisons enfin une information synthétique permettant d’exploiter les résultats de la fusion. Cette architecture développée est mise en oeuvre pour la segmentation des tumeurs cérébrales à partir des images IRM qui comprennent pour l’instant les séquences de base : T1, T2 et densité de protons (DP)
