PhD theses
Permanent URI for this collection
Browse
Browsing PhD theses by Issue Date
Now showing 1 - 12 of 12
Results Per Page
Sort Options
- ItemContribution a l'étude des systèmes d'information scientifique et technique : Approche théorique et etude de cas de l'Algérie(Université de Bordeaux 3 : Institut des sciences de l'information et de la communication, 1990-12-22) Dahmane, Madjid; Estivals, RobertL’évolution que connait le système national algérien d'information scientifique et technique (ist) commande que soit établi son état afin de maîtriser sa dynamique. Pour ce faire, nous structurons notre recherche en deux parties:l'une théorique a travers laquelle nous définissons les concepts d'ist, de système d'information et de réseau documentaire ainsi que la méthodologie de l'étude Celle-ci sollicite l'approche systémique nous permettant de se situer dans deux perspectives: de systémique sociologique et de systémique communicationnelle. L'une formalise les déterminants constifutifs des besoins d'ist dans une format ion sociale amenant le niveau de la systémique communicationnelle. La deuxième partie relative a l'Algérie étudie le système national d'ist a travers une périodisation sociohistorique de son état afin de dégager les termes de sa problématique actuelle. Mais cette démarche dépasse le schéma classique de l'étude des besoins et la réponse du systèmes a ceux-ci
- ItemOrdre causal et tolérance aux défaillances en environnement mobile(Université des Sciences et de la Technologie Houari Boumediène (U.S.T.H.B.), 1998-10-22) Badache, Nadjib; Raynal, Michel; Sahnoun, Zaidi
- ItemFiltage d'information textuelle sur les réseaux une approche Hybride(Université des Sciences et de la Technologie Houari Boumediène (U.S.T.H.B.), 2004-11-20) Nouali, Omar; Blache, PhilippeLe sujet de la thèse se situe dans la problématique globale du traitement de l'information dynamique et de l’analyse de contenu. Elle est motivée par le souci de faciliter à l'utilisateur, submergé d’informations diverses, l'accès à l'information pertinente. Plus précisément, l'objet des travaux de recherche présentés, concerne l'automatisation du processus de filtrage de l’information pertinente et personnalisée. Il s’agit d’offrir une assistance à l’utilisateur, visant à optimiser le temps consacré à la recherche et à la consultation de l'information, en prenant en compte l’importance relative de l'information et les besoins en ressources pour son traitement.Les premières investigations dans ce travail ont été d’explorer le potentiel des techniques de plusieurs domaines de recherche liés au traitement de l'information textuelle. L'un de ces domaines concerne l’apprentissage automatique, qui constitue une phase incontournable dans la conception d’un système de filtrage automatique de l’information. Nous proposons une solution évolutive qui offre au système de filtrage la possibilité d’apprendre à partir de données ciblées (profils des utilisateurs), d’exploiter ces connaissances apprises (pour filtrer l’information) et de s’adapter à la nature de l’application (textes traités) dans le temps. Un autre domaine concerne le traitement automatique du langage naturel. Il intervient par la nécessité d’utiliser des ressources et des traitements linguistiques dans le processus de filtrage. Sur ce volet, notre objectif est de (dé)montrer que l’intervention de connaissances et de traitements linguistiques peut considérablement améliorer les performances d’un système de filtrage de l'information. En effet, le couplage entre méthodes statistiques et symboliques (quantitatives et linguistiques) donne plus d'efficacité au filtrage. Ce constat est d'ailleurs souvent évoqué pour un grand nombre d'applications liées au traitement de l'information textuelle. Ainsi, l'apport du domaine linguistique dans notre travail se concrétise sous plusieurs aspects. D'une part, nous proposons un ensemble de connaissances linguistiques sous forme de modèles réduits (issues de modèles linguistiques de textes). Il s’agit d’un ensemble d’indicateurs sur le texte, portant sur la structure et sur le contenu. Un texte est soumis à un processus d’analyse automatique qui permet de lui associer un ensemble de termes et de propriétés linguistiques, qui servent à le caractériser et permettent de le situer par rapport à d'autres textes. Ces connaissances, classées sous plusieurs niveaux (matériel, énonciatif, structurel et syntaxique), sont indépendantes du domaine d’application. Par ailleurs, la fiabilité des traitements repose sur l’opération d’apprentissage. Dans le cadre de ce travail, l'objectif n'est pas d'effectuer une analyse complète et profonde du contenu des textes. Il s'agit d'effectuer une analyse dite partielle, s'échelonnant sur plusieurs niveaux, pour identifier certaines propriétés linguistiques. Celles-ci permettent de distinguer les différents types de textes et de classer ensuite les nouveaux textes. D’autre part, pour l’aspect sémantique, nous proposons d’utiliser un ensemble de connaissances linguistiques (réseau lexical et cooccurrence de critères) permettant d’améliorer la représentation du texte. Des termes complémentaires sont ainsi impliqués dans le processus de décision, même s’ils n’apparaissent pas explicitement dans le texte (par exemple, la substitution de certains termes par d’autres termes proches sémantiquement). Pour la validation de notre approche, un outil d’aide à la génération d’interfaces de filtrage (baptisé GIFI) a été développé. Il est destiné à faciliter la tâche des utilisateurs développeurs dans l’élaboration de systèmes de filtrage de l'information. Il permet d’assister l’utilisateur dans le processus d’acquisition de l’application (corpus de textes) et de génération de ressources (vocabulaire lexical, propriétés linguistiques, modèle de filtrage). Il repose sur une conception modulaire, lui permettant de s'adapter à des extensions ou à des mises à jour éventuelles. Cet outil est basé sur une architecture ouverte permettant l’ajout de composants et offrant à l’utilisateur la possibilité de choisir, à chaque étape du processus de génération, les outils à utiliser. Ainsi, cette "boite à outils" matérialise l'implémentation d’une approche hybride de filtrage de l’information. Elle repose sur le principe d’une analyse partielle utilisant un ensemble de connaissances, où le repérage de propriétés linguistiques permet, d’une part, d’améliorer la représentation des textes, et d’autre part un filtrage de meilleure qualité. Pour l'évaluation de notre approche et afin de statuer sur sa faisabilité et sur son apport en terme d'efficacité, nous l’avons expérimentée sur une application pratique de filtrage de l’information : filtrage du courrier électronique. La période actuelle voit une prolifération colossale et démesurée des courriers électroniques non sollicités et indésirables (appelés Spams). Paradoxalement, au moment où le courrier électronique s'impose comme le moyen de communication incontournable pour les entreprises, les institutions académiques et même pour les particuliers, le problème des courriers indésirables atteint des proportions intolérables. Ce problème devient très sérieux pour les utilisateurs du courrier électroniques et engendre des pertes considérables, en temps et en argent, pour les entreprises. A travers les différentes expériences réalisées, nous avons montré l’applicabilité et l’adaptabilité d’une approche hybride au processus de filtrage de l'information. En effet, les résultats obtenus sur le corpus de messages utilisé, nous ont permis de valider l'intérêt des connaissances linguistiques et de l'apprentissage automatique pour l'amélioration des performances d'un système de filtrage de l’information
- ItemStratégies d'ordonnancement conditionnelles utilisant des automates temporisés(Université Joseph Fourier -Grenoble 1, 2006-10-02) Kerbaa, Abdelkarim Aziz; Maler, OdedCette thèse développe une méthodologie pour résoudre les problèmes d'ordonnancement de programmes conditionnels où savoir si une tâche doit être exécutée n'est pas connue à l'avance mais dynamiquement. Le modèle utilisé est à base d'automates temporisés représentant l'espace d'états à explorer. Le problème est donc formulé comme le calcul d'une stratégie gagnante (pire cas optimale) dans un jeu contre l'environnement. Dans un premier temps nous étudions le problème d'ordonnancement sur graphes de tâches déterministe puis nous étendons l'étude au problème d'ordonnancement avec incertitude conditionnelle. Pour les deux problèmes nous étudions différentes classes d'ordonnancements et de stratégies pour réduire l'espace d'états, des décompositions en chaînes pour réduire sa taille, puis nous investiguons plusieurs classes d'algorithmes exactes pour en évaluer l'efficacité et à partir desquels nous dérivons de bonnes heuristiques. Des résultats expérimentaux sur plusieurs exemples de benchmarks sont présentés afin de montrer l'efficacité de chaque algorithme et la précision des heuristiques proposées, puis des bornes théoriques sont déduites pour prouver la garantie de performance pire cas de chaque heuristique
- ItemMéthodologie d’analyse et de traitement d’images médicales(Université des sciences et de la Technologie Mohamed Boudiaf, 2006-12-24) Meziane, Abdelkrim; Bachari, Nour El-Islam
- ItemSecurity in Mobile Ad hoc Networks: Detection and Isolation of Selfish Nodes(2007-04) Djenouri, Djamel; Badache, NadjibAd hoc networking is a research field that attracts more and more attention amongst researchers. It includes a variety of topics involving many challenges. In this thesis, we deal with security problems, and focus on one related to the energy constraint of the nodes forming the ad hoc network, namely node selfish misbehavior or node non-cooperation. This problem threatens the service availability, one of the security requirement. It consists of a misbehavior in which the node, anxious about its battery shortage, drops packets originated from other nodes it is assumed to route, while using them as routers to transmit its own packets toward remote nodes. We first provide a general review of some security problems, along with the current solutions, then we survey the selfish misbehavior in a separate chapter. Before attempting to mitigate the selfishness problem we first treat its cause, by tackling the power management, and proposing a power aware-routing protocol. However, although the power-aware routing protocols, such as the one we propose, help improving the battery life time, they are far from eliminating this challenging problem. Therefore, a solution that detects and isolates selfish nodes is mandatory for self-organized ad hoc networks. We then propose a new solution to monitor, detect, and isolate such nodes.
- ItemSecurity in Mobile Ad hoc Networks: Detection and Isolation of Selfish Nodes(Université des Sciences et de laTechnologie Houari-Boumediene (USTHB), 2007-04) Djenouri, Djamel; Badache, NadjibAd hoc networking is a research field that attracts more and more attention amongst researchers. It includes a variety of topics involving many challenges. In this thesis, we deal with security problems, and focus on one related to the energy constraint of the nodes forming the ad hoc network, namely node selfish misbehavior or node non-cooperation. This problem threatens the service availability, one of the security requirement. It consists of a misbehavior in which the node, anxious about its battery shortage, drops packets originated from other nodes it is assumed to route, while using them as routers to transmit its own packets toward remote nodes. We first provide a general review of some security problems, along with the current solutions, then we survey the selfish misbehavior in a separate chapter. Before attempting to mitigate the selfishness problem we first treat its cause, by tackling the power management, and proposing a power aware-routing protocol. However, although the power-aware routing protocols, such as the one we propose, help improving the battery life time, they are far from eliminating this challenging problem. Therefore, a solution that detects and isolates selfish nodes is mandatory for self-organized ad hoc networks. We then propose a new solution to monitor, detect, and isolate such nodes.
- ItemModèle et techniques de transactions adaptables pour les environnements mobiles(Université des Sciences et de la Technologie Houari Boumediène (U.S.T.H.B.), 2007-11-17) Nouali-Taboudjemat, Nadia; Drias, HabibaLe concept de transaction a vu le jour dans les années soixante-dix pour répondre aux besoins des systèmes de gestion de base de données. Ce paradigme permet d’assurer la cohérence en présence des accès concurrents à des données partagées et en présence de pannes. Cependant, ce paradigme a gagné une importance dépassant largement le contexte dans lequel il a été développé à l’origine et a vu son spectre d'applications s'élargir au commerce électronique, le travail coopératif, la gestion de workflow, etc. Traditionnellement, la sémantique de transaction est définie par les propriétés ACID (Atomicité, Cohérence, Isolation et Durabilité) dont le maintien garantit la cohérence grâce à des mécanismes adéquats tels que les protocoles de validation assurant l'Atomicité et les protocoles de contrôle de concurrence assurant l'Isolation. De nombreux modèles transactionnels ont été élaborés pour prendre en charge des applications avancées diverses. Cependant, l’évolution des systèmes distribués vers les environnements sans fils et mobiles a induit de nouvelles contraintes dont le faible débit des communications sans fils et la latence du réseau qui allongent la durée de vie des transactions. De plus, les transactions mobiles requièrent l’utilisation de sites mobiles connectés au réseau par intermittence et évoluant dans un environnement non fiable sujet à de fréquentes déconnexions. La mobilité des unités permet à des transactions en cours d’exécution d’accéder à des systèmes hétérogènes, de manipuler des données de localisation imprécises ou des données dont la localisation change dynamiquement. La participation des unités portables restreintes en ressources (de calcul, mémoire, énergie) et hétérogènes rendent caduques les solutions transactionnelles traditionnelles. Toutes ces contraintes imposées par les caractéristiques de l'environnement mobile, conjuguées aux variations et au changements dynamiques de ces dernières, ainsi que la variabilité des besoins applicatifs en termes de propriétés transactionnelles interpelle à réfléchir sur des solutions offrant plus de flexibilité et d'adaptabilité. Dans cette thèse, notre contribution a été centrée principalement sur le problème de la validation atomique qui permet d'assurer la propriété d'atomicité. Nous avons donc proposé et évalué le protocole M2PC (Mobile Two-phase Commit Protocol) pour l'architecture de réseau mobile avec infrastructure et le protocole A-D2PC (Ad hoc Decentralized 2PC) pour les architectures ad hoc. Une évaluation et étude comparative des protocoles de validations de transactions en environnement mobile a été réalisée sur une plateforme de simulation permettant de modéliser à la fois les aspects transactionnels et les aspects communication des réseaux sans fil et mobiles. Cette évaluation a permis de mettre en évidence l'apport de chaque approche et les indices de performance de ce type de protocoles. Nous avons ensuite exploré la piste de l'adaptation des protocoles de validation de transactions mobiles aux variations de contexte qui nous a conduit à la proposition et la formalisation d'un modèle de transaction flexible supportant des propriétés adaptables AdapT (Adaptable Transactions) et d'un protocole de validation aTCP (Adaptable Transaction Commit Protocol) qui permet une adaptation aux exigences des applications et du contexte mobile en termes de propriétés transactionnelles et de coût d'exécution. Ensuite, nous avons proposé une architecture middleware context-aware supportant le modèle AdapT ainsi que le protocole aTCP. L'originalité de cette architecture réside principalement dans l'utilisation de l'approche basée sur les politiques
- ItemSpécification et validation des relations temporelles et spatiales dans un document multimédia interactif.(Université des Sciences et de laTechnologie Houari-Boumediene (USTHB), 2008-12-16) Maredj, Azze-Eddine; Alimazighi, ZaiaDans les standards et les systèmes proposés pour l’édition et la présentation de documents multimédia le contrôle du déroulement de la présentation d'un document multimédia est fondé sur une approche événementielle où la construction d'une présentation se fait au moyen de langages de programmation, selon une approche impérative, pour définir des enchaînements temporels et spatiaux. Cette approche comporte plusieurs inconvénients majeurs, comme l'inadaptation de la programmation à la nature incrémentale du processus d'édition, la difficulté de la maintenance des documents ainsi produits, le document génère une présentation unique, l’adaptation du contenu n’est pas considérée, alors qu’il existe actuellement des domaines, tel que la conception de cours interactifs, où cette caractéristique peut s’avérer très utile , le média dans sa globalité, c'est-à-dire comme une entité indissociable, alors qu’on devrait pouvoir utiliser une partie d’un média sans pour autant recourir à sa création, les techniques de navigation utilisées restent très insuffisantes pour profiter des informations temporelles des documents. Des fonctions de navigation temporelles avancées doivent être fournies afin de mieux exploiter la présentation d’un document, les travaux traitent essentiellement la dimension temporelle, alors que la conception de tels systèmes devrait considérer d’emblée les quatre dimensions afin de mutualiser au mieux leur conception et leur implémentation, et enfin, les problèmes qu'ont les auteurs non-informaticiens pour les maîtriser. Ces motivations nous ont conduites à aborder notre travail de thèse dans un cadre applicatif où il est fondamental de confronter les propositions théoriques avec la réalité de l'application. C'est pourquoi, nous avons tenté de mener tout au long de cette thèse une activité équilibrée entre théorie et application. Deux types de résultats sont donc attendus : (1) Des résultats théoriques porteront sur la proposition d’un modèle logique de documents multimédia interactifs intégrant les quatre dimensions et permettant la définition de parcours de lecture selon le profil. Sur la proposition de deux modèles à base de relations pour la spécification des informations temporelles et spatiales qui allient facilité d’utilisation et puissance d’expressivité. Sur la proposition d’une approche automatisée de gestion du recouvrement spatial. Sur le choix d’une approche intégrée pour l’analyse et la synthèse des informations temporelles et spatiales et la gestion du recouvrement. Et enfin, sur la proposition d’un ensemble de mécanismes pour la navigation. (2) Des résultats pratiques, sous la forme d’un prototype d'édition et de présentation de documents multimédia interactifs, qui permet de créer et de présenter des documents d'une complexité significative.
- ItemScalable and fault tolerant hierarchical B&B algorithms for computational grids(Université Abderrahmane Mira de Béjaia : Faculté des Sciences Exactes, 2012-06-07) Bendjoudi, Ahcène; Talbi, El-GhazaliLa résolution exacte de problèmes d’optimisation combinatoire avec les algorithmes Branch and Bound (B&B) nécessite un nombre exorbitant de ressources de calcul. Actuellement, cette puissance est offerte par les environnements large échelle comme les grilles de calcul. Cependant, les grilles présentent de nouveaux challenges : le passage à l’échelle, l’hétérogénéité et la tolérance aux pannes. La majorité des algorithmes B&B revisités pour les grilles de calcul sont basés sur le paradigme Master-Worker, ce qui limite leur passage à l’échelle. De plus, la tolérance aux pannes est rarement adressée dans ces travaux. Dans cette thèse, nous proposons trois principales contributions : P2P-B&B, H-B&B et FTH-B&B. P2PB& B est un famework basé sur le paradigme Master-Worker traite le passage à l’échelle par la réduction de la fréquence de requêtes de tâches et en permettant les communications directes entre les workers. H-B&B traite aussi le passage à l’échelle. Contrairement aux approches proposées dans la littérature, H-B&B est complètement dynamique et adaptatif i.e. prenant en compte l’acquisition dynamique des ressources de calcul. FTH-B&B est basé sur de nouveaux mécanismes de tolérance aux pannes permettant de construire et maintenir la hiérarchie équilibrée, et de minimiser la redondance de travail quand les tâches sont sauvegardées et restaurées. Les approches proposées ont été implémentées avec la plateforme pour grille ProActive et ont été appliquées au problème d’ordonnancement de type Flow-Shop. Les expérimentations large échelle effectuées sur la grille Grid’5000 ont prouvé l’efficacité des approches proposées
- ItemScalable and Fault Tolerant Hierarchical B&B Algorithm for Computational Grids(2012-06-07) Bendjoudi, AhcèneSolving to optimality large instances of combinatorial optimization problems using Branch and Bound (B&B) algorithms requires a huge amount of computing resources. Nowadays, such power is provided by large scale environments such as computational grids. However, grids induce new challenges: scalability, heterogeneity, and fault tolerance. Most of existing grid-based B&Bs are developed using the Master-Worker paradigm, their scalability is therefore limited. Moreover fault tolerance is rarely addressed in these works. In this thesis, we propose three main contributions to deal with these issues: P2P-B&B, H-B&B, and FTH-B&B. P2P-B&B is a MW-based B&B framework which deals with scalability by reducing the task request frequency and enabling direct communication between workers. H-B&B also deals with scala- bility. Unlike the state-of-the-art approaches, H-B&B is fully dynamic and adaptive, meaning it takes into account the dynamic acquisition of new computing resources. FTH-B&B is based on new fault tolerant mechanisms enabling efficient building of the hierarchy and maintainingits balancing, and minimizing of work redundancy when storing and recovering tasks. The proposed approaches have been implemented using ProActive grid-middleware and applied to the Flow-Shop scheduling Problem (FSP). The large scale experiments performed on Grid’5000 proved the efficiency of the proposed approaches.
- ItemModels and Tools for Usage-based e-Learning Documents Reengineering(2019-04-25) Sadallah, MadjidProviding high-quality content is of utmost importance to drive successful reading. Besides, designing documents that are received the way the author wishes has always been difficult, and the digital world increases this difficulty by multiplying the possibilities related to mixed medias and interactivity. This compels authors to continuously review the delivered content to meet readers' needs. Yet it remains challenging for them to detect the comprehension barriers that may exist within their documents, and to identify how these latter can be improved accordingly. This compels authors to continuously review the delivered content to meet readers' needs. Yet it remains challenging for them to detect the comprehension barriers that may exist within their documents, and to identify how these latter can be improved accordingly. In this thesis, we focus on an educational context, where reading is a fundamental activity and the basis of many other learning activities. We propose a learning analytics approach for assisting course authors to maintain their courses to sustain learning. The proposals are based on theoretical background originated from research on learning analytics, reading comprehension and content revision. We advocate \usage-based document reengineering", a process defined as a kind of reengineering that changes document content and structures based on the analysis of readers' usages as recorded in their reading traces. We model reading activity using the concept of reading-session and propose a new session identification method. Using learners' reading sessions, a set of indicators related to different aspects of the reading process are computed and used to detect comprehension issues and to suggest corrective content revisions. The results of the analytics process are presented to authors through a dashboard empowered with assistive features. We instantiate our proposals using the logs of a major e-learning platform, and validate it through a series of studies. The results show the effectiveness of the approach and dashboards in providing authors with guidance in improving their courses accordingly.