Magister theses
Permanent URI for this collection
Browse
Browsing Magister theses by Title
Now showing 1 - 20 of 36
Results Per Page
Sort Options
- ItemAnnotation et interrogation de données non structurées : Application aux Services Web(Université Abderrahmane Mira de Béjaïa, 2008-11-18) Benna, Amel; Boudjlida, NacerLes services Web ont été adoptés par les plus grandes organisations industrielles et commerciales pour l’interopérabilité des systèmes distribués. L’interaction entre leurs composants s’effectue à travers la publication, la recherche et la découverte puis l’invocation. Cependant, leur publication dans l’UDDI ne propose pas une description du service sur la base de ce qu'il offre. L’idée rapportée dans ce document, est d’effectuer une description sémantique des services Web (en SAWSDL) et un stockage des fonctionnalités des services Web, lors de la phase de publication, dans un registre que nous avons appelé base de liens sémantiques. La découverte des services revient à l’interrogation de cette base, qui représente le médiateur entre demandeur et fournisseur de services, et du registre UDDI. Le résultat retourné peut servir de point d’entrée pour une autre interrogation.
- ItemAnonymat Complet dans un environnement mobile(2003-06-09) Benmeziane, SouadDomaine de recherche relativement sensible, la protection de la vie privée et particulièrement l’anonymat constitue un axe de recherche crucial en sécurité dans les environnements mobiles. L’anonymat consiste à protéger les informations secondaires telles que l’identité des entités impliquées dans une transaction mais aussi à protéger les méta-informations qui découlent des interactions entre entités d’un système. Etant donné que les réseaux mobiles sont plus vulnérables à l’écoute, un intrus peut avoir accès à des informations sensibles concernant la vie privée des utilisateurs. Les messages échangés durant la procédure d’authentification peuvent révéler des informations privées à des ennemis écoutant le médium de communication. Il devient alors possible de pister l’usager. En nous intéressant au problème d’anonymat, nous nous sommes confrontés à un domaine sensible. En effet, d’un point de vue social, les communications anonymes semblent être désirées seulement par une minorité de gens concernés par le problème de préserver confidentielles les informations privées et souvent non acceptées par les gouvernements ou organisations. C’est pourquoi, les solutions pour les communications anonymes ne sont pas intégrées dans des produits existants ou infrastructures. Notons que l’anonymat assuré par GSM n’est que partiel et à ce jour les travaux de UMTS ne considèrent pas un anonymat complet. Il est également important de noter que même les travaux de recherche ne considèrent pas un anonymat complet. Dans ce contexte, nous proposons un protocole d’authentification dans un environnement mobile qui assure l’anonymat complet. Le protocole est basé sur la technique de signature aveugle pour assurer l’intraçabilité de l’utilisateur mobile même par son domaine d’affiliation. Ce dernier ne pourra pas connaître les différents déplacements de son abonné. Le protocole, ainsi défini, garantit la confidentialité des messages échangés durant l’authentification et permet de résister aux attaques par rejeu. L’anonymat complet peut sembler contradictoire avec la tarification des services demandés. Pour cela, nous intégrons un moyen de paiement électronique sans compromettre l’anonymat.
- ItemApport de la teledetection pour le suivi de l'evolution d'une region urbaine(Centre National des Techniques Spatiales, 1992) Maredj, Azze-Eddine; Gilg, J.PLes satellites d'cbservation de la terre incitent a des forriies nouwelles de "savoir lire" la ville. 11s apportent des informations cornplerrientaires ou uniques, suffisarrirrient precises pour repondre a urn certain niweau d'exigence, cjrsce aux systeriies de seconda generation, Thematic Mapper et Spot
- ItemApprentissage d’ordonnancements en recherche d’information structurée(2013-03-23) Chaa, MessaoudL’adoption accrue de XML comme format standard pour représenter les documents structurés nécessite le développement des systèmes, efficients et efficaces, capable de retrouver les éléments XML pertinents à une requête d'utilisateur. Ces éléments sont ensuite présentés ordonnés en fonction de leur pertinence par rapport à la requête. Généralement la stratégie adoptée consiste à combiner plusieurs sources de pertinences dans une seule fonction de score et le poids de chaque source est donné manuellement selon des méthodes empiriques. Il est connu que, dans la recherche d’information classique, compte tenu de plusieurs sources de pertinences et l’utilisation des méthodes d’apprentissage d’ordonnancement en combinant ces sources de pertinences, améliore la performance des systèmes de recherche d’information. Dans ce travail, certains caractéristiques de pertinences des éléments XML, ont été définies et utilisées pour l’apprentissage d’ordonnancement dans les documents structurés. Notre objectif est de combiner ces caractéristiques afin d’obtenir la bonne fonction d’ordonnancement et montrer l’impact de chaque caractéristique dans la pertinence de l’élément XML. Des expérimentations sur une grande collection de la compagne d’évaluation de la recherche d’information XML (INEX) ont montré la performance de notre approche.
- ItemUne Approche d’Intégration des Contenus Multimédia dans des Services Web(Université Abderrahmane Mira de Bejaia, 2012-12-19) Lebib, Fatma-Zohra; Amghar, Youssef; Mellah, HakimaLes contenus multimédia sont disponibles dans un grand nombre de diverses sources de contenus distribuées et hétérogènes. Afin de résoudre le problème posé par l’hétérogénéité des sources de contenu, une architecture orientée service est proposée pour assurer une intégration dynamique des contenus multimédia, provenant de différentes sources (base de données relationnelle ou objet, application multimédia, serveur multimédia, etc.). Dans ce travail, nous proposons un modèle que nous appelons Multimédia comme un Service (ou MaaS pour Multimedia as a Service), à travers lequel les fournisseurs de contenus multimédia exposent leurs contenus. Lorsque le service MaaS est découvert, il est classé dans une catégorie de concepts sur la base d’une ontology de domaine. Cependant, l’accès aux contenus se fait à travers une hiérarchie de concepts. Afin de valider notre approche, nous avons implémenté en java un système qui permet l’intégration des contenus multimédia de domaine du sport.
- ItemUn compagnon virtuel pour assister un apprenant en situation d'apprentissage collaboratif de la langue arabe(Université Alger 1, 2012) Boughacha, Rime; Alimazighi, ZaiaL’évolution des systèmes de formation allant des premiers systèmes d’EAO aux EIAH pour la production de cours multimédia en ligne à grande échelle. Les plates-formes existantes se ressemblent par leurs fonctionnalités. Ces plateformes sont de différents fournisseurs et de différentes caractéristiques et fonctionnalités. Les critères de choix dépendent, généralement, du modèle pédagogique adopté et des contraintes ergonomiques et technologiques. Notre travail s’inscrit dans l’objectif de fournir une assistance individualisée automatique aux apprenants dans leurs activités. Nos propositions une architecture informatique d’analyse et d’assistance individualisée pour les environnements support à l’apprentissage collaboratif, centré autour d’un personnage virtuel qui accompagnera l‘apprenant tout au long de son apprentissage. Le choix du type de personnage qui accompagnera l’apprenant peut être un choix stratégique. Ceci se résume en une classification de l’assistance d’apprentissage dans un EIAH, conception d’un système d’élaboration de contenus avec Générateur de compagnon virtuel pédagogique en définissant les situations d’apprentissage, rôle et stratégies, ainsi qu’un système multi agents supportant un compagnon virtuel d’enseignement dont le but de suivre la progression de l’apprenant et de garder trace de son évolution lors de son cursus.
- ItemConception et réalisation d'un systeme de comprehension de phrases interrogatives et de generation automatique de reponses en langage naturel (SIGAR)(USTHB, 1991) Nouali, Omar; Khelalfa, HalimLe système (SIGAR) d'interrogation de bases de données et de génération automatique de réponses en langage naturel, a été conçu et réalisé dans le but de répondre aux objectifs suivants : - d'offrir la possibilité à un utilisateur d'interroger une base de données en s'exprimant de la manière la plus accessible pour lui, soit dans un langage naturel ( ici le français). - de produire des réponse directes ou des réponses indirectes et informatives lorsque par exemple, la question ne peut avoir de réponse positive. - de permettre à l'utilisateur de converser avec le système en faisant des requêtes implicites lors du dialogue ( tournures elliptiques). Le système à une structure modulaire lui permettant de s'adapter à toute extension et modification en vue d'une portabilité éventuelle. la version courante du système SIGAR est entièrement écrite en langage pascal, elle est implementée sous le système d'exploitation VAX/785
- ItemLa diffusion dirigée avec conservation d'énergie dans les réseaux de capteurs(Université des Sciences et de la Technologie Houari-Boumediene (USTHB), 2006) Zeghilet, Houda; Badache, NadjibLa technologie des réseaux de capteur est une technologie clé pour les années futures.
- ItemEléments de la théorie des graphes et applications dans le domaine de l'information(Université des sciences et de la technologie Houari Boumediène (USTHB), 2006) Harik, Hakim; Ait Haddadene, HacèneNotre travail est consacré à l’utilisation de quelques éléments de la théorie des graphes dans le domaine de la science de l’information et précisément sur la notion de la cartographie d’information. Nous nous sommes intéressés à l’étude de deux approches : le partitionnement d’un graphe pondéré et la notion d’ensemble générique d’un graphe orienté. L’application de ces approches dans le domaine de l’information permet de représenter le contenu d’un corpus textuel sous forme d’une cartographie d’information. Nous avons proposé trois méthodes pour le partitionnement du graphe d’association de termes afin de rassembler les termes du corpus qui sont homogènes en se basant sur la notion de densité d’un sommet, sur la notion d’importance d’une arête et enfin sur la triangulation du graphe d’association de termes. Nous avons aussi proposé la notion d’ensemble générique représentatif d’un corpus textuel qui permet de donner une vue globale sur le contenu du corpus. Après avoir modéliser le problème sous forme de réseau orienté et pondéré, on a montré que cet ensemble peut être trouver efficacement en un temps polynomial. Le principe de la cartographie d’un corpus textuel est de permettre à l’utilisateur de prendre en compte les liens qui existent entre les différentes notions représentées. Elle permet de synthétiser des informations sous une forme facile à interpréter et à exploiter. Elle conduit à une compréhension simple de la structure du corpus étudié et ce, sous forme d’une carte de liens sémantiques entre les termes importants issus de ce corpus
- ItemEtude des modèles des "GRID Services" et implémentation d'une plateforme de développement / gridification basée sur les "Web services"(Université Abderrahmane Mira de Béjaia, 2009) Medjek, Faiza; Badache, Nadjib; El Maouhab, AouaoucheLes applications de calcul scientifique qui nécessitent des ressources de calcul et de stockage importantes nécessitent des environnements de grilles de calcul. Ces environnements de grilles se basent sur des approches orientées services. Dans ce contexte, les infrastructures « web services », dans le domaine du calcul scientifique peuvent être utilisées pour le développement et la « gridification1 » des applications. Par ailleurs, les architectures orientées services qui utilisent les infrastructures des Grid services permettent les invocations des services à travers les réseaux et les exécutions parallèles selon les workflows2 qui les définissent. L‘orchestration des activités/processus désignés par les workflows est une condition essentielle. Notre objectif est de résoudre le problème d‘interaction (intégration) des différents environnements qui répondent aux besoins de gridification d‘applications scientifiques (géo-spatiales, physiques, bioinformatique, etc.) basées sur la notion de workflows et de permettre l‘accès transparent aux applications en faisant abstraction des différents langages de programmation. La finalité étant de masquer la complexité à utiliser la grille et de permettre le parallélisme des applications en cas de besoin et ce en exploitant la force des workflows.
- ItemEtude et évaluation d’algorithmes de contrôle distribué : election(Université des sciences et de la technologie Houari Boumediène (USTHB), 1992) Nouali-Taboudjemat, Nadia; Khellalfa, HLa nature complexe des algorithmes distribues engendre, dans certains cas, une discordance entre les résultats théoriques et les résultats pratiques. Parfois des mises en oeuvres (même simulées) permettent de déceler des comportements inattendus, voire incorrects. Cette thèse est consacrée a 1' étude des algorithmes d'élection. Le problème est, en effet, fondamental dans le calcul distribue. Les applications qui utilisent ce mécanisme sont nombreuses et variées.Le but de cette thèse a été de faire un inventaire de ces algorithmes, en les repartissant par classes en fonction de la topologie du réseau. Leur spécification en E s t e l l e , leur évaluation en utilisant le logiciel Echidna et l'analyse de leurs performances ont conduit aux résultats suivants:- confirmer des comportements prévus par la théorie,- infirmer certaines prévisions théoriques,- déceler des erreurs dans certains algorithmes et proposer une solution,- proposer une classification des algorithmes évalués en fonction de leurs performances.- enfin, cette étude a permis de mettre en évidence l e s mécanismes utilises dans la conception d'algorithmes d'élection. Elle pourrait aider a asseoir une méthodologie de construction d'algorithmes distribues d'élection
- ItemIdentification de la sémantique dans des documents répartis(Université Abderrahmane Mira de Bejaia, 2011) Hamouche, Lamia; Gelgon, Marc; Maredj, Azze-EddineNous abordons dans ce mémoire le problème de la classification non supervisée de documents répartis par des méthodes probabilistes. Notre étude se concentre en particulier sur le modèle de mélange de lois multinomiales avec variables latentes thématiques au niveau des documents. Le travail porte sur l’apprentissage non supervisé distribué permettant de préserver la confidentialité des données en utilisant d’autres résultats de classifications sans avoir recours aux données de ces dernières. L’approche qui sera étudiée sera basée sur des méthodes probabilistes. Ayant une collection de corpus distribués sur plusieurs sites différents, le problème consiste à partitionner chacun de ces corpus en considérant les données locales et les classifications distantes des autres corpus distribués, sans partage de données entre les différents centres. Pour ce faire, nous proposons une approche asynchrone qui se subdivise en deux phases : Une phase locale et une phase de distribuée. La phase locale reviendrait à appliquer un algorithme de classification, dans notre cas c’est la méthode pLSA, localement et indépendamment sur chacun des corpus, ce qui se soldera par l’obtention d’une partition pour chacun de ces corpus. La phase distribuée reviendrait à faire participer chacun des corpus avec toutes les classifications associées aux autres corpus lors de la phase locale. Ainsi, comme résultat on obtient sur chacun des sites une classification proche de la classification qu’on aurait obtenue si on avait fait centraliser tous les corpus en un seul corpus global. A l’issu des deux phases, toutes les classifications locales seront enrichies
- ItemL’autonomie dans le Cloud Computing guidée par l’approche IDM(2015-02-23) Chekaoui, FaïzaDans le présent travail, nous nous appuyons sur une approche de modélisation pour traiter d’un cas particulier de l’autonomie des systèmes informatiques, la mise à l’échelle automatique dans un environnement Cloud Computing, appelée autoscaling. Nous expo- sons notre approche pour appuyer l’administration autonome afin de libérer les gestion- naires et les utilisateurs de tâches routinières qui se compliquent avec l’offre diversifiée du marché actuel. Cette approche s’inscrit dans l’ingénierie dirigée par les modèles (IDM) et repose sur la séparation et la recomposition des aspects. Dans notre cas, il s’agit des aspects dépendants et des aspects indépendants des plates-formes dont traite l’initiative Model Driven Architecture de l’OMG. Un environnement d’administration à base de modèles a été donc, réalisé où nous définissons deux niveaux d’intervention : l’expert cloud et l’utilisateur cloud. L’expert cloud réalise des templates d’autoscaling en créant des modèles conformes à un méta- modèle d’autoscaling défini au départ ; l’utilisateur cloud se base sur ces templates et sélectionne le fournisseur pour générer automatiquement un modèle spécifique qui aide à mettre en place le mécanisme d’autoscaling sur la palte-forme cloud choisie. Des trans- formations sont réalisées, d’abord une première transformation de type Model to Model (M2M) concerne le passage du modèle indépendant de la plate-forme dit PIM vers un modèle dépendant de la plate-forme dit PSM en faisant intervenir un PDM (Plateforme Description Model) et une seconde transformation de type Model to Text (M2T) qui réalise le passage du PSM vers le code à exécuter sur la plate-forme cloud ciblée. L’ap- proche employée diminue ainsi, de la complexité inhérente à l’hétérogénéité du cloud. L’expression des besoins étant également pérennisée permet aussi leurs réutilisation dans différentes plates-formes.
- ItemLes méta modèles de management dans les architectures de grilles de ressources GRID(Université Abderrahmane Mira de Bejaia, 2013-03) Khiat, Abdelhamid; Badache, NadjibLes systèmes de gestion de processus métier BPM sont largement utilisés pour les besoins d’automatisation des processus dans de larges environnements qui interagissent et nécessitent une forte synchronisation et une orchestration des tâches. Ces processus sont de nature distribués et sont pris en charge par plusieurs sous systèmes indépendants, d’où la nécessité d’orchestration. Par ailleurs, les architectures de grilles de calcul constituent des environnements avec plusieurs ressources et plusieurs services distribués et qui nécessitent des systèmes de management évolués. Notre objectif est de montrer la faisabilité de l’intégration de la technologie des BPM avec une méta modélisation adaptée à la gestion de ressources des grilles de calcul. Pour cet effet nous nous basons sur l’étude des différentes technologies associées à cette thématique et sur la validation de l’approche d’intégration par une implémentation sur un environnement GRID
- ItemMinimisation du délai d'agrégation de données dans les réseaux de capteurs(Université Abderrahmane Mira de Béjaia, 2009) Boulkaboul, Sahar; Badache, Nadjib; Djenouri, DjamelLa méthode d’agrégation de données a été proposée comme un nouveau paradigme utile pour le routage dans les réseaux de capteurs. L’idée de base de cette méthode consiste à combiner les données provenant de différents noeuds sources en éliminant les redondances existantes, et en minimisant aussi le nombre de transmissions possibles pour économiser la quantité d’énergie consommée. Plusieurs protocoles d’agrégation qui minimisent la consommation de l’énergie souffrent de l’augmentation du délai de livraison de données à cause du délai d’attente qu’un agrégateur peut attendre de ses fils pour collecter les données et les envoyer jusqu’au puits. Les collisions de communications sont la raison primaire pour la longue latence dans l’agrégation de données. Après ce constat, un état de l’art des travaux de minimisation du délai dans le paradigme de l’agrégation de données est élaboré. Cet état de l’art présente l’ensemble des solutions proposées dans ce domaine ainsi que des discussions décrivant les avantages et les limitations des différentes solutions. Basées sur les discussions et critiques effectuées, nous avons proposé une amélioration d’un protocole qui minimise le délai de bout-en-bout de l’agrégation de données en vue de le rendre plus efficace en terme de latence. Pour cela, une description de ce protocole est d’abord donnée décrivant ses caractéristiques et son principe de fonctionnement. Par la suite, des améliorations à ce protocole ont été proposées, elles consistent essentiellement en L’amélioration d’une approche distribuée afin de prendre en compte la topologie du réseau et le nombre de voisins lors de la construction de l’arbre d’agrégation, et l’augmentation des transmissions parallèles durant l’agrégation de données en évitant les collisions. Nous avons comparé notre solution avec un autre protocole que nous avons implémenté en utilisant l'environnement Python. Les résultats de simulation démontrent que le protocole proposé permet de réduire significativement dans le temps d’agrégation.
- ItemMISTEP : Implementation et langage de commande(Université des sciences et de la technologie Houari Boumediène (USTHB), 1982) Badache, Nadjib; Laribi, S. A.
- ItemUn modèle d'architecture pour l'intéropérabilité des systèmes d'agents mobiles(Université des sciences et de la technologie Houari Boumediène (USTHB), 2005) Zeghache, Linda; Badache, NadjibLe modèle client/serveur n'arrive plus à satisfaire les nouveaux besoins des applications distribuées sur le réseau internet telles que la recherche d'information ou le commerce électronique, en terme de consommation de bande passante, de temps de réponseet de qualité de service. De plus, à l'ère de la mobilité et la communication nomade , le client/serveur impose des coûts qui freinent la généralisation de ces technologies au grand public. Les agents mobiles apportent des réponses techniques à ces préoccupations
- ItemModèles et Outils Documentaires pour les Hypervidéos sur le Web(Université Abderrahmane Mira de Béjaia, 2011-11-16) Sadallah, Madjid; Prié, YannickAvec l’émergence de nouvelles formes de présentation et de représentation des documents audiovisuels, l’hypervidéo - une technologie attractive axée sur l’hypermédia à forte composante vidéo - introduit de nouvelles pratiques d’accès et de partage de la connaissance des documents audiovisuels complexes. Son objectif est d’instaurer une culture audiovisuelle axée sur une lecture active et des expériences utilisateurs inouïes avec des paradigmes de présentation nouveaux et des alternatives d’interactions encore plus élaborées. Généralement définis par des représentations hypermédia conventionnelles, les concepts et pratiques utilisés jusque là sont trop généraux pour couvrir tout ce qui caractérise les hypervidéos, ce qui les empêche d’être mieux étudiées et plus répandues. Le besoin d’un fondement théorique a motivé la proposition de CHM - Component-based Hypervideo Model -, un modèle de données qui considère les hypervidéos au delà de ceux de l’hypermédia et du multimédia trop généraux et peu expressifs. Il suit les principes de la modélisation à base de composants et la description à base d’annotations. Le modèle proposé sert comme base théorique pour une implémentation qui cible la vidéo sur le Web, présentée comme preuve des principes avancés et ayant comme perspective d’avancer des éléments de réponse pour une meilleure prise en charge et une exploitation optimale de la vidéo sur le Web.
- ItemModélisation et organisation des activités coopératives de télémaintenance(Ecole nationale supérieure en informatique, 2004) Mellah, Hakima; Zerhouni, NouredineLa promesse d'une industrie généralisée et intégrée est de rendre l'entreprise distante plus effective capable de réaliser des innovations à travers un environnement industriel. Les processus industriels deviennent de plus en plus complexes, cette complexité ne fait qu'augmenter la surcharge de l'information et le risque d'erreurs, ce qui entraîne forcément une difficulté immense à les superviser par l'opérateur humain, et un coût important de l'opération de maintenance. Le développement d'un système de télémaintenance ou de maintenance à distance offre aux industriels et aux utilisateurs une grande flexibilité dans la conduite des activités industrielles, il doit supporter des facilités distantes pour assurer la performance de l'équipement industriel et la qualité des opérations. Dans ce sens l’approche par systèmes Multi agents avec ses caractéristiques et sa robustesse dans la résolution de problèmes tend à être répandue dans tous les domaines de la recherche notamment dans ceux de la télémaintenance. Devant l’immensité de l’information, aucun génie ne peut se rappeler de tout, ni résoudre n’importe quel problème. Un groupe de travail coopératif s’avère donc nécessaire voire indispensable. Cependant les capacités de résolution de problèmes ne reposent pas uniquement sur la connaissance du groupe, son expérience mais dépendent encore de ses capacités de faire une recherche efficace d’une assistance de ce groupe de travail. Dans ce cadre d’idée se situe notre modélisation des activités d’un système télémaintenance en choisissant un protocole d’interaction entre des agents experts permettant d’assurer une coopération efficace
- ItemOpérationnalisation du méta-modèle RECARO pour la capitalisation de la connaissance géographique : Application à la lutte antiacridienne(Ecole nationale supérieure en informatique, 2006) Bourai, Safia; Admane, LLa connaissance se trouve dans l’expérience des personnes, les documents, les bases de données, etc. Pour sa réutilisation, il faut l’extraire, la conserver et pouvoir la communiquer. En effet une simple collecte de connaissances est loin d’être efficace. Pour cela, il est nécessaire de structurer les connaissances et mettre en place des moyens de les retrouver et les diffuser. La mémoire d’entreprise est un support privilégié de la gestion des connaissances. Elle vise à capitaliser des connaissances dans le but de pouvoir les réutiliser en dehors de leur contexte d’origine. Le présent travail se situe dans ce même contexte, il présente un modèle de mémoire d’entreprise et son application au contexte de la connaissance géographique. L’objectif est de proposer un modèle de mémoire d’entreprise pour l’aide à la prévision réalisée dans le cadre d’un projet de lutte antiacridienne en utilisant le méta-modèle RECARO