Browsing by Author "Nouali, Omar"
Now showing 1 - 20 of 51
Results Per Page
Sort Options
- ItemA basic platform of collaborative filtring(CERIST, 2008) Nouali, Omar; Kirat, Sabah; Meziani, HadjerWith the explosive growth of the quantity of new information the development of information systems to target the best answers provided to users, so they are closer to their expectations and personal taste, has become an unavoidable necessity. The collaborative filtering systems are among these information systems with particular characteristics that make the difference. The term refers to collaborative filtering techniques using the familiar tastes of a group of users to predict the unknown preference of a new user. This article describes a basic platform of collaborative filtering, which allows users to discover interesting documents, through automation of the natural process of recommendation, it allows them to express their opinion about the relevance of documents, according to their tastes and documents’ quality they perceive; it offers the opportunity to benefit from the evaluations on documents of other users, with similar profile, have found interesting. All these benefits are provided to users by the principle of collaboration, in return for an individual effort: evaluating documents.
- ItemA Semantic vector space and features-based approach for automatic information filtering(Elsevier, 2004) Nouali, Omar; Blache, PhilippeWith advances in communication technology, the amount of electronic information available to the users will become increasingly important. Users are facing increasing difficulties in searching and extracting relevant and useful information. Obviously, there is a strong demand for building automatic tools that capture, filter, control and disseminate the information that will most likely match a user's interest. In this paper we propose two kinds of knowledge to improve the efficiency of information filtering process. A features-based model for representing, evaluating and classifying texts. A semantic vector space to complement the features-based model on taking into account the semantic aspect. We used a neural network to model the user's interests (profiles) and a set of genetic algorithms for the learning process to improve filtering quality. To show the efficacy of such knowledge to deal with information filtering problem, particularly we present an intelligent and dynamic email filtering tool. It assists the user in managing, selecting, classifying and discarding non-desirable messages in a professional or non-professional context. The modular structure makes it portable and easy to adapt to other filtering applications such as the web browsing. We illustrate and discuss the system performance by experimental evaluation results
- ItemAccelerated Search over Encrypted Cloud Data(IEEE, 2017-02-13) Boucenna, Fateh; Nouali, Omar; Dabah, Adel; Kechid, SamirCompanies and other organizations such as hospitals seek more and more to enjoy the benefits of cloud computingin terms of storage space and computing power. However, outsourced data must be encrypted in order to be protected againstpossible attacks. Therefore, traditional information retrieval systems (IRS) are no longer effective and must be adapted in order towork over encrypted cloud data. In addition, in order to providethe ability to search over an encrypted index, we use the vectormodel to represent documents and queries which is the most usedin the literature. During the search process, the query vectormust be compared with each document vector which is a time consuming process since the data collection is generally huge.Consequently, the search performance is degraded and the searchprocess is too slow. To overcome this drawback, we proposethe use of High Performance Computing (HPC) architecturesto accelerate the search over encrypted cloud data. Indeed,we propose several techniques that take benefit from Graphics Processing Unit (GPU) and computer cluster architectures by distributing the work between different threads. In addition,in order to get the best performance, we design our solutionsso that they can process several queries simultaneously. Theexperimental study using 400.000 documents demonstrates theefficiency of our proposals by reaching a speed-up around 46x.
- ItemAutomatic Classification and Filtering of Electronic Information: Knowledge-Based Filtering Approach(Zarqa Private University, Jordan, 2004) Nouali, Omar; Blache, PhilippeIn this paper we propose an artificial intelligent approach focusing on information filtering problem. First, we give an overview of the information filtering process and a survey of different models of textual information filtering. Second, we present our E-mail filtering tool. It consists of an expert system in charge of driving the filtering process in cooperation with a knowledge-based model. Neural networks are used to model all system knowledge. The system is based on machine learning techniques to continuously learn and improve its knowledge all along its life cycle. This email filtering tool assists the user in managing, selecting, classify and discarding non-desirable messages in a professional or non-professional context. The modular structure makes it portable and easy to adapt to other filtering applications such as web browsing. The performance of the system is discussed.
- ItemCBBC : chaining block before ciphering : chainage des blocs avant chiffrement(CERIST, Alger, 2003) Nouali-Taboudjemat, Nadia; Nouali, Omar; Berbar, A.; Saadi, R.L’échange de données ou d’information sur Internet (informations privées ou personnelles, transactions commerciales, etc.) est l’un des services le plus populaire et le plus exposé aux attaques d’origine malfaisante, d’où l’importance de la sécurité d’un tel service. La sécurité concerne la confidentialité, l’intégrité, l’authentification, et la non-répudiation. La cryptographie est considéré actuellement comme étant le mécanisme de base pour la sécurité sur Internet. Cet article s’intéresse à la protection des échanges contre les attaques qui peuvent se produire durant leur transmission sur le réseau. La technique de chiffrement est utilisé ici comme moyen pour offrir à l’utilisateur la possibilité de choisir un, parmi trois niveaux de sécurité selon ses besoins ou ceux de son application (basse, moyenne et haute sécurité). Mais la contribution la plus importante de cet article est d’avoir renforcé les techniques de chiffrement utilisées en introduisant deux nouveaux modes de chaînage que nous avons associés à l’utilisation, à la fois, de deux algorithmes de chiffrement au lieu d’un.
- ItemCERIST at INEX 2015: Social Book Search Track(CERIST, 2015) Chaa, Messaoud; Nouali, OmarIn this paper, we describe our participation in the INEX 2015 Social Book Search Suggestion Track (SBS). We have exploited in our experiments only the tags assigned by users to books provided from LibraryThing (LT). We have investigated the impact of the weight of each term of the topic in the retrieval model using two methods. In the first method, we have used the TF-IQF formula to assign a weight to each term of the topic. In the second method, we have used Rocchio algorithm to expand the query and calculate the weight of the tags assigned to the example books mentioned in the book search request. Parameters of our models have been tuned using the topics of INEX 2014 and tested on INEX 2015 Social Book Search track.
- ItemCerist News(2011-12) CERIST; Nouali, Omar
- ItemClassification de courriers électroniques : Une approche par apprentissage basée sur des modèles linguistiques(Lavoisier, Cachan cedex FRANCE, 2005) Nouali, Omar; Blache, PhilippeNous proposons une double amélioration des systèmes de filtrage de courriels existants. D’une part, en utilisant une méthode d’apprentissage automatique permettant à un système de filtrage d’élaborer des profils utilisateur. D’autre part, nous utilisons un ensemble de connaissances linguistiques sous forme de modèles réduits issues de modèles linguistiques de textes. Dans ce contexte, nous cherchons à évaluer si l’utilisation de connaissances et de traitements linguistiques peut améliorer les performances d’un système de filtrage. En effet, nous utilisons, au-delà des caractéristiques lexicales, un ensemble d’indicateurs sur le message portant sur la structure et le contenu. Ces connaissances sont indépendantes du domaine d’application et la fiabilité repose sur l’opération d’apprentissage. Pour tenter de statuer sur la faisabilité de notre approche et d’évaluer son efficacité, nous l’avons expérimenté sur un corpus de 1 200 messages. Nous présentons les résultats d’un ensemble d’expériences d’évaluation
- ItemCombining Tags and Reviews to Improve Social Book Search Performance(Springer, 2018-08-15) Chaa, Messaoud; Nouali, Omar; Bellot, PatriceThe emergence of Web 2.0 and social networks have provided important amounts of information that led researchers from different fields to exploit it. Social information retrieval is one of the areas that aim to use this social information to improve the information retrieval performance. This information can be textual, like tags or reviews, or non textual like ratings, number of likes, number of shares, etc. In this paper, we focus on the integration of social textual information in the research model. As it seems logical that integrating tags in the retrieval model should not be in the same way taken to integrate reviews, we will analyze the different influences of using tags and reviews on both the settings of retrieval parameters and the retrieval effectiveness. After several experiments, on the CLEF social book search collection, we concluded that combining the results obtained from two separate indexes and two models with specific parameters for tags and reviews gives good results compared to when using a single index and a single model.
- ItemConcept-based Semantic Search over Encrypted Cloud Data(2016-04-23) Boucenna, Fateh; Nouali, Omar; Kechid, SamirCloud computing is a technology that allows companies and individuals to outsource their data and their applications. The aim is to take advantage from the power of storage and processing offered by such technology. However, in order to preserve data privacy, it is crucial that all data must be encrypted before being outsourced into the cloud. Moreover, authorized users should be able to recover their outsourced data. This process can be complicated due to the fact that data are encrypted. The traditional information retrieval systems only work over data in the clear. Therefore, dedicated information retrieval systems were developed to deal with the encrypted cloud data. Several kinds of search over cloud data have been proposed in the literature such as Boolean search, multi-keyword ranked search and fuzzy search. However, the semantic search is little addressed in the literature. In this paper, we propose an approach called SSE-S that take into account the semantic search in the cloud by using Wikipedia ontology to understand the meaning of documents and queries with maintaining the security and the privacy issues.
- ItemConception et réalisation d'un systeme de comprehension de phrases interrogatives et de generation automatique de reponses en langage naturel (SIGAR)(USTHB, 1991) Nouali, Omar; Khelalfa, HalimLe système (SIGAR) d'interrogation de bases de données et de génération automatique de réponses en langage naturel, a été conçu et réalisé dans le but de répondre aux objectifs suivants : - d'offrir la possibilité à un utilisateur d'interroger une base de données en s'exprimant de la manière la plus accessible pour lui, soit dans un langage naturel ( ici le français). - de produire des réponse directes ou des réponses indirectes et informatives lorsque par exemple, la question ne peut avoir de réponse positive. - de permettre à l'utilisateur de converser avec le système en faisant des requêtes implicites lors du dialogue ( tournures elliptiques). Le système à une structure modulaire lui permettant de s'adapter à toute extension et modification en vue d'une portabilité éventuelle. la version courante du système SIGAR est entièrement écrite en langage pascal, elle est implementée sous le système d'exploitation VAX/785
- ItemContent-Oriented XML Retrieval with partial aggregation of relevance factors(CERIST, 2009-12) Bal, Kamal; Nouali, OmarIn this paper, we are interested in content oriented XML information retrieval whose aim is to retrieve not a list of relevant documents, but only fragments of document (XML element) relevant to the user information need. Retrieved XML elements must not only contain relevant information but also be at good level of granularity. Retrieved elements must cover as well as the information need and be focused on this need (does not speak other non relevant topics). The majority of approaches developed in this context consider some relevance factors and aggregate theme globally to have a unique value called rsv (retrieval status value) for each element. We present in this paper an approach of XML retrieval where factor’s aggregation is done not on relevance factor’s values level but on relevance factor’s preference relations which models each factor.
- ItemDeal with multiplicity and diversity of relevance factors in XML retrieval(2010-07-05) Bal, Kamal; Nouali, OmarIn this paper, we are interested in content oriented XML information retrieval whose aim is to retrieve not a list of relevant documents, but only fragments of document (XML element) relevant to the user information need. Retrieved XML elements must not only contain relevant information but also be at good level of granularity. The coexistence of content and structural information in XML documents makes that multiple and diverse relevance sources condition the selection and the rank of relevant XML element. It is admitted that the consideration of several relevance sources will surely improve quality of results. However, actual XML retrieval approaches consider just some relevance sources and neglect others due to relevance sources heterogeneity. In this paper, we try to identify and classify theses relevance sources and to propose a way to exploit multiple and diverse relevance sources in retrieval process.
- ItemDeal with multiplicity and diversity of relevance factors in XML retrieval(CERIST, 2010) Bal, Kamal; Nouali, OmarIn this paper, we are interested in content oriented XML information retrieval whose aim is to retrieve not a list of relevant documents, but only fragments of document (XML element) relevant to the user information need. Retrieved XML elements must not only contain relevant information but also be at good level of granularity. The coexistence of content and structural information in XML documents makes that multiple and diverse relevance sources condition the selection and the rank of relevant XML element. It is admitted that the consideration of several relevance sources will surely improve quality of results. However, actual XML retrieval approaches consider just some relevance sources and neglect others due to relevance sources heterogeneity. In this paper, we try to identify and classify theses relevance sources and to propose a way to exploit multiple and diverse relevance sources in retrieval process.
- ItemDesigning Energy Efficient Virtualized Web Servers(CERIST, 2013-06) Chait, Khaled; Nouali, OmarThere’s actually a kind of Moore’s Law for the Internet, which states that the Internet doubles in size every 5 years. About 2.4 billion of Internet users were registered worldwide in 2012. Having more users increases the need for more and larger data processing centers with thousands of servers. One consequence is the excessive energy consumption caused by web servers, which run web applications and web- based services. We propose a short study of energy consumption in relation to web server performance. We also propose a methodology to design energy efficient web systems using virtualization technologies.
- ItemFiltage d'information textuelle sur les réseaux une approche Hybride(Université des Sciences et de la Technologie Houari Boumediène (U.S.T.H.B.), 2004-11-20) Nouali, Omar; Blache, PhilippeLe sujet de la thèse se situe dans la problématique globale du traitement de l'information dynamique et de l’analyse de contenu. Elle est motivée par le souci de faciliter à l'utilisateur, submergé d’informations diverses, l'accès à l'information pertinente. Plus précisément, l'objet des travaux de recherche présentés, concerne l'automatisation du processus de filtrage de l’information pertinente et personnalisée. Il s’agit d’offrir une assistance à l’utilisateur, visant à optimiser le temps consacré à la recherche et à la consultation de l'information, en prenant en compte l’importance relative de l'information et les besoins en ressources pour son traitement.Les premières investigations dans ce travail ont été d’explorer le potentiel des techniques de plusieurs domaines de recherche liés au traitement de l'information textuelle. L'un de ces domaines concerne l’apprentissage automatique, qui constitue une phase incontournable dans la conception d’un système de filtrage automatique de l’information. Nous proposons une solution évolutive qui offre au système de filtrage la possibilité d’apprendre à partir de données ciblées (profils des utilisateurs), d’exploiter ces connaissances apprises (pour filtrer l’information) et de s’adapter à la nature de l’application (textes traités) dans le temps. Un autre domaine concerne le traitement automatique du langage naturel. Il intervient par la nécessité d’utiliser des ressources et des traitements linguistiques dans le processus de filtrage. Sur ce volet, notre objectif est de (dé)montrer que l’intervention de connaissances et de traitements linguistiques peut considérablement améliorer les performances d’un système de filtrage de l'information. En effet, le couplage entre méthodes statistiques et symboliques (quantitatives et linguistiques) donne plus d'efficacité au filtrage. Ce constat est d'ailleurs souvent évoqué pour un grand nombre d'applications liées au traitement de l'information textuelle. Ainsi, l'apport du domaine linguistique dans notre travail se concrétise sous plusieurs aspects. D'une part, nous proposons un ensemble de connaissances linguistiques sous forme de modèles réduits (issues de modèles linguistiques de textes). Il s’agit d’un ensemble d’indicateurs sur le texte, portant sur la structure et sur le contenu. Un texte est soumis à un processus d’analyse automatique qui permet de lui associer un ensemble de termes et de propriétés linguistiques, qui servent à le caractériser et permettent de le situer par rapport à d'autres textes. Ces connaissances, classées sous plusieurs niveaux (matériel, énonciatif, structurel et syntaxique), sont indépendantes du domaine d’application. Par ailleurs, la fiabilité des traitements repose sur l’opération d’apprentissage. Dans le cadre de ce travail, l'objectif n'est pas d'effectuer une analyse complète et profonde du contenu des textes. Il s'agit d'effectuer une analyse dite partielle, s'échelonnant sur plusieurs niveaux, pour identifier certaines propriétés linguistiques. Celles-ci permettent de distinguer les différents types de textes et de classer ensuite les nouveaux textes. D’autre part, pour l’aspect sémantique, nous proposons d’utiliser un ensemble de connaissances linguistiques (réseau lexical et cooccurrence de critères) permettant d’améliorer la représentation du texte. Des termes complémentaires sont ainsi impliqués dans le processus de décision, même s’ils n’apparaissent pas explicitement dans le texte (par exemple, la substitution de certains termes par d’autres termes proches sémantiquement). Pour la validation de notre approche, un outil d’aide à la génération d’interfaces de filtrage (baptisé GIFI) a été développé. Il est destiné à faciliter la tâche des utilisateurs développeurs dans l’élaboration de systèmes de filtrage de l'information. Il permet d’assister l’utilisateur dans le processus d’acquisition de l’application (corpus de textes) et de génération de ressources (vocabulaire lexical, propriétés linguistiques, modèle de filtrage). Il repose sur une conception modulaire, lui permettant de s'adapter à des extensions ou à des mises à jour éventuelles. Cet outil est basé sur une architecture ouverte permettant l’ajout de composants et offrant à l’utilisateur la possibilité de choisir, à chaque étape du processus de génération, les outils à utiliser. Ainsi, cette "boite à outils" matérialise l'implémentation d’une approche hybride de filtrage de l’information. Elle repose sur le principe d’une analyse partielle utilisant un ensemble de connaissances, où le repérage de propriétés linguistiques permet, d’une part, d’améliorer la représentation des textes, et d’autre part un filtrage de meilleure qualité. Pour l'évaluation de notre approche et afin de statuer sur sa faisabilité et sur son apport en terme d'efficacité, nous l’avons expérimentée sur une application pratique de filtrage de l’information : filtrage du courrier électronique. La période actuelle voit une prolifération colossale et démesurée des courriers électroniques non sollicités et indésirables (appelés Spams). Paradoxalement, au moment où le courrier électronique s'impose comme le moyen de communication incontournable pour les entreprises, les institutions académiques et même pour les particuliers, le problème des courriers indésirables atteint des proportions intolérables. Ce problème devient très sérieux pour les utilisateurs du courrier électroniques et engendre des pertes considérables, en temps et en argent, pour les entreprises. A travers les différentes expériences réalisées, nous avons montré l’applicabilité et l’adaptabilité d’une approche hybride au processus de filtrage de l'information. En effet, les résultats obtenus sur le corpus de messages utilisé, nous ont permis de valider l'intérêt des connaissances linguistiques et de l'apprentissage automatique pour l'amélioration des performances d'un système de filtrage de l’information
- ItemFiltrage automatique de courriels Une approche adaptative et multiniveau(Springer-Verlag, 2005-12-01) Nouali, Omar; Blache, PhilippeCet article propose un système de courriers électroniques paramétrable avec plusieurs niveaux de filtrage: un filtrage simple basé sur l’information contenue dans l’entête du courriel; un filtrage booléen basé sur l’existence ou non de mots clés dans le corps du courriel; un filtrage vectoriel basé sur le poids de contribution des mots clés du courriel; un filtrage approfondi basé sur les propriétés linguistiques caractérisant la structure et le contenu du courriel. Nous proposons une solution adaptative qui offre au système la possibilité d’apprendre à partir de données, de modifier ses connaissances et de s’adapter à l’évolution des intérêts de l’utilisateur et à la variation de la nature des courriels dans le temps. De plus, nous utilisons un réseau lexical permettant d’améliorer la représentation du courriel en prenant en considération l’aspect sémantique.
- ItemFiltrage automatique de courriels Une approche adaptative et multiniveau(Springer-Verlag, 2005-12) Nouali, Omar; Blache, PhilippeCet article propose un système de courriers électroniques paramétrable avec plusieurs niveaux de filtrage: un filtrage simple basé sur l’information contenue dans l’entête du courriel; un filtrage booléen basé sur l’existence ou non de mots clés dans le corps du courriel; un filtrage vectoriel basé sur le poids de contribution des mots clés du courriel; un filtrage approfondi basé sur les propriétés linguistiques caractérisant la structure et le contenu du courriel. Nous proposons une solution adaptative qui offre au système la possibilité d’apprendre à partir de données, de modifier ses connaissances et de s’adapter à l’évolution des intérêts de l’utilisateur et à la variation de la nature des courriels dans le temps. De plus, nous utilisons un réseau lexical permettant d’améliorer la représentation du courriel en prenant en considération l’aspect sémantique.
- ItemFiltrage cognitif de l’information électronique(ECIG 2007, 2007-10-19) Nouali, Omar; Toursel, B.L'objectif des travaux de recherche présentés dans cet article est l’automatisation du processus de filtrage de l’information en prenant en compte l’importance relative de l'information et les besoins en ressources linguistiques pour son traitement. Nous proposons une solution ouverte, dynamique et évolutive qui offre au processus de filtrage la possibilité d’apprendre, d’exploiter ces connaissances apprises et de s’adapter à la nature de l’application. Nous l’avons modélisé à l’aide d’agents pour offrir un gain de temps par rapport à une solution algorithmique séquentielle. Pour la validation de notre approche de filtrage, nous avons mené un ensemble d’expériences pour évaluer les performances des techniques et outils proposés et développés.
- ItemFiltrage collaboratif par le web sémantique : Framework de similarités sémantiques(CERIST, 2009-09) Nouali, OmarL’adoption des systèmes de filtrage et de recommandation est assez importante aujourd’hui. Ils ont une importance majeure sur le web d’aujourd’hui en général et le e-business en particulier. Cependant ces systèmes souffrent de problématiques liées au démarrage à froid (au nombre peu important d’évaluations, au nouvel utilisateur, nouvelle ressource..). Aujourd’hui, le challenge est l’amélioration des pratiques et méthodes utilisées pour rendre ces systèmes plus précis, interactifs, adaptés aux contextes et performants. Dans cet article, nous présentons une approche qui utilise l’infrastructure «web sémantique» dans le but d’améliorer la qualité des systèmes de recommandation en termes de précision et de couverture. Nous proposons un Framework qui permet le calcul des similarités sémantiques entre entités (utilisateurs et ressources) de façon plus facile et plus précise. Pour la validation, nous avons mené un ensemble d’expériences pour évaluer les performances de notre approche de filtrage et du framework proposé et développé.
- «
- 1 (current)
- 2
- 3
- »