Dépôt Institutionnel de l'Université Ferhat ABBAS - Sétif 1 >
Faculté des Sciences >
Département d'Informatique >
Thèses de doctorat >
Veuillez utiliser cette adresse pour citer ce document :
http://dspace.univ-setif.dz:8888/jspui/handle/123456789/1579
|
Titre: | Catégorisation automatique contextuelle de documents semi-structurés multilingues |
Auteur(s): | Gadri, Said |
Mots-clés: | documents semi-structurés multilingues catégorisation automatique contextuelle |
Date de publication: | 15-mai-2018 |
Résumé: | La catégorisation de textes est une tache très importante dans le processus de text mining. Cette tache consiste à affecter un ensemble de textes à un autre ensemble de catégories selon leurs thèmes et en exploitant les algorithmes d’apprentissage connus dans le domaine d’intelligence artificielle. Notre étude sur cet axe de recherche nous a permis de proposer quelques solutions et de porter certaines contributions, notamment: Proposer un algorithme simple, rapide et efficace pour identifier la langue d’un texte dans un corpus multilingue. Développer un algorithme amélioré pour la recherche des racines des mots arabes en se basant sur une approche complètement statistique. L’objectif principal de cet algorithme est de réduire la taille du vocabulaire de termes et par conséquent améliorer la qualité de la catégorisation obtenue dans le domaine de la catégorisation de textes et augmenter l’efficacité de la recherche dans le domaine de la recherche d’information. Développer un nouveau stemmer multilingue qui est plus général et indépendant de toute langue. Application d’une nouvelle panoplie de pseudo-distances pour catégoriser les textes d’un corpus de grande taille (Reuters21578).
Toutes ces solutions étaient l’objet de papiers scientifiques publiés dans des conférences et des journaux internationaux indexés. |
URI/URL: | http://dspace.univ-setif.dz:8888/jspui/handle/123456789/1579 |
Collection(s) : | Thèses de doctorat
|
Fichier(s) constituant ce document :
|
Tous les documents dans DSpace sont protégés par copyright, avec tous droits réservés.
|