Amplification d'arbres de régression compatibles avec l'encodage de la sortie, application à la reconnaissance des images de chiffres manuscrits

DC FieldValueLanguage
dc.contributor.advisorMarchand, Mario-
dc.contributor.advisorLaviolette, François-
dc.contributor.authorBen Fadhel, Khalil-
dc.date.accessioned2019-08-06T19:01:21-
dc.date.available2019-08-02T23:01:46Z-
dc.date.issued2019-
dc.identifier.other35311-
dc.identifier.urihttp://hdl.handle.net/20.500.11794/35737-
dc.description.abstractLe boosting est une approche largement utilisée pour résoudre les problèmes de classification et de régression. Sa force réside dans sa capacité à améliorer les performances de classificateurs individuels faibles pour en construire un puissant. La théorie du boosting est bien établie en tant que descente de gradient dans un espace de fonctions. Cependant, la conception d’un apprenant faible qui peut s’amplifier par boosting reste une question ouverte. Inspirés par les algorithmes Adaboost-MH et XGBoost, nous proposons une nouvelle famille d’apprenants faibles appelée Arbres de Hamming multi-classes à niveaux de confiance, où un arbre prenden charge l’encodage de la sortie, effectue un seul partitionnement disjoint de l’espace des instances, et prédit un vecteur de coefficients à valeurs réelles afin de mieux approximer le gradient fonctionnel négatif de la fonction objective. Nous proposons également un algorithme de boosting appelé QuadBoost-MHCR pour la minimisation de la perte quadratique multi-calsses avec encodage multi-classes de Hamming et avec des prédictions à niveaux de confiance. L’algorithme minimise une fonction de perte L2 multi-classes et il est facile de le généraliser, de manière analogue à XGBoost, pour minimiser toute fonction objective deux fois différentiable.fr
dc.description.abstractBoosting is a widely used approach for solving classification and regression problems. Its strength lies in its ability to improve the performance of individual weak classifiers to construct a strong one. The theory of boosting is well established as a gradient descent in functional space. However, the design of a boostable weak learner is still an open issue. Inspired by the algorithms Adaboost-MH and XGBoost, we propose a new family of weak learners called confidence rated multi-class Hamming trees where a tree supports output coding, performs a single disjoint partitioning of the input space, and outputs a real valued vector in order to better approximate the negative functional gradient of the cost function. We also propose ajoint boosting algorithm, called QuadBoost-MHCR for Quadratic Loss Boosting with Multi-class Hamming output encoding, and Confidence Rated predictions. The algorithm minimizes a multi-class L2-loss function, and it is easy to extend it, in an XGBoost fashion, to minimize any twice differentiable loss function.en
dc.format.extent1 ressource en ligne (xii, 75 pages)-
dc.languagefre-
dc.subject.classificationQA 76.05 UL 2019-
dc.titleAmplification d'arbres de régression compatibles avec l'encodage de la sortie, application à la reconnaissance des images de chiffres manuscritsfr_CA
dc.typeCOAR1_1::Texte::Thèse::Mémoire de maîtrisefr
dc.date.updated2019-08-02T23:01:46Z-
dc.subject.rvmApprentissage automatiquefr_CA
dc.subject.rvmAlgorithmesfr_CA
dc.subject.rvmArbres de décisionfr_CA
dc.subject.rvmReconnaissance optique des caractèresfr_CA
dcterms.publisher.locationQuébec-
dc.identifier.bacTC-QQLA-35311-
bul.identifier.controlNumbera2966250-
bul.identifier.lot20190724-
etdms.degree.nameMémoire. Informatiquefr_CA
etdms.degree.grantorUniversité Lavalfr_CA
Collection:Thèses et mémoires

Files in this item:
Description SizeFormat 
35311.pdf2.22 MBAdobe PDFThumbnail
View/Open
All documents in CorpusUL are protected by Copyright Act of Canada.