Sparse, hierarchical and shared-factors priors for representation learning

DC FieldValueLanguage
dc.contributor.advisorChaib-draa, Brahim-
dc.contributor.advisorGiguère, Philippe-
dc.contributor.authorTrottier, Ludovic-
dc.date.accessioned2019-08-05T23:01:24Z-
dc.date.available2019-08-05T23:01:24Z-
dc.date.issued2019-
dc.identifier.other34990-
dc.identifier.urihttp://hdl.handle.net/20.500.11794/35777-
dc.description.abstractLa représentation en caractéristiques est une préoccupation centrale des systèmes d’apprentissage automatique d’aujourd’hui. Une représentation adéquate peut faciliter une tâche d’apprentissage complexe. C’est le cas lorsque par exemple cette représentation est de faible dimensionnalité et est constituée de caractéristiques de haut niveau. Mais comment déterminer si une représentation est adéquate pour une tâche d’apprentissage ? Les récents travaux suggèrent qu’il est préférable de voir le choix de la représentation comme un problème d’apprentissage en soi. C’est ce que l’on nomme l’apprentissage de représentation. Cette thèse présente une série de contributions visant à améliorer la qualité des représentations apprises. La première contribution élabore une étude comparative des approches par dictionnaire parcimonieux sur le problème de la localisation de points de prises (pour la saisie robotisée) et fournit une analyse empirique de leurs avantages et leurs inconvénients. La deuxième contribution propose une architecture réseau de neurones à convolution (CNN) pour la détection de points de prise et la compare aux approches d’apprentissage par dictionnaire. Ensuite, la troisième contribution élabore une nouvelle fonction d’activation paramétrique et la valide expérimentalement. Finalement, la quatrième contribution détaille un nouveau mécanisme de partage souple de paramètres dans un cadre d’apprentissage multitâche.fr
dc.description.abstractFeature representation is a central concern of today’s machine learning systems. A proper representation can facilitate a complex learning task. This is the case when for instance the representation has low dimensionality and consists of high-level characteristics. But how can we determine if a representation is adequate for a learning task? Recent work suggests that it is better to see the choice of representation as a learning problem in itself. This is called Representation Learning. This thesis presents a series of contributions aimed at improving the quality of the learned representations. The first contribution elaborates a comparative study of Sparse Dictionary Learning (SDL) approaches on the problem of grasp detection (for robotic grasping) and provides an empirical analysis of their advantages and disadvantages. The second contribution proposes a Convolutional Neural Network (CNN) architecture for grasp detection and compares it to SDL. Then, the third contribution elaborates a new parametric activation function and validates it experimentally. Finally, the fourth contribution details a new soft parameter sharing mechanism for multitasking learning.en
dc.format.extent1 ressource en ligne (xvi, 213 pages)-
dc.languageeng-
dc.subject.classificationQA 76.05 UL 2019-
dc.titleSparse, hierarchical and shared-factors priors for representation learningen
dc.typeCOAR1_1::Texte::Thèse::Thèse de doctoratfr
dc.date.updated2019-08-05T23:01:24Z-
dc.subject.rvmApprentissage automatiquefr_CA
dcterms.publisher.locationQuébec-
dc.identifier.bacTC-QQLA-34990-
bul.identifier.controlNumbera2966241-
bul.identifier.lot20190724-
etdms.degree.nameThèse. Informatiquefr_CA
etdms.degree.grantorUniversité Lavalfr_CA
Collection:Thèses et mémoires

Files in this item:
Description SizeFormat 
34990.pdf9.97 MBAdobe PDFThumbnail
View/Open
All documents in CorpusUL are protected by Copyright Act of Canada.