Réseaux convolutifs à politiques

DC FieldValueLanguage
dc.contributor.advisorLamontagne, Luc-
dc.contributor.authorPothier, Dominique-
dc.date.accessioned2021-05-24T07:05:54Z-
dc.date.available2021-05-24T07:05:54Z-
dc.date.issued2021-
dc.identifier.other36989-
dc.identifier.urihttp://hdl.handle.net/20.500.11794/69184-
dc.description.abstractMalgré leurs excellentes performances, les exigences élevées des réseaux de neurones artificiels en terme de volume de données et de puissance de calcul limitent leur adoption dans plusieurs domaines. C'est pourquoi il reste important de développer de nouvelles architectures moins voraces. Ce mémoire cherche à produire une architecture plus flexible et moins vorace en s'appuyant sur la théorie de l'apprentissage par renforcement. En considérant le réseau comme un agent suivant une politique, on réalise que cette politique est beaucoup plus rigide que celle suivie habituellement par les agents d'apprentissage par renforcement. Nous posons l'hypothèse qu'une architecture capable de formuler une politique plus flexible pourrait atteindre des performances similaires tout en limitant son utilisation de ressources. L'architecture que nous proposons s'inspire de la recherche faite en prédiction de paramètres, particulièrement de l'architecture hypernetwork, que nous utilisons comme base de référence. Nos résultats montrent que l'apprentissage d'une politique dynamique aussi performante que les politiques statiques suivies par les réseaux conventionnels n'est pas une tâche triviale. Nos meilleurs résultats indiquent une diminution du nombre de paramètres de 33%, une diminution des calculs de 12% au prix d'une baisse de l'exactitude des prédictions de 2%. Malgré ces résultats, nous croyons que notre architecture est un point de départ pouvant être amélioré de plusieurs manières que nous explorons rapidement en conclusion.fr
dc.description.abstractDespite their excellent performances, artificial neural networks high demand of both data and computational power limit their adoption in many domains. Developing less demanding architecture thus remain an important endeavor. This thesis seeks to produce a more flexible and less resource-intensive architecture by using reinforcement learning theory. When considering a network as an agent instead of a function approximator, one realize that the implicit policy followed by popular feed forward networks is extremely simple. We hypothesize that an architecture able to learn a more flexible policy could reach similar performances while reducing its resource footprint. The architecture we propose is inspired by research done in weight prediction, particularly by the hypernetwork architecture, which we use as a baseline model.Our results show that learning a dynamic policy achieving similar results to the static policies of conventional networks is not a trivial task. Our proposed architecture succeeds in limiting its parameter space by 20%, but does so at the cost of a 24% computation increase and loss of5% accuracy. Despite those results, we believe that this architecture provides a baseline that can be improved in multiple ways that we describe in the conclusion.en
dc.format.extent1 ressource en ligne (vii, 72 pages)-
dc.languagefre-
dc.titleRéseaux convolutifs à politiques-
dc.typeCOAR1_1::Texte::Thèse::Mémoire de maîtrisefr
dc.date.updated20210601-
dc.subject.rvmRéseaux de neurones convolutifs.fr_CA
dc.subject.rvmApprentissage par renforcement (Intelligence artificielle)fr_CA
dcterms.publisher.locationQuébec-
dc.identifier.bacTC-QQLA-36989-
bul.identifier.controlNumber1252623200-
etdms.degree.nameMaître ès sciences (M. Sc.)fr_CA
etdms.degree.grantorUniversité Lavalfr_CA
bul.identifier.uuiddcfcdb32-d985-479b-8062-63cbaf144255-
bul.faculteFaculté des sciences et de génie.-
etdms.degree.disciplineMaîtrise en informatique-
bul.date.reception2021-05-12-
dc.identifier.nothese36989-
Collection:Thèses et mémoires

Files in this item:
Description SizeFormat 
36989.pdf1.14 MBAdobe PDFThumbnail
View/Open
All documents in CorpusUL are protected by Copyright Act of Canada.