Personne : Picard-Cantin, Émilie
En cours de chargement...
Adresse électronique
Date de naissance
Projets de recherche
Structures organisationnelles
Fonction
Nom de famille
Picard-Cantin
Prénom
Émilie
Affiliation
Université Laval. Département d'informatique et de génie logiciel
ISNI
ORCID
Identifiant Canadiana
ncf11918895
person.page.name
4 Résultats
Résultats de recherche
Voici les éléments 1 - 4 sur 4
- PublicationAccès libreAutomated medical scheduling : fairness and quality(2019) Picard-Cantin, Émilie; Bouchard, Mathieu; Quimper, Claude-GuyDans cette thèse, nous étudions les façons de tenir compte de la qualité et de l’équité dans les algorithmes de confection automatique d’horaires de travail. Nous découpons ce problème en deux parties. La modélisation d’un problème d’horaires permet de créer des horaires plus rapidement qu’un humain peut le faire manuellement, puisqu’un ordinateur peut évaluer plusieurs horaires simultanément et donc prendre des décisions en moins de temps. La première partie du problème étudié consiste à améliorer la qualité des horaires en encodant des contraintes et des préférences à l’aide de modèles mathématiques. De plus, puisque la création est plus rapide à l’aide d’un ordinateur, il est plus facile pour un ordinateur de trouver l’horaire ayant la meilleure qualité lorsque les règles et préférences sont clairement définies. Toutefois, déterminer les règles et préférences d’un groupe de personne n’est pas une tâche facile. Ces individus ont souvent de la difficulté à exprimer formellement leurs besoins et leurs préférences. Par conséquent, la création d’un bon modèle mathématique peut prendre beaucoup de temps, et cela même pour un expert en création d’horaires de travail. C’est pourquoi la deuxième partie de cette thèse concerne la réduction du temps de modélisation à l’aide d’algorithmes capable d’apprendre un modèle mathématique à partir de solutions données comme par exemple, dans notre cas, des horaires de travail.
- PublicationAccès libreLearning the parameters of global constraints using branch-and-bound(Springer Link, 2017-08-23) Sweeney, Jason Pierre; Picard-Cantin, Émilie; Bouchard, Mathieu; Quimper, Claude-GuyPrecise constraint satisfaction modeling requires specific knowledge acquired from multiple past cases. We address this issue with a general branch-and-bound algorithm that learns the parameters of a given global constraint from a small set of positive solutions. The idea is to cleverly explore the possible combinations taken by the constraint’s parameters without explicitly enumerating all combinations. We apply our method to learn parameters of global constraints used in timetabling problems such as Sequence and SubsetFocus. The later constraint is our adaptation of the constraint Focus to timetabling problems.
- PublicationAccès libreThe balance constraint family(Springer, 2014-09-08) Bessière, Christian; Picard-Cantin, Émilie; Hebrard, Emmanuel; Quimper, Claude-Guy; Katsirelos, George; Kiziltan, Zeynep; Walsh, TobyThe BALANCE constraint introduced by Beldiceanu ensures solutions are balanced. This is useful when, for example, there is a requirement for solutions to be fair. BALANCE bounds the difference B between the minimum and maximum number of occurrences of the values assigned to the variables. We show that achieving domain consistency on BALANCE is NP-hard. We therefore introduce a variant, ALLBALANCE with a similar semantics that is only polynomial to propagate. We consider various forms of ALLBALANCE and focus on ATMOSTALLBALANCE which achieves what is usually the main goal, namely constraining the upper bound on B. We provide a specialized propagation algorithm, and a powerful decomposition both of which run in low polynomial time. Experimental results demonstrate the promise of these new filtering methods.
- PublicationAccès libreLearning parameters for the sequence constraint from solutions(SpringerLink, 2016-08-23) Sweeney, Jason Pierre; Picard-Cantin, Émilie; Bouchard, Mathieu; Quimper, Claude-GuyThis paper studies the problem of learning parameters for global constraints such as Sequence from a small set of positive examples. The proposed technique computes the probability of observing a given constraint in a random solution. This probability is used to select the more likely constraint in a list of candidates. The learning method can be applied to both soft and hard constraints