Colloque 2015 : 20 ans

L’assemblée générale annuelle aura lieu le vendredi 22 mai 2015 à l’Aquarium du Québec à Québec. Cette activité dure la journée entière.

Ne manquez pas cet événement!

Programme scientifique et fiche d’inscription.

Documents pertinents:

Conférences

Applications et utilisation des copules – Bruno Rémillard, HEC

Je discuterai tout d’abord de l’utilité des copules dans plusieurs domaines. Après une brève description de leurs propriétés, j’aborderai les problèmes de  l’estimation et de l’implantation de modèles de dépendance par des copules. Tous ces sujets  seront illustrés par des exemples.

Bruno Rémillard est  professeur en ingénierie financière à HEC Montréal. Après avoir terminé son doctorat en probabilité à l’Université Carleton, il a été boursier postdoctoral CRSNG à l’Université Cornell, avant d’être un professeur de statistique à l’Université du Québec à Trois-Rivières. Il est auteur ou co-auteur de plus de soixante articles de recherche en probabilités, statistiques et ingénierie financière. En 1987, il a reçu le prix Pierre-Robillard pour la meilleure thèse de doctorat en probabilités et statistiques au Canada et en 2003 et le prix pour le meilleur article de l’année publié dans le Journal canadien de la statistique. Il a été consultant dans le groupe de recherche et développement à Innocap, une firme d’investissement alternatif située à Montréal, où il a principalement contribué à l’élaboration et l’implantation de nouvelles méthodes quantitatives pour les portefeuilles alternatifs et traditionnels. Actuellement, il est un consultant à temps partiel à la Banque Nationale du Canada.

 

L’intelligence d’affaire vue par une statisticienne – Sarah Legendre-Bilodeau, Desjardins

Devenue très populaire dans les dernières années, l’expression intelligence d’affaires est largement utilisée, surtout par les secteurs de technologies de l’information. Cependant, le volet relatif à l’entreposage et au traitement de données a pris beaucoup de place, au détriment parfois d’une vision plus analytique des données. Dans ce contexte, quel rôle occupe le statisticien et quelle est sa valeur ajoutée? Afin de répondre à cette interrogation, je partagerai ma vision de l’intelligence d’affaires. De plus, les besoins des entreprises, appuyés d’exemples d’application, de même que les défis actuels et futurs pour ce domaine seront discutés.

Sarah Legendre Bilodeau détient un baccalauréat en statistique de l’Université Laval (2008) et une maîtrise ès sciences en gestion – option Intelligence d’affaires de HEC Montréal (2014). Après un court passage à l’Institut national de santé publique du Québec à la fin de ses études en statistique, elle a intégré le Mouvement Desjardins, où elle occupe présentement la fonction de conseillère en intelligence d’affaires. Parmi ses champs d’intérêt et d’expertise, mentionnons l’exploitation de données volumineuses et de sources multiples, l’analyse de la performance et les tableaux de bord, la stratégie d’affaires, la modélisation statistique et le Data Mining. Également diplômée du Conservatoire de musique de Québec en hautbois, elle s’est produite au sein de nombreuses formations musicales d’envergure, en plus d’avoir été chargée de cours au Cégep Ste-Foy et à l’Université Laval pendant plusieurs années.

 

L’inférence causale et l’estimation par maximum de vraisemblance ciblée – Mireille Schnitzer, Université de Montréal

Pendant les 30 dernières années, l’inférence causale et la notion des résultats potentiels ont été formalisées dans la littérature statistique. Cela a mené aux définitions cohérentes d’effets causales et la capacité de déterminer les présuppositions qui nous permettent d’interpréter les associations comme des effets causaux. L’estimation semiparamétrique des effets causaux a mené à la minimisation de la dépendance sur la modélisation. L’estimation par maximum de vraisemblance ciblée (Targeted Maximum Likelihood Estimation, TMLE) est une famille d’estimateurs semiparamétriques, doublement robustes et localement efficaces qui peuvent être implémentés avec des méthodes d’apprentissage machine. Dans cette présentation introductoire, je vais décrire la théorie des résultats potentiels, l’identification des effets causaux nonparamétriques, et l’implémentation du TMLE, et donner une démonstration de la puissance de TMLE implémentée avec des méthodes.

Mireille Schnitzer est professeure adjointe en biostatistique à la Faculté de pharmacie à l’Université de Montréal. Elle a fait ces études postdoctorales au Harvard School of Public Health et son doctorat en biostatistique à l’Université McGill.  Mireille est spécialiste en inférence causale et modélisation doublement robuste et efficace.

 

Plateforme pour une vue sur la forêt, de la modélisation au transfert à l’utilisateur – Isabelle Auger, ministère des Forêts, de la Faune et des Parcs

La connaissance de la croissance des forêts est essentielle à la gestion forestière du Québec, en particulier pour le calcul de la possibilité forestière. En foresterie, un modèle de croissance permet de prévoir l’état futur des peuplements forestiers en simulant les changements temporels des caractéristiques des forêts et des arbres qui la composent. Je décrirai le processus de modélisation, soit la préparation du jeu de données, le choix des modèles statistiques, leur étalonnage ainsi que leur évaluation. Je présenterai comment des simulations de Monte-Carlo permettent d’estimer l’incertitude des prévisions obtenues par un modèle de croissance. Je terminerai en montrant comment un tel système est implanté afin de faciliter son utilisation.

Isabelle Auger est statisticienne, diplômée de l’Université Laval depuis 1995. En 1997, le même établissement lui décerne un diplôme de maîtrise ès sciences en statistique. Elle est à l’emploi du ministère des Forêts, de la Faune et des Parcs depuis 1999 comme statisticienne à la Direction de la recherche forestière au sein de l’équipe de biométrie. Ses principaux champs d’expertise sont la modélisation de la croissance forestière et du rendement des forêts, la planification d’expériences et l’analyse de la variance, les modèles mixtes et les modèles linéaires généralisés.

 

Algorithme d’apprentissage automatique et problématique des données massives – François Laviolette, Université Laval

Dans cette présentation nous ferons un survol des idées de base de l’apprentissage automatique (en anglais, Machine Learning). Nous verrons les différents paradigmes et problématiques de ce domaine qui cherche à apprendre à partir des exemples. Quoique basé sur les mêmes assises que la statistique « classique », nous verrons que ce domaine s’intéresse à des problèmes quelque peu différents et surtout propose des solutions différentes. Nous nous intéresserons également au rôle que jouent actuellement les algorithmes d’apprentissage face à un contexte de données massives, le fameux  « Big Data ».

François Laviolette est professeur titulaire au département d’informatique et de génie logiciel de l’Université Laval. Il a obtenu son doctorat en théorie des graphes à l’Université de Montréal en 1995. Sa thèse résolvait un problème vieux de 60 ans qui avait entre autre été étudié par le mathématicien Paul Erdos.

Depuis plus de 10 ans, son principal axe de recherche est l’apprentissage automatique (Machine Learning, en anglais) et la bioinformatique. Plus spécialement, il développe de algorithmes d’apprentissage permettant de résoudre de nouveaux types de problèmes d’apprentissage, notamment des problèmes liés à la génomique et à la protéomique. Il est actuellement le directeur du tout nouveau centre de recherche en données massives de l’Université Laval.

 

ASSQ, la genèse – Pierre Lavallée, Statistique Canada

Née du désir de « regrouper les spécialistes de la statistique au Québec à l’intérieur d’une association francophone spécialement orientée vers le champ appliqué et la promotion de la statistique », l’Association des statisticiennes et statisticiens du Québec (ASSQ) existe depuis maintenant 20 ans. En tant que membre du Comité de fondation de 1994 créé pour mettre en place les bases de l’ASSQ, Pierre Lavallée en rappellera les moments clés. Il fera un retour, en autres,  sur la Journée du CASUL de 1994 et le Comité de fondation qui a suivi. Il parlera ensuite des premiers pas : le Conseil d’administration provisoire, le premier logo, Convergence, en passant par les tournois de golf. Cette présentation rappellera à certains de bons souvenirs, et permettra à d’autres d’en apprendre sur la création de l’ASSQ.

Pierre Lavallée a étudié en mathématiques et informatique à l’Université d’Ottawa où il s’est spécialisé en statistique. En 1985, il a commencé à travailler comme méthodologiste d’enquête à Statistique Canada. Il a travaillé dans les enquêtes économiques, les enquêtes agricoles,  ainsi que les enquêtes sociales comme l’Enquête sur la dynamique du travail et du revenu. Il a complété une maîtrise en statistique (M.Sc.) à l’Université Carleton sous la supervision de J.N.K. Rao, où il a travaillé sur la stratification optimale. En 1990-1991, il a oeuvré au sein des panels d’entreprises à Eurostat au Luxembourg. En 1997, Pierre est devenu Chef de la section du travail et des données fiscales où il s’est occupé de l’Enquête sur l’emploi, la rémunération et les heures, l’Enquête sur le milieu de travail et les employés et le Programme des données fiscales. En 2001, il a complété un doctorat (Ph.D.) avec Jean-Jacques Droesbeke et Jean-Claude Deville à l’Université Libre de Bruxelles où il a produit une thèse sur le sondage indirect. Cette thèse a fait l’objet d’un livre en français « Le Sondage Indirect, ou la Méthode Généralisée du Partage des Poids » (Éditions Ellipses) et en anglais « Indirect Sampling » (Springer). De 2005-2009, il a été Directeur adjoint à la Division des méthodes d’enquêtes sociales, et depuis 2010, il est Directeur-adjoint à la Division des méthodes d’enquêtes auprès des entreprises. Il donne régulièrement des cours et conférences sur différents sujets comme les plus récents développements sur le sondage indirect, ainsi que la théorie et l’application des enquêtes longitudinales.

Share