2018-2019

Séminaires

À moins d’indication contraire, tous les séminaires de STATQAM ont lieu à 15h30 au Pavillon Président-Kennedy (PK), PK-5115, 201, avenue du Président-Kennedy, Montréal (QC) H2X 2J6.

Session Automne 2018

Jeudi 4 octobre : Olivier Binette, UQAM. A Circular Analogue to the Bernstein Polynomial Densities, Bayesian Nonparametrics and Large Support Asymptotics

The use of truncated Fourier series in circular distribution modelling has been criticized for the lack of control it provides. To address this problem, we suggest a density basis of the trigonometric polynomials that is analogous to the Bernstein polynomial densities. We demonstrate key properties that allow the specification of shape constraints and the efficient simulation of the resulting trigonometric densities. For the purpose of density estimation, we consider random polynomial priors built from this basis and show that posterior means compare favourably to other density estimates previously suggested in the literature. We give a new result on the Kullback-Leibler support of sieve priors that ensures posterior consistency in the estimation of discontinuous densities while known results, valid under regularity assumptions, complete the asymptotic picture. Joint work with Simon Guillotte.

Jeudi 11 octobre : Thierry Duchesne, Univ. Laval. Méthodes de régression en deux étapes pour les modèles de régression à effets mixtes


Lorsque les modèles de régression logistique à effets mixtes ont été introduits il y a quelques décennies, le manque de puissance de calcul a obligé les analystes à utiliser des méthodes d’inférence qui ne faisaient pas appel à l’intégration numérique ou à d’autres algorithmes itératifs exigeants. Les premières approches d’estimation pour ces modèles reposaient sur une stratégie dite « à deux étapes » consistant à combiner plusieurs modèles de régression ordinaires indépendants en une estimation globale des paramètres du modèle à effets mixtes. Étant donné qu’elles permettent une estimation précise lorsque le nombre d’observations par grappe est élevé et qu’elles offrent une grande flexibilité du point de vue informatique (infrastructure de données distribuée, calcul parallèle), ce type d’approche en deux étapes a gagné en popularité au cours de la dernière décennie. Dans cet exposé, je présenterai quelques travaux récents sur les méthodes d’estimation en deux étapes pour les modèles de régression à effets mixtes qui incluent un nouveau critère de sélection de modèle et une extension aux contextes de cubes de données. Des illustrations sur quelques jeux de données seront fournies.

Jeudi 18 octobre : Jean-François Plante, HEC. Sélection de variables objective avec un algorithme génétique parallèle

Il est possible de procéder à la sélection de variables dans un modèle linéaire à l’aide d’algorithmes génétiques qui gèrent l’évolution de populations de modèles selon une fonction d’aptitude (fitness). Avec des univers parallèles, un score d’importance peut être généré pour chaque variable afin de déterminer subjectivement lesquelles conserver à l’aide dun graphique. En plus de présenter les algorithmes génétiques pour la sélection de modèle, les auteurs montreront comment ils déterminent la distribution des scores dimportance sous l’hypothèse nulle qu’aucune des variables n’a de pouvoir prédictif. Cela leur permet de déterminer un seuil objectif et automatisable pour la sélection de variables. Ils illustrent leur méthode à l’aide de données réelles et décrivent sa performance avec des résultats de simulation.

Jeudi 25 octobre : Denis Talbot, Univ. Laval. Un test de la spécification adéquate d’un modèle structurel marginal

Estimer l’effet d’une exposition variant dans le temps à l’aide de modèles de régression ordinaires peut entraîner un biais si des variables confondantes variant dans le temps sont un effet des expositions passées. Les modèles structurels marginaux (MSMs) sont une solution à ce problème qui est de plus en plus utilisée, notamment dans les études en santé. L’une des hypothèses principales des MSMs est que la relation entre l’issue et les différentes expositions dans le temps est bien spécifiée. Au cours de cette présentation, j’introduirai un test statistique pour la spécification adéquate de cette relation. Ce test tire profit du fait que différents estimateurs des paramètres des MSMs basés sur la pondération existent et que ceux-ci convergent tous vers la même valeur lorsque le MSM est adéquatement spécifié. Cependant, lorsque le modèle proposé est incorrectement spécifié, les estimateurs peuvent converger vers des valeurs différentes. Afin de vérifier l’adéquation du modèle, le test proposé consiste ainsi à tester si les paramètres estimés par les différents estimateurs sont les mêmes. La distribution théorique du test sera établie et les résultats d’études de simulations permettant d’étudier sa performance seront présentés. Je présenterai finalement une application pour l’étude de l’effet d’une exposition répétée au stress au travail sur une période de 5 ans sur la pression artérielle ambulatoire dans une cohorte de 1576 travailleurs cols-blancs.

Mardi 30 octobre : David Coeurjolly, CNRS, Lyon, France. Échantillonnage basse discrépance et bruit bleu en informatique graphique / Low Discrepancy and Blue Noise Sampling in Computer Graphics

L’intégration Monte-Carlo et Quasi-Monte-Carlo (MCQMC) est très souvent utilisée dans de nombreux domaines scientifiques pour approcher numériquement des intégrales complexes pour lesquelles aucune solution analytique efficace n’existe. En informatique graphique, les méthodes MCQMC sont fondamentales pour l’évaluation de l’équation de rendue qui modélise le transport lumineux dans des environnements complexes. En effet, les processus ponctuels choisis ont souvent un impact direct sur l’image rendue en termes de biais, bruit et artefacts de crénelage. Dans cette présentation, nous nous focaliserons sur les propriétés et l’analyse d’échantillonneurs de points dans ce domaine spécifique où une corrélation entre les échantillons est importante, en plus de la réduction de la variance de l’estimateur de MCQMC. Plus spécifiquement, nous présentons plusieurs échantillonneurs dont les motifs partagent des propriétés de basse discrépance et bruit bleu.

Monte Carlo and Quasi-Monte-Carlo (MCQMC) methods are widely used in various scientific fields to numerically approximate integrals of complex functions that cannot be expressed in closed form. In computer graphics, MCQMC methods are fundamental for evaluation of the rendering equation which models the light transport in complex environments. Indeed, the point processes used for integration usually have direct impacts to the rendered image in terms of bias, noise and aliasing artefacts. In this presentation, we focus on the properties and the design of sampling patterns in this specific area where correlation between points are important, aside with the variance reduction in the MCQMC estimator. More specifically, we present several samplers whose patterns have low discrepancy and blue noise properties.

Mercredi 7 novembre : rencontre automnale du Laboratoire de statistique du CRM

Rencontre ouverte à tous. Plus d’informations: http://www.crm.umontreal.ca/2018/Statlab18/index.php

Il y aura entre autre trois présentations:

  • 13h 30 à 14h30  Alexandra Schmidt, Université McGill, Flexible models for spatial and spatio-temporal processes.
  • 14h30-15h30 Alexandre Bureau, Université Laval, Analyse statistique de coségrégation de variants génétiques rares avec une maladie dans des familles.
  • 16h00-17h00, Jean-François Cœurjolly, UQÀM, Approche pénalisée pour l’estimation de l’intensité d’un processus ponctuel spatial.

Jeudi 15 novembre : Walter Rei, ESG, UQAM. Partial benders decomposition strategies for two-stage stochastic integer programs

Benders decomposition is a broadly used used exact solution method for stochastic programming, enabling such programs to be decomposed according to the realizations of the random events that set the values of their stochastic parameters. This strategy also comes with important drawbacks, however, such as a weak master problem following the relaxation step that confines the dual cuts to the scenario sub-problems. We propose the first comprehensive Partial Benders Decomposition methodology for two- stage integer stochastic program, based on the idea of including explicit information from the scenario sub-problems in the master. We propose two scenario-retention strategies that include a subset of the second stage scenario variables in the master, aiming to significantly reduce the number of feasibility cuts generated. We also propose a scenario- creation strategy to improve the lower-bound provided by the master problem, as well as three hybrids obtained by combining these pure strategies. We report the results of an extensive experimental campaign on two-stage stochastic multicommodity network design problems. The analysis clearly shows the proposed methodology yields significant benefits in computation efficiency, solution quality, and stability of the solution process.

ANNULÉ –  Jeudi 22 novembre : Mina Aminghafari, Amirkabir University of Technology, Iran. Robust Multivariate Denoising

Multivariate smoothing and denoising are important tasks in different fields of sciences, such as engineering, statistics and signal processing. In this presentation, I will talk about two multivariate denoising methods. The first one is based on wavelet transform, which is a powerful tool in mathematics. However, the finite variance condition is supposed for this method. The second method gets rid of this condition and is based a on a linear stable regression. Simulations and real data applications confirm the good performance of the proposed methods.

Jeudi 29 novembre : Arthur Charpentier, Département de mathématiques, UQAM. Using transformations of variables to improve inference

In Geenens, Charpentier & Paindaveine (2017), use used probit transformations on bivariate data to improve nonparametrics estimation of the copula density, as intuited in Charpentier, Fermanian & Scaillet (2007). This probit transformation was extending Geenens (2014) in higher dimension. The idea of transforming variables in the univariate context was also used in Charpentier & Oulidi (2009), to improve quantile estimation. In those articles, the idea is either to transform variables to “normalize” them, or to “uniformize” them. This can be used to improve density estimation, as well as functionals of that distribution. We will see in this talk recent results obtained with Emmanuel Flachaire, in the context of inequality indices and risk measures.

Jeudi 6 décembre : Erica Moodie, McGill Univ. Statistical approaches to precision medicine: An overview

Precision medicine is an approach to care that aims to tailor treatments to patient characteristics. Determining good tailored treatment strategies requires statistical expertise, and many challenges arise in estimation and inference that are not encountered in typical analyses. In this presentation, I will give an overview of the field of precision medicine from a statistical viewpoint, and introduce some of the current analytic tools focusing on a single-stage setting, before turning to some case-studies of real-world analyses.

Session Hiver 2019

Lundi 7 janvier : Audrey-Anne Vallée, Univ. Neuchâtel, Suisse. Imputation équilibrée pour la non-réponse en fromage suisse

Dans les enquêtes à grande échelle, la non-réponse est souvent inévitable. La non-réponse en fromage suisse, aussi nommée non-réponse non-monotone, regroupe les cas où toutes les variables d’une enquête contiennent des valeurs manquantes sans schéma particulier. Les estimateurs des paramètres d’intérêt peuvent être grandement affectés par les valeurs manquantes qui introduisent un biais et une augmentation de la variabilité. Afin de diminuer les effets de la non-réponse, les valeurs manquantes sont généralement imputées. Lorsque plusieurs variables d’un jeu de données sont à imputer, il peut être difficile de préserver les distributions et les relations entre les variables. Dans cette présentation, l’imputation équilibrée par les K plus proches voisins est étendue au cas de la non-réponse en fromage suisse. Il s’agit d’une méthode d’imputation par donneurs qui est aléatoire et construite pour répondre à plusieurs exigences. D’abord, un non-répondant doit être imputé par des donneurs qui sont près de lui. Les distances sont calculées avec les valeurs disponibles des variables. Ensuite, toutes les valeurs manquantes d’un non-répondant sont imputées par le même donneur choisi aléatoirement. Enfin, les donneurs sont sélectionnés de façon à respecter des contraintes d’équilibrage permettant de diminuer la variance des estimateurs. Pour imputer en respectant de telles exigences, une matrice de probabilités d’imputation est construite à l’aide de méthodes de calage. Les donneurs sont ensuite choisis avec ces probabilités et des méthodes d’échantillonnage équilibré.

Jeudi 17 janvier : Karim Oualkacha, Département de mathématiques, UQAM. Tests multidimensionnels d’association génétique pour variants rares et phénotypes non-normaux

La puissance statistique dans le cas de tests d’association génétique des variants rares est l’objectif principal pour cartographier les variants rares susceptibles aux maladies complexes. Afin d’augmenter la puissance du test statistique, pour variants rares ont été proposés récemment, lorsque plusieurs phénotypes continus de nombreux tests multivariés d’association corrélés sont observés. Toutefois, la plupart de ces méthodes supposent des distributions normales multivariées pour les phénotypes sous étude. Lorsque l’hypothèse de la normalité multidimensionnelle est violée, la modélisation de la dépendance phénotypique par la corrélation de Pearson peut être inadéquate et causer une inflation de l’erreur de type I. Dans cette présentation, nous modélisons la dépendance phénotypique à l’aide de copules et nous présumons des distributions phénotypiques marginales provenant de familles exponentielles. Nous développons un test du score pour une composante de variance afin de tester pour l’association entre un ensemble de variants rares et phénotypes bivariés. Nous illustrons la performance de la méthode proposée à l’aide de simulations et en analysant des données réelles de l’étude ALSPAC.

Jeudi 24 janvier : Relâche

Jeudi 31 janvier : Félix Camirand Lemyre, Univ. Sherbrooke. Estimation semiparamétrique de la consommation moyenne à long terme d’aliments/nutriments épisodiquement consommés

Dans des enquêtes populationnelles, il est souvent d’intérêt d’estimer la distribution de la consommation moyenne de nutriments ou d’aliments d’un certain groupe alimentaire. Lorsque les données nutritionnelles sont obtenues par l’entremise d’un rappel de 24 heures, il est désormais reconnu que la consommation moyenne est mesurée avec une erreur considérable. Lorsque l’aliment est consommé tous les jours, il est possible d’utiliser les méthodes classiques de correction d’erreur de mesure pour estimer la distribution moyenne à partir de ce type de données. Or, ces méthodes ne peuvent plus être utilisées lorsque l’aliment est consommé épisodiquement (poisson ou fruits entiers par exemple), parce que, dans ces cas, ces méthodes sont typiquement biaisées. Dans cette présentation, nous abordons ce problème en adoptant un mélange entre une approche paramétrique et une approche non paramétrique. Travaux joints avec Raymond J. Carroll & Aurore Delaigle

Jeudi 7 février : Geneviève Lefebvre, UQAM. Comparing logistic and log-binomial models for causal mediation analyses of binary mediators and rare binary outcomes: moving towards exact regression-based approaches

In the binary outcome framework to causal mediation, standard expressions for the natural direct and indirect effect odds ratios (ORs) are established from a logistic model by invoking several approximations that hold under the rare-disease assumption. Such ORs are expected to be close to corresponding effects on the risk ratio (RR) scale based on a log-binomial model, but the robustness of interpretation to this assumption has not been investigated. The objective is to report on mediation results from these two models when the (marginal) incidence of the outcome is <10%.

Standard (approximate) ORs and RRs were estimated using data on pregnant asthmatic women from Québec. Prematurity and low-birthweight were the mediator and outcome variables, respectively, and two binary exposure variables were considered: treatment to inhaled corticosteroids and placental abruption. Exact ORs were also derived and estimated using a contributed SAS macro. Simulations which mimicked our data were subsequently performed to replicate findings.

Many approximate ORs and RRs estimated from our data did not closely agree. Approximate ORs were systematically observed farther from RRs in comparison with exact ORs. Exact OR estimates were very close to RR estimates for exposure to inhaled corticosteroids, but less so for placental abruption. Approximate OR estimators also exhibited important bias and undercoverage in simulated scenarios which featured a strong mediator-outcome relationship. These results pave the way for exact estimators that do not rely on the rare-disease assumption.

Joint work with Mariia Samoilenko (UQAM). The presentation will be given in French with English slides.

Jeudi 14 février : Florian Maire, Université de Montréal. Chaînes de Markov informées : intérêts et limites.

Étant donné une loi de probabilité (discrète ou continue) connue à une constante de normalisation près, il est bien connu qu’il existe un grand nombre (voir une infinité) de noyaux de Markov permettant d’échantillonner une telle loi, au moyen d’une chaine de Markov ergodique. Cet exposé va présenter certains résultats récents concernant les possibilités de laisser la chaîne de Markov choisir elle-même quel noyau utiliser en fonction de sa position dans l’espace d’état, sans pour autant abandonner son caractère markovien. Nous appelons “informé” un tel processus. Nous verrons que dans certains cas où la dimension de l’espace ambient peut-etre localement réduite (loi sparse concentrée sur des sous-espaces linéaires ou variétés), les chaînes de Markov informées peuvent atteindre plus rapidement (que des chaînes non informées), parfois de facon dramatique, un voisinage de la stationarité. Cependant, en pratique les modèles satisfont rarement de telles propriétés et dans ces cas de figure, nous montrerons que ces chaînes informées présentent des signes de métastabilité et cela pénalise leur convergence. Nous concluerons sur les possibilités offertes par les récents développements concernant les chaînes de Markov non-réversible pour remédier à ce problème.

C’est travail mené avec Pierre Vandekerkhove, Univ. Paris-Est Marnes la Vallée.

Jeudi 21 février : Jean-François Coeurjolly, UQAM. About the multivariate fractional Brownian motion

Since the pioneering work by Mandelbrot and Van Ness in 1968, the fractional Brownian motion (fBm) became a classical stochastic process for modelling one-dimesional self-similar or long-memory processes. This model has been applied to characterize the regularity and dependence of fMRI signals acquired in the brain of resting-state patients. This analysis was conducted independently on each region of interest of the brain. Despite the first analysis showed interesting results, the model needed to be improved in order to take into account the possible connectivity of regions of interest.
In this talk, we present an extension of the fBm to the multivariate case that may be well-suited to such data: the multivariate fractional Brownian motion (mfBm) characterized in particular by p Hurst exponents. After recalling some facts about the fBm, I will state some theoretical properties of the mfBm: (cross)-correlation, spectral density matrix, wavelet analysis, existence conditions. Then, I will detail how we can exactly and quickly generate sample paths of the mfBm. Finally, we will focus on the statis- tical inference and mainly on the joint estimation of the fractal exponents using a discrete variations techniques.

Jeudi 7 mars : Aziz L’moudden (UQAM). TBA

TBA

Vendredi 15 mars : Journée étudiants STATQAM

TBA

Jeudi 21 mars : Sébastien Gambs, Département d’informatique, UQAM. Les nombreux visages de l’anonymisation

L’anonymisation est souvent mise en avant comme étant une approche miracle pour partager de grandes masses de données personnelles tout en garantissant le respect de la vie privée des individus concernés. Cependant, il s’agit d’un problème difficile comme démontré par les nombreux cas de données soi-disant anonymisées qui ont été réidentifiées. Dans cette présentation, j’introduirais le problème de l’anonymisation avant de présenter plusieurs de modèles de respect de la vie privée et d’algorithmes d’anonymisation existants ainsi que leurs contreparties, les attaques par inférences, en explorant plusieurs types de données. Enfin, je conclurais par une discussion sur les dernières avancées dans le domaine de l’anonymisation.

Jeudi 28 mars : Radu Craiu, Univ. Toronto. Adaptive Component-wise Multiple-Try Metropolis Sampling

One of the most widely used samplers in practice is the component-wise MetropolisHastings (CMH) sampler that updates in turn the components of a vector valued Markov chain using accept-reject moves generated from a proposal distribution. When the target distribution of a Markov chain is irregularly shaped, a ‘good’ proposal distribution for one region of the state space might be a ‘poor’ one for another region. We consider a component-wise multiple-try Metropolis (CMTM) algorithm that chooses from a set of candidate moves sampled from different distributions. The computational efficiency is increased using an adaptation rule for the CMTM algorithm that dynamically builds a better set of proposal distributions as the Markov chain runs. The ergodicity of the adaptive chain is demonstrated theoretically. The performance is studied via simulations and real data examples.

This is joint work with Evgeny Levi, Jinyoung Yang and Jeffrey Rosenthal.

Vendredi 5 avril : Anatoli Louditski, Univ. Grenoble Alpes, France. Signal estimation by convex optimization

Nous considérons le problème d’estimation d’un signal inconnu à partir d’ une observation indirecte bruitée $\omega = Ax + \xi $, où nous cherchons à reconstruire une image linéaire $w=Bx$ du signal supposé d’appartenir à un ensemble donné $X$. Tout d’abord, sous certaines hypothèses sur $X$ (satisfait, par exemple, lorsque $X$ est l’intersection de $K$ cylindres elliptiques, ou la boule unité de la norme spectrale dans l’espace des matrices) et sur la norme $ | \cdot | $ utilisé pour mesurer l’erreur d’estimation (satisfait, par exemple, par les $p$-normes, $ 1 \leq p \leq 2$, sur $ R^m $, la distance de Wasserstein, et par la norme nucléaire sur l’espace des matrices), et {\em sans imposer aucune restriction sur les applications $A$ et $B$,} nous construisons une estimée {\em linéaire} de $Bx$ qui est quasi-optimale parmi toutes les estimées (linéaires ou non linéaires) en termes d’espérance de la perte $| \cdot | $ pire-cas sur $ X$. Ces résultats forment une extension essentielle des résultats classiques (e.g., Pinsker 1980 et Donoho, Liu et MacGibbon, 1990), qui ne traitent que le cas de la norme euclidienne $ | \cdot | $ et des matrices diagonales $A$ et $B$, et impose des hypothèses beaucoup plus restrictives sur l’ensemble $X$ de signaux. Nous présentons ensuite un simple estimateur générique {\em non-linéaire} de la forme $\wh{w}\in \Argmin_{x\in X} |H(\omega-Ax)|_\infty$, où $H$ est une matrice dite de contrastes. Nous montrons que, dans certains “cas favorables,” l’estimée proposée est quasi-optimale au sens minimax (les “cas favorables” couvrant, en particulier, les hypothèses les moins restrictives garantissant une quasi-optimalité des estimateurs linéaires).

(travail joint avec A. Nemirovski, ISyE, Georgia Tech)

Jeudi 11 avril : TBA

TBA

Jeudi 18 avril : David Bickel, Univ. Ottawa. Blends of Bayesian and frequentist inference

Blended inference draws on strengths of the frequentist and Bayesian theories of statistics. In one recipe, Bayesian inference is used when the prior distribution is known, frequentist inference when nothing is known about the prior, and a blend of both when there is some knowledge about the prior.

If the confidence distribution that corresponds to frequentist inference is practically consistent with the set of posterior distributions derived from the set of priors, then the confidence distribution alone is enough for inference. If not, it exerts a strong influence on inferences drawn on the basis of the set of posterior distributions.

That blend is illustrated for the hypothesis testing case by a simple combination of a confidence distribution with a set of plausible posterior probabilities.

Jeudi 2 mai : Journée Modélisation stochastique et équations différentielles: applications et inférence en l’honneur de Sorana Froda.

Les conférences auront lieu au PK-1140. Un coquetel suivra les présentations, à 17h. Programme:

  • 14h00 – 14h45 Hugues Leduc, UQAM. Estimation du basic reproduction number à partir des données de surveillance d’épidémies passées.
  • 14h45 – 15h30 : Sévérien Nkurunziza, Windsor University. Quelques modélisations prédictives et méthodes d’inférence optimales.
  • 15h30 – 16h : Pause café
  • 16h – 17h: Jim Ramsay, McGill University. From Brain to Hand to Statistics with Dynamic Smoothing.

Résumés des conférences:

Hugues Leduc (UQAM). Estimation du basic reproduction number à partir des données de surveillance d’épidémies passées.
Le basic reproduction number (R0) est un paramètre qui caractérise le potentiel de transmission d’une épidémie. Une nouvelle façon d’estimer ce paramètre est proposée. Nous introduisons un modèle stochastique qui prend comme point de départ les modèles classiques SIR (susceptibles-infectés-retirés) déterministes et stochastiques. La méthode d’estimation repose sur une propriété du modèle déterministe SIR et pourrait être appliquée aux données de surveillance disponibles sur les épidémies, données recueillies annuellement dans diverses régions. Nos estimateurs prennent en compte certaines limitations pratiques, notamment le fait que les données sont collectées à des moments prédéfinis. Nous dérivons les propriétés asymptotiques des estimateurs et réalisons une étude de simulation pour évaluer le comportement d’échantillons de petite taille. Nous illustrons enfin la méthode sur des données réelles (provenant du site web des US Centers for Disease Control and Prevention).

Sévérien Nkurunziza (Windsor). Quelques modélisations prédictives et méthodes d’inférence optimales. Dans cet exposé, on présente un aperçu des récents modèles étudiés ainsi que  les résultats statistiques établis. Brièvement, les procédures statistiques établies ont les applications dans  l’analyse de la dynamique des populations cycliques de type proie-prédateurs, dans l’analyse des marchés financiers ainsi que dans l’analyse des données de survie. Plus spécifiquement, dans le scénario où le paramètre d’intérêt pourrait satisfaire une contrainte imprécise, on présente une famille d’estimateurs à rétrécissement qui comprend aussi bien l’estimateur sans restriction  que l’estimateur restreint ainsi que les estimateurs de type James-Stein. Pour étudier les  performances des estimateurs établis, on généralise quelques identités remarquables classiques dans le contexte des échantillons générés par la loi gaussienne multivariée ou plus  généralement dans ceux générés par la distribution elliptique multivariée. Par ailleurs, on discute de la plus récente application de nos méthodes dans certains  modèles avec plusieurs points de rupture inconnus. Finalement, on présente un résultat asymptotique qui permet d’étudier l’optimalité des estimateurs matriciels à dimensions aléatoires.

Jim Ramsay, Michelle Carey, Juan Li, (McGill)From Brain to Hand to Statistics with Dynamic Smoothing. Systems of differential equations are often used to model buffering processes that modulate a non-smooth high-energy input so as to produce an output that is smooth and that distributes the energy load over time and space. Handwriting is buffered in this way.  We show that the smooth complex script that spells `”statistics” in Chinese can be represented as buffered version of a series of 46 equal-interval step inputs.  The buffer consists of three undamped oscillating springs, one for each orthogonal coordinate.  The periods of oscillation vary slightly over the three coordinate in a way that reflects the masses that are moved by muscle activations.   Our analyses of data on juggling three balls and on lip motion during speech confirm that this model works for a wide variety of human motions.

We use the term  “dynamic smoothing” for the estimation of a structured input functional object along with the buffer characteristics.

Vendredi 3 mai : Peter Craigmile, Ohio State University. TBA

TBA