Remote meeting, 2020, October the 21st
Meeting du 21 octobre 2020
Présents
Laurent Modolo, Franck Picard, Joon Kwon, Anthony Ozier-Lafontaine, Julien Chiquet, Aymeric Stamm, Olivier Gandrillon, Filipo Santambrogio, Jean-Baptiste Alberge, François Gindraud, Jean-philie Vert, Félix Raimundo, Nelle Varoquaux, Laure Sansonnet, Elias Ventre, Bertrand Michel
Elias: From Gene Regulatory Networks to Mixture Models and conversely
Elias présente les avancés sur un travail en cours, dont voici un résumé:
From a mechanistic model of gene expression that has been shown, contrary to ordinary or even stochastic differential equation systems often used in this context, to be able to acceptably reproduce real single-cell dat, we developp a new strategy for inferring Gene Regulatory Network, using the correspondances between proteins distributions associated to the mechanistic model and Mixture laws. In a first part, we justify a numerical procedure able to derive from a given GRN a Beta mixture with interpretable parameters for describing cells distribution in the gene expression space, when the promoters are fast in regard to proteins dynamics. Second, based on results coming from Large deviations theory, we propose an algorithm for solving the inverse problem, i.e to provide a set of potential GRN corresponding to a certain Beta mixture.
Olivier: bibliographie scVelo
OG a présenté les deux versions successives (publiées dans Nature, et déposées dans BioRXiv) de l’algorithme scVelo, visant à prédire le destin cellulaire sur la base d’une analyse dynamique des pré-messagers et des messagers épissés.
Julien: Bilan et perspective pour kes modèles Poisson lognormaux
Julien présente un bilan des développements fait autour du modèle Poisson-lognormal (variatnes et algorithmes variationnel). Les perspectives envisagés sont
- de nouveaux développements en terme de modélisation (versions zéro-inflatées, sparsité des coefficients)
- l’utilisation d’algorithme d’optimisation permettant un passage à l’échelle (gradient stochastique et variantes)
- l’optimisation exacte de la log-vraisemblable plutôt que la borne variationnelle
- la recherche de garanties théoriques de convergence des algorithmes et de qualités des estimateurs, variationnels ou pas.