2369 shaares
12 results
tagged
bayésienne
Encore une nouvelle approche pour estimer les constantes de normalisation dans les approches bayesiennes
Tiens? une alternative à BUGS et JAGS? À suivre...
Certes, mais comme le dit Gelman, le non-informatif garde un sens.
Pas mal de programmes R illustrant l'implémentation MCMC pour différents modèles
Faut vraiment que je me forme à l'ABC, on en entend de plus en plus parler, et sur le principe, ça a l'air intéressant.
Marre de chercher ça à chaque fois: la loi de student peut être vue comme un mélange de loi normales y_i de moyenne mu et de variance V_i, avec V_i suivant une loi inverse Chi-deux de paramètres nu et sigma^2:
y~N(mu,V_i)
V_i ~ inv-chi2(nu, sigma^2)
À noter, p. 304 du Bayesian Data Analysis, Gelman s'appuie sur ce modèle pour présenter la parameter expansion comme moyen d'améliorer la convergence des paramètres dans le MCMC.
y~N(mu,V_i)
V_i ~ inv-chi2(nu, sigma^2)
À noter, p. 304 du Bayesian Data Analysis, Gelman s'appuie sur ce modèle pour présenter la parameter expansion comme moyen d'améliorer la convergence des paramètres dans le MCMC.
Des infos utiles sur le DIC, et quelques papiers importants
Bon, le blog de Gelman donne des explications plus détaillées, et plein de refs. Article hyper intéressant, on y apprend plein de choses essentielles en modélisation bayésienne. Notamment:
* Ce qui avait été noté par John Cook, et qui est expliqué plus clairement là: on se comporte avec la prior de la même façon qu'avec la vraisemblance dans un modèle classique. On commence par un modèle/une prior simple. Si le résultat est naze, on améliore. Du bon sens.
* que ce qu'on croît être non informatif ne l'est pas toujours. Comme il l'écrit dans son blog:
"Traditionally in statistics we’ve worked with the paradigm of a single highly informative dataset with only weak external information. But if the data are sparse and prior information is strong, we have to think differently. And, when you increase the dimensionality of a problem, both these things happen: data per parameter become more sparse, and priors distribution that are innocuous in low dimensions become strong and highly informative (sometimes in a bad way) in high dimensions."
Et il donne des exemples. Le prochain modèle bayésien que j'ajuste, je fais des tests de ça. Apparemment, même une prior uniforme, ça peut générer des structures merdiques.
* Ce qui avait été noté par John Cook, et qui est expliqué plus clairement là: on se comporte avec la prior de la même façon qu'avec la vraisemblance dans un modèle classique. On commence par un modèle/une prior simple. Si le résultat est naze, on améliore. Du bon sens.
* que ce qu'on croît être non informatif ne l'est pas toujours. Comme il l'écrit dans son blog:
"Traditionally in statistics we’ve worked with the paradigm of a single highly informative dataset with only weak external information. But if the data are sparse and prior information is strong, we have to think differently. And, when you increase the dimensionality of a problem, both these things happen: data per parameter become more sparse, and priors distribution that are innocuous in low dimensions become strong and highly informative (sometimes in a bad way) in high dimensions."
Et il donne des exemples. Le prochain modèle bayésien que j'ajuste, je fais des tests de ça. Apparemment, même une prior uniforme, ça peut générer des structures merdiques.
Plein de ressources sur le bayésien non paramétrique
Une interview d'andrew Gelman. Très intéressante. Morceaux choisis:
"Ask yourself the question: What makes a statistician look like a hero? You might think that the answer would be, Extracting a small faint signal from noise. But I don't think so. I think that a statistician looks like a hero by studying large effects. (...) In these problems, my statistical successes have often come from methods that have allowed the combination of information from different sources. Often what is important about a statistical method work is not what it does with the data, but rather what data it uses. Good methods have the flexibility to incorporate more information into the analysis."
Autre point rigolo:
"-What is your pet peeve about published data interpretations?
- I've called it the lure of certainty. It's a problem with researchers and with consumers of researchers as well: they don't want to acknowledge uncertainty and variation. "
"Ask yourself the question: What makes a statistician look like a hero? You might think that the answer would be, Extracting a small faint signal from noise. But I don't think so. I think that a statistician looks like a hero by studying large effects. (...) In these problems, my statistical successes have often come from methods that have allowed the combination of information from different sources. Often what is important about a statistical method work is not what it does with the data, but rather what data it uses. Good methods have the flexibility to incorporate more information into the analysis."
Autre point rigolo:
"-What is your pet peeve about published data interpretations?
- I've called it the lure of certainty. It's a problem with researchers and with consumers of researchers as well: they don't want to acknowledge uncertainty and variation. "
Une rapide description du pseudo-bayésien. C'est comme ça qu'on appelle la stat qui s'appuie sur le calcul d'une pseudo-postérior, c'est à dire du produit d'une prior et d'une pseudo-vraisemblance. On en invente tous les jours.
Tony O'Hagan interview Dennis Lindley. Sur l'ensemble de sa carrière, sur l'histoire de la stat bayésienne, etc. Ses rencontres avec Savage, etc.
Très intéressant.
Voir aussi les liens associés: spiegelhalter, taleb, efron, etc. Pas mal de videos à voir. Une mine!
Très intéressant.
Voir aussi les liens associés: spiegelhalter, taleb, efron, etc. Pas mal de videos à voir. Une mine!