2369 shaares
30 results
tagged
bayésien
Ah ben je suis pas le seul à pas aimer WinBUGS et OpenBUGS.
Utiliser JAGS pour ajuster du modèle avec autocorrélation spatiale. À garder sous le coude pour le jour où...
Qui pourrait bien arriver plus rapidement que prévu (je crains cependant qu'on ne soit limité en termes de nombre d'unités spatiales que l'on peut intégrer le modèle).
À lire un jour
Qui pourrait bien arriver plus rapidement que prévu (je crains cependant qu'on ne soit limité en termes de nombre d'unités spatiales que l'on peut intégrer le modèle).
À lire un jour
Faudrait que je prenne le temps de creuser c't'affaire. Pas mal de références fournies.
Vinzou, faut vraiment que je prenne le temps de creuser ce logiciel. Ça m'a l'air d'être une alternative intéressante à JAGS pour le MCMC. Plus rapide apparemment... Et ya même une interface pour R
Le paradoxe de Bertrand, ou pourquoi "Quelle est la distribution de telle statistique x sachant que mes points sont tirés aléatoirement" ne veut rien dire.
Et le plus drôle de l'affaire, c'est que Jaynes, en utilisant le principe d'indifférence, résoud le problème! Comme quoi le bayésien ça sert!
Et le plus drôle de l'affaire, c'est que Jaynes, en utilisant le principe d'indifférence, résoud le problème! Comme quoi le bayésien ça sert!
Sur la bataille bayésien/fréquentistes. Oui, je trouve que ça résume assez bien ma position. Et ça m'agace toujours un peu quand j'entends des opinions définitives (comme j'ai entendu récemment) du genre: "le bayésien c'est pas de la science" par des personnes qui régurgitent sans trop réfléchir les préfaces de bouquins fréquentistes écrits dans les années 1970.
Bon, le blog de Gelman donne des explications plus détaillées, et plein de refs. Article hyper intéressant, on y apprend plein de choses essentielles en modélisation bayésienne. Notamment:
* Ce qui avait été noté par John Cook, et qui est expliqué plus clairement là: on se comporte avec la prior de la même façon qu'avec la vraisemblance dans un modèle classique. On commence par un modèle/une prior simple. Si le résultat est naze, on améliore. Du bon sens.
* que ce qu'on croît être non informatif ne l'est pas toujours. Comme il l'écrit dans son blog:
"Traditionally in statistics we’ve worked with the paradigm of a single highly informative dataset with only weak external information. But if the data are sparse and prior information is strong, we have to think differently. And, when you increase the dimensionality of a problem, both these things happen: data per parameter become more sparse, and priors distribution that are innocuous in low dimensions become strong and highly informative (sometimes in a bad way) in high dimensions."
Et il donne des exemples. Le prochain modèle bayésien que j'ajuste, je fais des tests de ça. Apparemment, même une prior uniforme, ça peut générer des structures merdiques.
* Ce qui avait été noté par John Cook, et qui est expliqué plus clairement là: on se comporte avec la prior de la même façon qu'avec la vraisemblance dans un modèle classique. On commence par un modèle/une prior simple. Si le résultat est naze, on améliore. Du bon sens.
* que ce qu'on croît être non informatif ne l'est pas toujours. Comme il l'écrit dans son blog:
"Traditionally in statistics we’ve worked with the paradigm of a single highly informative dataset with only weak external information. But if the data are sparse and prior information is strong, we have to think differently. And, when you increase the dimensionality of a problem, both these things happen: data per parameter become more sparse, and priors distribution that are innocuous in low dimensions become strong and highly informative (sometimes in a bad way) in high dimensions."
Et il donne des exemples. Le prochain modèle bayésien que j'ajuste, je fais des tests de ça. Apparemment, même une prior uniforme, ça peut générer des structures merdiques.
L'opinion de Gelman sur les prior en bayésien décrite par John Cook. Et elle vaut son pesant d'or:
On commence par ajuster du non informatif, sur lequel on est inattaquable. On ne prend alors aucun risque. Et s'il est clair que le non-informatif conduit à des conclusions sans intérêt car trop vague, alors il est temps de revenir à la définition des prior, et d'en définir des plus réalistes, mais aussi plus criticable.
C'est du bon sens, mais je n'imagine pas le nombre de référés qui vont nous rentrer dans le lard avec une telle stratégie. Ce serait pas mal d'avoir une ref à renvoyer en retour sur la question. Je vais chercher
On commence par ajuster du non informatif, sur lequel on est inattaquable. On ne prend alors aucun risque. Et s'il est clair que le non-informatif conduit à des conclusions sans intérêt car trop vague, alors il est temps de revenir à la définition des prior, et d'en définir des plus réalistes, mais aussi plus criticable.
C'est du bon sens, mais je n'imagine pas le nombre de référés qui vont nous rentrer dans le lard avec une telle stratégie. Ce serait pas mal d'avoir une ref à renvoyer en retour sur la question. Je vais chercher
Tiens? ça cause débat fréquentiste/bayésien dans Nature. Pas encore lu, mais à lire un jour parce que l'attaque a l'air violente
Un nouvel article dans the american statistician sur la sélection de modèle en bayésien. De Barker et Link. À lire donc.