2369 shaares
21 results
tagged
bayesien
Creuser cette histoire de variational inference.
priors sur les coefficients d'une régression linéaire: N(0, 2.5*sigma_y/sigma_x)
J'y avais pas pensé, mais effectivement, repartir de la posterior par une approximation de multivariate normal est qqc qui se fait. À garder sous le coude.
Régression linéaire en bayésien avec prior conjuguée. Je vais en avoir besoin
Une interprétation des Pareto k values dans le calcul des LOO
Super présentation pour mieux comprendre l'implémentation des modèles hiérarchiques avec rstanarm
Explication limpide des priors LKJ utilisées pour les matrices de covariance dans rstanarm
En théorie, la colinéarité n'est pas un pb majeur en bayésien. En théorie. Cette colinéarité veut simplement dire que les données ne peuvent pas réussir à bien séparer les effets des deux variables. Mais normalement, la posterior devrait refléter cette difficulté à séparer les deux. En outre, définir une prior informative permet de résoudre ce pb (c'est la prior qui prend le relais des données.
Et j'aime bien le commentaire de GEC. En théorie, c'est pas un pb, mais:
In practice, though, this can be a big deal in terms of the speed/efficiency of sampling. Gibbs samplers will have a hard time traveling along the “ridge” in the likelihood space that is at an angle relative to the correlated parameters. Even gradient-based methods like HMC (or population methods that approximate gradients) can do better but will often experience a slowdown or have high autocorrelation as they attempt to explore the ridge.
Et j'aime bien le commentaire de GEC. En théorie, c'est pas un pb, mais:
In practice, though, this can be a big deal in terms of the speed/efficiency of sampling. Gibbs samplers will have a hard time traveling along the “ridge” in the likelihood space that is at an angle relative to the correlated parameters. Even gradient-based methods like HMC (or population methods that approximate gradients) can do better but will often experience a slowdown or have high autocorrelation as they attempt to explore the ridge.
À lire absolument.
Chaîne intéressante. À suivre.
tidybayes. Je vais creuser cette histoire de brms, tout le monde en parle en ce moment.
Encore un SMBC marrant
Il y a un logiciel programmable en langage JAGS qui implément le sequential monte carlo!!!!!
Par des mecs de l'INRIA, le truc a l'air super propre, c'est génial.
Par des mecs de l'INRIA, le truc a l'air super propre, c'est génial.
Un article de blog intéressant: comment transformer un fréquentiste en bayésien en 8 étapes. Quels sont les must-read?
Ben décidément, yen a des choses sur Nimble aujourd'hui
Apparemment, dans certains domaines, c'est une pratique courante de remplacer les prédicteurs par un "median split" (i.e. séparation faible/fort) avant de faire une régression linéaire. Gelman indique qu'il est beaucoup plus efficace de trichotomiser la variable (ya un lien vers une publi): on découpe la variable en trois catégories, que l'on va coder -1,0,1 et on ajuste une régression linéaire dessus. Ça fait l'hypothèse d'une relation linéaire entre l'explicative et la réponse.
Intéressant sur le principe, mais je vois pas bien l'intérêt de couper la variable en pratique (je veux dire, si on a déjà décidé de la forme de cette relation...). Et à lire les commentaires, je suis visiblement pas le seul...
Enfin bon, l'idée d'une trichotomie a l'air rigolotte quand même
Intéressant sur le principe, mais je vois pas bien l'intérêt de couper la variable en pratique (je veux dire, si on a déjà décidé de la forme de cette relation...). Et à lire les commentaires, je suis visiblement pas le seul...
Enfin bon, l'idée d'une trichotomie a l'air rigolotte quand même
Plein de sources pour la mise en œuvre du RJMCMC...
Faudrait creuser ça... Je me le garde sous le coude.
Il y a même un mode emacs pour faire du STAN! Je sens que je vais vraiment tester l'outil très prochainement...
Une discussion intéressante autour des critiques de l'ABC. À suivre