2369 shaares
447 results
tagged
stats
Comment les splines rejoignent la piecewise regression. Je n'y avait jamais pensé, mais une régression par segment est effectivement un ajustement de spline...
Oui, j'aurais dû m'en douter:
Si $X \sim U(0, 1)$ alors $\log(X/(1−X)) \sim Logistic(0, 1)$
Autrement dit, si X suit une loi uniforme entre 0 et 1, le logit de X suit une loi logistique (0,1).
Exemple sous R:
oo <- rlogis(10000)
hist(exp(oo)/(1+exp(oo)))
Ce dernier histogramme est bien uniforme. C'est assez pratique pour définir, dans un modèle bayésien, une prior sur Y=logit(X) en s'assurant que la prior de X est uniforme entre 0 et 1.
Quand il est plus pratique de définir Y comme paramètre d'intérêt (e.g. dans un metropolis avec une proposal gaussienne, quand c'est merdique d'avoir des bornes et qu'on ne veut pas passer son temps à jongler entre les logit et inverse logit).
Si $X \sim U(0, 1)$ alors $\log(X/(1−X)) \sim Logistic(0, 1)$
Autrement dit, si X suit une loi uniforme entre 0 et 1, le logit de X suit une loi logistique (0,1).
Exemple sous R:
oo <- rlogis(10000)
hist(exp(oo)/(1+exp(oo)))
Ce dernier histogramme est bien uniforme. C'est assez pratique pour définir, dans un modèle bayésien, une prior sur Y=logit(X) en s'assurant que la prior de X est uniforme entre 0 et 1.
Quand il est plus pratique de définir Y comme paramètre d'intérêt (e.g. dans un metropolis avec une proposal gaussienne, quand c'est merdique d'avoir des bornes et qu'on ne veut pas passer son temps à jongler entre les logit et inverse logit).
Via Mathieu. Ya deux-trois graphiques qui laissent rêveurs... à creuser plus en détail.
A lire
Un algorithme qui va essayer d'identifier la bonne réponse à une question factuelle posée à une foule: la bonne réponse n'est pas nécessairement la réponse majoritaire.
À creuser.
À creuser.
Nouveau blog à suivre! Frank Harrell démarre un blog. Je me suis abonné.
Oui, ça me fait toujours sourire d'entendre les anti-bayésien argumenter sur l'objectivité du fréquentisme...
Excellent post de John Cook, basé sur une déclaration d'Andrew Gelman, qui met le doigt sur un aspect important du Bayésien. Souvent critiqué pour sa subjectivité affichée, il peut en réalité se révéler plus objectif qu'une approche fréquentiste. Le cœur de ce point de vue de Gelman:
"Bayesian methods can in many ways be more “objective” than conventional approaches in that Bayesian inference, with its smoothing and partial pooling, is well adapted to including diverse sources of information and thus can reduce the number of data coding or data exclusion choice points in an analysis."
Illustré par John Cook: si je dois prendre une décision concernant un problème (e.g. autoriser telle ou telle décision politique), et trop peu d'individus pour une analyse fréquentiste. La décision sera alors prise complètement subjectivement. Le bayésien permet de tirer parti du minimum d'individus dont on dispose. Ça reste subjectif car la prior va avoir un poids important, mais moins que l'approche alternative.
"Bayesian methods can in many ways be more “objective” than conventional approaches in that Bayesian inference, with its smoothing and partial pooling, is well adapted to including diverse sources of information and thus can reduce the number of data coding or data exclusion choice points in an analysis."
Illustré par John Cook: si je dois prendre une décision concernant un problème (e.g. autoriser telle ou telle décision politique), et trop peu d'individus pour une analyse fréquentiste. La décision sera alors prise complètement subjectivement. Le bayésien permet de tirer parti du minimum d'individus dont on dispose. Ça reste subjectif car la prior va avoir un poids important, mais moins que l'approche alternative.
La vache!! et l'auteur répond dans les commentaires, il est extraordinaire. Voir le commentaire qui veut tout dire:
http://andrewgelman.com/2016/12/05/best-algorithm-ever/#comment-358265
En première lecture, je pensais que c'était du deuxième degré...
Le gars il a fait son algo, il ne vend que ça. Il a créé son propre journal autour de ça, et il ne publie que dedans (il a une page researchgate)
http://andrewgelman.com/2016/12/05/best-algorithm-ever/#comment-358265
En première lecture, je pensais que c'était du deuxième degré...
Le gars il a fait son algo, il ne vend que ça. Il a créé son propre journal autour de ça, et il ne publie que dedans (il a une page researchgate)
"Dear Major Textbook Publisher": A Rant - Statistical Modeling, Causal Inference, and Social Science
Les commentaires sont intéressants aussi.
J'avoue que j'ai lancé une biblio sur le sujet, il y a des développements stats super intéressants sur ce sujet récemment, voir Andrieu et al. par exemple, et je pense que ces approches pourraient être amenées à se développer prochainement, de façon assez impressionnante. À suivre.
Le groupe paraît intéressant en tous cas...
Le groupe paraît intéressant en tous cas...
Encore un article super bien écrit sur le caractère non nécessaire de faire commencer les axes des ordonnées à 0. Les exemples sont limpides.
Oulah c'est du lourd. Discussion entre Ben Bolker, Bob Carpenter, Christian (Robert?), et Andrew Gelman sur l'utilisation des BIC pour identifier les clusters dans les modèles de mouvements utilisés par les écologues. Faut que je prenne le temps de lire le truc, mais ça à l'air très intéressant, à plus d'un titre.
Morceau choisi: "I think BIC is fundamentally different from AIC, WAIC, LOO, etc, in that all those other things are estimates of out-of-sample prediction error, while BIC is some weird thing that under certain ridiculous special cases corresponds to an approximation to the log marginal probability."
Il semble pas hyper convaincu par le BIC... c'est pourtant un critère que j'aime bien (plus que l'AIC quand l'objectif est explicatif). Faut que je prenne le temps de creuser ces arguments, je voudrais pas passer à côté d'un aspect important.
Morceau choisi: "I think BIC is fundamentally different from AIC, WAIC, LOO, etc, in that all those other things are estimates of out-of-sample prediction error, while BIC is some weird thing that under certain ridiculous special cases corresponds to an approximation to the log marginal probability."
Il semble pas hyper convaincu par le BIC... c'est pourtant un critère que j'aime bien (plus que l'AIC quand l'objectif est explicatif). Faut que je prenne le temps de creuser ces arguments, je voudrais pas passer à côté d'un aspect important.
YEEEEEEEES.
Très bonne analyse de la situation. Conclusion:
"So I think we—the statistics profession—should be offering guidelines on the design of exploratory studies."
Il me semble aussi.
ya déjà quelques éléments. J'ai survolé les commentaires, ya des discussions très intéressantes.
Décidément Andrew Gelman est un grand Monsieur...
Très bonne analyse de la situation. Conclusion:
"So I think we—the statistics profession—should be offering guidelines on the design of exploratory studies."
Il me semble aussi.
ya déjà quelques éléments. J'ai survolé les commentaires, ya des discussions très intéressantes.
Décidément Andrew Gelman est un grand Monsieur...
J'avions point vu. À tester.
(via Mathieu)
(via Mathieu)
Je connaissais pas. Mais je vais en avoir besoin!
L'article a l'air super intéressant, et les refs aussi (notamment une dans MEE sur l'analyse bayésienne des mouvements). En plus j'aime bien le deuxième auteur, il fait souvent des choses intéressantes.
À lire donc.
À lire donc.
Quelques bonnes lectures... Même si perso, je suis pas sûr que j'emmenerais un livre de stats sur une île déserte.
Un blog super intéressant avec plein de tutos pour R.
À diffuser!
À diffuser!
Un blog très intéressant. Pas mal de conseils pour assurer la reproductibilité des analyses, utiliser knitr, les makefiles, etc.
À lire, ça m'a l'air d'une source d'info très utile!
À lire, ça m'a l'air d'une source d'info très utile!