2344 shaares
442 results
tagged
stats
Wikipedia pas recommandé pour l'autoapprentissage en stats.
Ça ça m'intéresse... sur le package brms. À lire
Alire
La vache, ça avance à une vitesse ! À lire absolument...
J'arrête pas d'en entendre parler de ça... Faudrait que je me prenne un moment pour creuser...
plein de pistes utiles
Greta pour le MCMC. Ça semble génial...
Réponse intéressante de Ben Bolker, reposant sur le package lmperm, permettant l'ajustement de modèles linéaires avec test par permutation. À creuser, un jour.
Un shaded relief sous R. S'appuie sur le package metR du gars sur github
Liste des livres de stats préférés de Aki Vehtari. Ceux que je connais sont effectivement incontournables. Me reste à lire les autres !
Ah ? Ça m'intéresse
Semble intéressant, à lire donc.
Quand un outbreak se termine-t-il ?
Super illustration de l'approche. L'exemple de ffriend est limpide.
La règle de dérivation en chaîne multivariée, utilisée pour la /reverse mode algorithmic differentiation/, à son tour utilisée dans STAN.
Rapidement, si z = h(x,y), et si (i) x = f(t) et (ii) y = g(t), alors (dz/dt) = (dh/dx)*(dx/dt) + (dh/dy)*(dy/dt)
Bonne explication du pourquoi.
Rapidement, si z = h(x,y), et si (i) x = f(t) et (ii) y = g(t), alors (dz/dt) = (dh/dx)*(dx/dt) + (dh/dy)*(dy/dt)
Bonne explication du pourquoi.
Intéressant scepticisme de Douglas Bates concernant la généralisation du R2 au cas des modèles mixtes.
Un petit "truc" rigolo tiré de Gelman et Hill : dans une régression logistique, la pente de la courbe est maximisée pour a + bX = 0.
Alors la dérivée de exp(a+bX)/(1+exp(a+bX)) à cet endroit de pente maximale vaut b*exp(a+bX)/((1+exp(a+bX))^2.
Alors, lorsque la pente de cette courbe maximale est b*exp(0)/(1+exp(0))^2 = b/4.
Autrement dit, si on a une régression logistique avec une pente de b, alors on divise b par 4, et on a une approximation de la différence max de la proba que y=1 pour chaque augmentation de une unité de X.
Par exemple, si le coefficient de régression vaut 0.8, alors une augmentation de une unité de x vaut une augmentation de 0.8/4=0.2 de la proba de y=1.
Bien sûr, l'approximation marche mieux quand la proba prédite est proche de 0.5, et soit quand beta est proche de 0, soit quand x varie peu (voir le commentaire de Ben Bolker).
Peut toujours servir.
Alors la dérivée de exp(a+bX)/(1+exp(a+bX)) à cet endroit de pente maximale vaut b*exp(a+bX)/((1+exp(a+bX))^2.
Alors, lorsque la pente de cette courbe maximale est b*exp(0)/(1+exp(0))^2 = b/4.
Autrement dit, si on a une régression logistique avec une pente de b, alors on divise b par 4, et on a une approximation de la différence max de la proba que y=1 pour chaque augmentation de une unité de X.
Par exemple, si le coefficient de régression vaut 0.8, alors une augmentation de une unité de x vaut une augmentation de 0.8/4=0.2 de la proba de y=1.
Bien sûr, l'approximation marche mieux quand la proba prédite est proche de 0.5, et soit quand beta est proche de 0, soit quand x varie peu (voir le commentaire de Ben Bolker).
Peut toujours servir.
"In many classical models this only captures the location of the distribution but over the last decade there has been increasing interest in distributional regression approaches modeling all parameters including location, scale, and shape."
Il existe des méthodes de modélisations distributionelles, mais elles supposent que l'on connaît déjà les prédicteurs pertinents. Il y a des méthodes de sélection des prédicteurs, mais qui ne permettent pas la modélisation distributionnelle. D'où des arbres et forêts distributionnels. M'a l'air rigolo cette histoire.
Il existe des méthodes de modélisations distributionelles, mais elles supposent que l'on connaît déjà les prédicteurs pertinents. Il y a des méthodes de sélection des prédicteurs, mais qui ne permettent pas la modélisation distributionnelle. D'où des arbres et forêts distributionnels. M'a l'air rigolo cette histoire.
Graphe important. Quand l'effet est faible et que le bruit est important (donc quand la puissance est faible, ici de 0.06), se focaliser sur les effets significatifs conduit à des effets dont la magnitude est 9 fois plus importante que l'effet réel et qui ont une chance sur quatre d'avoir le mauvais signe.
En lien avec l'article précédent dans mon shaarli : plus une étude est caractérisée par du bruit, moins on peut avoir confiance dans les effets significatifs.
En lien avec l'article précédent dans mon shaarli : plus une étude est caractérisée par du bruit, moins on peut avoir confiance dans les effets significatifs.
"So, we’ve seen from statistical analysis that the “What does not kill my statistical significance makes it stronger” is a fallacy: Actually, the noisier the study, the less we learn from statistical significance."
Le truc, c'est que quand il y a beaucoup de bruit dans une étude, un résultat significatif tendra à indiquer un effet dont la magnitude tendra à être plus importante que l'effet réel, et dont le signe peut même aller dans le mauvais sens.
Le truc, c'est que quand il y a beaucoup de bruit dans une étude, un résultat significatif tendra à indiquer un effet dont la magnitude tendra à être plus importante que l'effet réel, et dont le signe peut même aller dans le mauvais sens.