2379 shaares
Réponse intéressante de Ben Bolker, reposant sur le package lmperm, permettant l'ajustement de modèles linéaires avec test par permutation. À creuser, un jour.
Un shaded relief sous R. S'appuie sur le package metR du gars sur github
Package units, pour gérer les unités de mesure sous R.
Liste des livres de stats préférés de Aki Vehtari. Ceux que je connais sont effectivement incontournables. Me reste à lire les autres !
Package intéressant pour manipuler des résultats de MCMCglmm, disponibles sur github : postMCMCglmm.
Faut vraiment que je me penche sur ces nouveaux packages
Ah ? Ça m'intéresse
A lire
Tiens un numéro spécial qui semble intéressant
Un bouquin intéressant sur le text mining. Je pense que j'en aurai bientôt besoin...
Un site intéressant
Une série de blogs sur l'utilisation de PostGIS pour l'analyse de mouvements. Via Mathieu.
Semble intéressant, à lire donc.
Quand un outbreak se termine-t-il ?
Super illustration de l'approche. L'exemple de ffriend est limpide.
La règle de dérivation en chaîne multivariée, utilisée pour la /reverse mode algorithmic differentiation/, à son tour utilisée dans STAN.
Rapidement, si z = h(x,y), et si (i) x = f(t) et (ii) y = g(t), alors (dz/dt) = (dh/dx)*(dx/dt) + (dh/dy)*(dy/dt)
Bonne explication du pourquoi.
Rapidement, si z = h(x,y), et si (i) x = f(t) et (ii) y = g(t), alors (dz/dt) = (dh/dx)*(dx/dt) + (dh/dy)*(dy/dt)
Bonne explication du pourquoi.
Intéressant scepticisme de Douglas Bates concernant la généralisation du R2 au cas des modèles mixtes.
Un petit "truc" rigolo tiré de Gelman et Hill : dans une régression logistique, la pente de la courbe est maximisée pour a + bX = 0.
Alors la dérivée de exp(a+bX)/(1+exp(a+bX)) à cet endroit de pente maximale vaut b*exp(a+bX)/((1+exp(a+bX))^2.
Alors, lorsque la pente de cette courbe maximale est b*exp(0)/(1+exp(0))^2 = b/4.
Autrement dit, si on a une régression logistique avec une pente de b, alors on divise b par 4, et on a une approximation de la différence max de la proba que y=1 pour chaque augmentation de une unité de X.
Par exemple, si le coefficient de régression vaut 0.8, alors une augmentation de une unité de x vaut une augmentation de 0.8/4=0.2 de la proba de y=1.
Bien sûr, l'approximation marche mieux quand la proba prédite est proche de 0.5, et soit quand beta est proche de 0, soit quand x varie peu (voir le commentaire de Ben Bolker).
Peut toujours servir.
Alors la dérivée de exp(a+bX)/(1+exp(a+bX)) à cet endroit de pente maximale vaut b*exp(a+bX)/((1+exp(a+bX))^2.
Alors, lorsque la pente de cette courbe maximale est b*exp(0)/(1+exp(0))^2 = b/4.
Autrement dit, si on a une régression logistique avec une pente de b, alors on divise b par 4, et on a une approximation de la différence max de la proba que y=1 pour chaque augmentation de une unité de X.
Par exemple, si le coefficient de régression vaut 0.8, alors une augmentation de une unité de x vaut une augmentation de 0.8/4=0.2 de la proba de y=1.
Bien sûr, l'approximation marche mieux quand la proba prédite est proche de 0.5, et soit quand beta est proche de 0, soit quand x varie peu (voir le commentaire de Ben Bolker).
Peut toujours servir.
Une approche permettant de comparer des graphes.
Connaissais pas. Permet de modéliser des continuités écologiques.