2385 shaares
Super illustration de l'approche. L'exemple de ffriend est limpide.
La règle de dérivation en chaîne multivariée, utilisée pour la /reverse mode algorithmic differentiation/, à son tour utilisée dans STAN.
Rapidement, si z = h(x,y), et si (i) x = f(t) et (ii) y = g(t), alors (dz/dt) = (dh/dx)*(dx/dt) + (dh/dy)*(dy/dt)
Bonne explication du pourquoi.
Rapidement, si z = h(x,y), et si (i) x = f(t) et (ii) y = g(t), alors (dz/dt) = (dh/dx)*(dx/dt) + (dh/dy)*(dy/dt)
Bonne explication du pourquoi.
Intéressant scepticisme de Douglas Bates concernant la généralisation du R2 au cas des modèles mixtes.
Un petit "truc" rigolo tiré de Gelman et Hill : dans une régression logistique, la pente de la courbe est maximisée pour a + bX = 0.
Alors la dérivée de exp(a+bX)/(1+exp(a+bX)) à cet endroit de pente maximale vaut b*exp(a+bX)/((1+exp(a+bX))^2.
Alors, lorsque la pente de cette courbe maximale est b*exp(0)/(1+exp(0))^2 = b/4.
Autrement dit, si on a une régression logistique avec une pente de b, alors on divise b par 4, et on a une approximation de la différence max de la proba que y=1 pour chaque augmentation de une unité de X.
Par exemple, si le coefficient de régression vaut 0.8, alors une augmentation de une unité de x vaut une augmentation de 0.8/4=0.2 de la proba de y=1.
Bien sûr, l'approximation marche mieux quand la proba prédite est proche de 0.5, et soit quand beta est proche de 0, soit quand x varie peu (voir le commentaire de Ben Bolker).
Peut toujours servir.
Alors la dérivée de exp(a+bX)/(1+exp(a+bX)) à cet endroit de pente maximale vaut b*exp(a+bX)/((1+exp(a+bX))^2.
Alors, lorsque la pente de cette courbe maximale est b*exp(0)/(1+exp(0))^2 = b/4.
Autrement dit, si on a une régression logistique avec une pente de b, alors on divise b par 4, et on a une approximation de la différence max de la proba que y=1 pour chaque augmentation de une unité de X.
Par exemple, si le coefficient de régression vaut 0.8, alors une augmentation de une unité de x vaut une augmentation de 0.8/4=0.2 de la proba de y=1.
Bien sûr, l'approximation marche mieux quand la proba prédite est proche de 0.5, et soit quand beta est proche de 0, soit quand x varie peu (voir le commentaire de Ben Bolker).
Peut toujours servir.
Une approche permettant de comparer des graphes.
Connaissais pas. Permet de modéliser des continuités écologiques.
C'est pas la première fois que je vois ça : la suggestion d'une loterie pour attribuer les financements. À suivre.
Démarche pour générer de l'art ASCII exécutable sous R. Marrant
Tout le monde utilise ça en ce moment. Connaissais pas.
Il est rigolo ce site qui explique l'utilisation de purrr.
Délire ! On peut envoyer des mails avec R !
Un site de référence pour ggplot2. Assez génial.
Un nouveau package sous R pour l'analyse de mouvements. Basé sur l'analyse de récursion. M'a l'air pas mal du tout, mais pour le moment, j'ai lu qu'en diagonale.
"In many classical models this only captures the location of the distribution but over the last decade there has been increasing interest in distributional regression approaches modeling all parameters including location, scale, and shape."
Il existe des méthodes de modélisations distributionelles, mais elles supposent que l'on connaît déjà les prédicteurs pertinents. Il y a des méthodes de sélection des prédicteurs, mais qui ne permettent pas la modélisation distributionnelle. D'où des arbres et forêts distributionnels. M'a l'air rigolo cette histoire.
Il existe des méthodes de modélisations distributionelles, mais elles supposent que l'on connaît déjà les prédicteurs pertinents. Il y a des méthodes de sélection des prédicteurs, mais qui ne permettent pas la modélisation distributionnelle. D'où des arbres et forêts distributionnels. M'a l'air rigolo cette histoire.
Graphe important. Quand l'effet est faible et que le bruit est important (donc quand la puissance est faible, ici de 0.06), se focaliser sur les effets significatifs conduit à des effets dont la magnitude est 9 fois plus importante que l'effet réel et qui ont une chance sur quatre d'avoir le mauvais signe.
En lien avec l'article précédent dans mon shaarli : plus une étude est caractérisée par du bruit, moins on peut avoir confiance dans les effets significatifs.
En lien avec l'article précédent dans mon shaarli : plus une étude est caractérisée par du bruit, moins on peut avoir confiance dans les effets significatifs.
"So, we’ve seen from statistical analysis that the “What does not kill my statistical significance makes it stronger” is a fallacy: Actually, the noisier the study, the less we learn from statistical significance."
Le truc, c'est que quand il y a beaucoup de bruit dans une étude, un résultat significatif tendra à indiquer un effet dont la magnitude tendra à être plus importante que l'effet réel, et dont le signe peut même aller dans le mauvais sens.
Le truc, c'est que quand il y a beaucoup de bruit dans une étude, un résultat significatif tendra à indiquer un effet dont la magnitude tendra à être plus importante que l'effet réel, et dont le signe peut même aller dans le mauvais sens.
De l'intérêt de viridis comme palette par défaut, intérêt mesuré par des études sur la perception.
Package intéressant !
Une personne intéressante à suivre, semble-t-il. Son package COGugaison est un package toujours bon à garder sous le coude, pour identifier les changements de noms, de code, etc des communes françaises.
La palette viridis comme palette de couleur idéale.