2387 shaares
Sur la distribution gamma. Le paramètre beta est un paramètre d'échelle (scale), et il est parfois utile de le fixer égal à 1. On parle alors de la forme standard de la distribution gamma (standard form, standard gamma, etc.). Voir aussi Johnson et al. (1995, continuous univariate distribution, volume 1, p. 337, équation 17.2).
À noter aussi: sous R comme sous JAGS, par défaut le paramètre contrôlant ce "scaling" est le taux (rate) = 1/paramètre d'échelle. Et par défaut, ce paramètre vaut 1 sous R.
À noter aussi: sous R comme sous JAGS, par défaut le paramètre contrôlant ce "scaling" est le taux (rate) = 1/paramètre d'échelle. Et par défaut, ce paramètre vaut 1 sous R.
Tout ce que vous avez toujours voulu savoir sur la loi binomiale négative sans jamais oser le demander
Une autre solution au slicer coincé à l'infini. Et une explication au problème...
grrrrrr
Edit: si le problème se produit, il ne faut pas oublier que la distribution gamma inclue une *fonction* gamma, et que Gamma(x) = (x-1)!
Et la factorielle augmente assez fortement avec x. Donc pour une distribution gamma G(a,b), si a est trop important, Gamma(a) ne pourra être calculé numériquement, et ça se traduira par une valeur infinie. Un bidouillage consiste à tronquer la prior de a si a est une variable à estimer.
grrrrrr
Edit: si le problème se produit, il ne faut pas oublier que la distribution gamma inclue une *fonction* gamma, et que Gamma(x) = (x-1)!
Et la factorielle augmente assez fortement avec x. Donc pour une distribution gamma G(a,b), si a est trop important, Gamma(a) ne pourra être calculé numériquement, et ça se traduira par une valeur infinie. Un bidouillage consiste à tronquer la prior de a si a est une variable à estimer.
La loi gamma est une loi de merde. Mais malheureusement, parfois inévitable.
Intéressant: les 7 piliers de la sagesse statistique d'après Stigler.
il existe une différence entre nombres pseudo-aléatoires (ceux que l'on utilise dans R), et nombres quasi-aléatoires, qui construisent les séquences à discrépance faible (la discrépance d'une suite est faible si la proportion des points de la suite sur un ensemble B est proche de la valeur de la mesure de B, ce qui est le cas en moyenne (mais pas pour des échantillons particuliers) pour une suite équidistribuée). On s'en sert parfois pour remplacer les nombres pseudo-aléatoire
Une thèse. Paraitrait qu'elle est pas mal.
Plein d'alias rigolo pour bash
Une belle animation décrivant une technique de calcul du produit vectoriel en physique.
Poisson d'avril? Sinon, ça craint vraiment.
via le hollandais volant.
via le hollandais volant.
Je me stocke ça ici pour si jamais un jour je retombe sur le même problème. Quand on ajuste un modèle de tendance temporelle avec des résidus autocorrélés selon un modèle de corrélation exponentielle (Diggle et al. 2002, Analysis of longitudinal data, p. 56) avec JAGS, il ne faut pas générer les résidus en tirant dans une loi multinormale de moyenne nulle que l'on va ajouter à une tendance. Il faut tirer dans une loi multinormale dont le vecteur moyenne EST la tendance. Je me suis arraché les cheveux là-dessus, mais le mélange est bien meilleur si l'on procède comme ça. Autrement dit, il ne faut pas faire ça:
residus~dmnorm(vecteurDeZeros, Omega)
for (i in 1:10) {
esperance[i]<- mu[i] + residus[i]
}
Mais plutôt faire ça:
esperance~dmnorm(mu, Omega)
Les chaînes se mélangent mieux. Fallait le savoir...
Edit: Bon apparemment, la stratégie est connue et est valable pour tout modèle linéaire réclamant un résidu quelconque: on ne doit jamais tirer au sort un résidu dans une loi normale de moyenne nulle. Mais on indique que la réponse suit une loi normale de moyenne correspondant à l'espérance modélisée. Ça s'appelle du hierarchical centring (voir Browne et al. 2009, dans Journal of the Royal Statistical Society). Par contre, il paraît que ça marche pas top quand la variance est faible.
residus~dmnorm(vecteurDeZeros, Omega)
for (i in 1:10) {
esperance[i]<- mu[i] + residus[i]
}
Mais plutôt faire ça:
esperance~dmnorm(mu, Omega)
Les chaînes se mélangent mieux. Fallait le savoir...
Edit: Bon apparemment, la stratégie est connue et est valable pour tout modèle linéaire réclamant un résidu quelconque: on ne doit jamais tirer au sort un résidu dans une loi normale de moyenne nulle. Mais on indique que la réponse suit une loi normale de moyenne correspondant à l'espérance modélisée. Ça s'appelle du hierarchical centring (voir Browne et al. 2009, dans Journal of the Royal Statistical Society). Par contre, il paraît que ça marche pas top quand la variance est faible.
Marrant
Les IF 2013 sont arrivés
À récupérer et à lire
La nation bab par excellence. Je savais même pas que ça existait.
Je ne connaissais pas ce concept, qui est le concept opposé à la notion d'indépendance.
Application du théorème de Slutsky pour démontrer qu'une variable centrée et réduite multipliée par sqrt(n) converge en distribution vers une loi normale centrée et réduite quand n tend vers l'infini.
Base de données de fond d'écrans
Via le hollandais volant. Je me suis toujours demandé s'il existait des bons bouquins retraçant l'histoire de la langue. Le journaliste donne des refs