2352 shaares
50 results
tagged
maths
Source intéressante sur le pb
Intéressant, justement, j'avais besoin de ça.
1 n'est pas un nombre premier, sinon ça fout le bordel dans certains théorèmes mathématiques. Un nombre premier est divisible par 1 et par lui-même. Or, 1 est divisible par 1 et par lui-même, mais 1 et lui-même ne sont pas des nombres différents, et ça ça fout le bazar.
C'est vraiment pas intuitif... Mais c'est marrant
Intéressant.
Ntzoufras 2009 (p. 276) décrit une stratégie appelée "ones trick", "zeroes trick" voire "zero-ones trick" qui permet d'ajuster n'importe quelle distribution avec jags. L'idée est de considérer que la vraisemblance est égale au produit des exponentielles des log-vraisemblances individuelles, produit que l'on peut réexprimer comme la vraisemblance d'une loi de Poisson résultant dans un vecteur de zéro. Voir Ntzoufras, l'idée est géniale.
La somme d'un nombre aléatoire N de variables poissoniennes avec N lui-même tiré d'une loi de poisson n'est pas une loi de Poisson.
Un regard intéressant sur la notion d'espérance. Très axé math statistique, mais effectivement, ça donne une intuition de l'espérance comme différence de deux surfaces, que l'on peut calculer de deux façons différentes.
Une pointure en maths, un nommé Atiyah, aurait démontré l'hypothèse de Riemann, mais les matheux restent sceptiques :
"Atiyah has produced a number of papers in recent years making remarkable claims which have so far failed to convince his peers. While his latest proof has yet to undergo the rigorous peer review process necessary to test its validity, the initial reaction has been one of cautious scepticism. Most mathematicians contacted by New Scientist declined to comment on the work."
Sur twitter, les commentaires étaient "we have homework". J'imagine qu'il doit falloir quelque temps pour digérer la preuve, et savoir si c'est du lard ou du cochon... À suivre !
"Atiyah has produced a number of papers in recent years making remarkable claims which have so far failed to convince his peers. While his latest proof has yet to undergo the rigorous peer review process necessary to test its validity, the initial reaction has been one of cautious scepticism. Most mathematicians contacted by New Scientist declined to comment on the work."
Sur twitter, les commentaires étaient "we have homework". J'imagine qu'il doit falloir quelque temps pour digérer la preuve, et savoir si c'est du lard ou du cochon... À suivre !
Une approche permettant de comparer des graphes.
Un nombre premier dont la représentation en binaire est une girafe. Marrant.
Les forêts aléatoires avec random effect, ça existe!
En python, mais ça existe...
En python, mais ça existe...
Comment arrondir des pourcentages tout en maintenant le total à 100%. J'aime bien la première réponse. On prend les parties entières, on fait la somme. On obtient un nombre X. On calcule la différence Y=100-X. Puis on ajoute 1 aux Y parties entières dont les parties décimales sont les plus élevées.
Via Andrew Gelman. Super intéressant.
La réponse dont j'ai besoin pour répondre à un référé: quelles sont les conditions nécessaires pour que la rotation d'une fonction par rapport à l'origine selon un angle theta soit encore une fonction dans le nouveau repère (i.e. que pour tout x on n'ait qu'une et une seule valeur de y)?
Oui, j'aurais dû m'en douter:
Si $X \sim U(0, 1)$ alors $\log(X/(1−X)) \sim Logistic(0, 1)$
Autrement dit, si X suit une loi uniforme entre 0 et 1, le logit de X suit une loi logistique (0,1).
Exemple sous R:
oo <- rlogis(10000)
hist(exp(oo)/(1+exp(oo)))
Ce dernier histogramme est bien uniforme. C'est assez pratique pour définir, dans un modèle bayésien, une prior sur Y=logit(X) en s'assurant que la prior de X est uniforme entre 0 et 1.
Quand il est plus pratique de définir Y comme paramètre d'intérêt (e.g. dans un metropolis avec une proposal gaussienne, quand c'est merdique d'avoir des bornes et qu'on ne veut pas passer son temps à jongler entre les logit et inverse logit).
Si $X \sim U(0, 1)$ alors $\log(X/(1−X)) \sim Logistic(0, 1)$
Autrement dit, si X suit une loi uniforme entre 0 et 1, le logit de X suit une loi logistique (0,1).
Exemple sous R:
oo <- rlogis(10000)
hist(exp(oo)/(1+exp(oo)))
Ce dernier histogramme est bien uniforme. C'est assez pratique pour définir, dans un modèle bayésien, une prior sur Y=logit(X) en s'assurant que la prior de X est uniforme entre 0 et 1.
Quand il est plus pratique de définir Y comme paramètre d'intérêt (e.g. dans un metropolis avec une proposal gaussienne, quand c'est merdique d'avoir des bornes et qu'on ne veut pas passer son temps à jongler entre les logit et inverse logit).
Une preuve rigolotte, qui tient en une ligne, qui démontre qu'il existe un nombre infini de nombre premiers.
Très intéressant
Très intéressant
Des infos sur la somme de log-normales. À lire.
Quelques conseils de programmation pour sommer des variables lorsque l'on travaille avec les log-transformées de ces variables. Créer une fonction:
log_sum_exp(u, v) = max(u, v) + log(exp(u - max(u, v)) + exp(v - max(u, v)))
log_sum_exp(u, v) = max(u, v) + log(exp(u - max(u, v)) + exp(v - max(u, v)))
Celui là, je me le garde sous le coude.