2380 shaares
Notre ex-ministre de l'écologie, quémandant une circonscription à Mitterrand le jour de son investiture en 1988. Et 30 ans plus tard:
http://www.lexpress.fr/actualite/politique/le-reproche-de-royal-a-macron-je-lui-avais-pourtant-demande-de-me-prevenir_1911437.html#xtor=AL-447
http://www.lexpress.fr/actualite/politique/le-reproche-de-royal-a-macron-je-lui-avais-pourtant-demande-de-me-prevenir_1911437.html#xtor=AL-447
Un xkcd que je me mets sous le coude. Très belle illustration de ce que certains pensent être le machine learning.
Intéressant. Ya des liens sympas aussi sur des articles sur le même thème. J'y savais bien un peu.
Marrant. Dans un terminal, on tape:
telnet towel.blinkenlights.nl
Et ça lance star wars en mode texte...
telnet towel.blinkenlights.nl
Et ça lance star wars en mode texte...
Via Andrew Gelman. Super intéressant.
Intéressant
Marrant. Super article.
Encore un SMBC marrant
à lire
Alors ça c'est pas mal!
Une petite explication de ce qui nous attend. Ça me déprime...
La réponse dont j'ai besoin pour répondre à un référé: quelles sont les conditions nécessaires pour que la rotation d'une fonction par rapport à l'origine selon un angle theta soit encore une fonction dans le nouveau repère (i.e. que pour tout x on n'ait qu'une et une seule valeur de y)?
Il y a un logiciel programmable en langage JAGS qui implément le sequential monte carlo!!!!!
Par des mecs de l'INRIA, le truc a l'air super propre, c'est génial.
Par des mecs de l'INRIA, le truc a l'air super propre, c'est génial.
La vache (c'est le cas de le dire). Un blaireau américain qui va enterrer une VACHE entière!
Comment les splines rejoignent la piecewise regression. Je n'y avait jamais pensé, mais une régression par segment est effectivement un ajustement de spline...
Encore les Bolloré...
Oh putain! Ya des trucs géniaux là-dedans.
À creuser dans un édit ultérieur.
À creuser dans un édit ultérieur.
Oui, j'aurais dû m'en douter:
Si $X \sim U(0, 1)$ alors $\log(X/(1−X)) \sim Logistic(0, 1)$
Autrement dit, si X suit une loi uniforme entre 0 et 1, le logit de X suit une loi logistique (0,1).
Exemple sous R:
oo <- rlogis(10000)
hist(exp(oo)/(1+exp(oo)))
Ce dernier histogramme est bien uniforme. C'est assez pratique pour définir, dans un modèle bayésien, une prior sur Y=logit(X) en s'assurant que la prior de X est uniforme entre 0 et 1.
Quand il est plus pratique de définir Y comme paramètre d'intérêt (e.g. dans un metropolis avec une proposal gaussienne, quand c'est merdique d'avoir des bornes et qu'on ne veut pas passer son temps à jongler entre les logit et inverse logit).
Si $X \sim U(0, 1)$ alors $\log(X/(1−X)) \sim Logistic(0, 1)$
Autrement dit, si X suit une loi uniforme entre 0 et 1, le logit de X suit une loi logistique (0,1).
Exemple sous R:
oo <- rlogis(10000)
hist(exp(oo)/(1+exp(oo)))
Ce dernier histogramme est bien uniforme. C'est assez pratique pour définir, dans un modèle bayésien, une prior sur Y=logit(X) en s'assurant que la prior de X est uniforme entre 0 et 1.
Quand il est plus pratique de définir Y comme paramètre d'intérêt (e.g. dans un metropolis avec une proposal gaussienne, quand c'est merdique d'avoir des bornes et qu'on ne veut pas passer son temps à jongler entre les logit et inverse logit).
Je connaissais le brainfuck et intercal. Les autres sont marrant (whitespace doit être le pire)