2351 shaares
Très intéressant. "Conducting a trial, and then refusing to let anyone see the data, is like claiming you’ve flown a spaceship to Pluto, but refusing to let anyone see the photos."
Très intéressant: le gars était bloggeur iranien, a fait de la prison pour ça. Il est libéré 6 ans après, et note que le web s'est transformé en télévision. Twitter, facebook. Centralisation au maximum, et de moins en moins de texte. Les sites de réseaux sociaux tendant à restreindre les déplacements sur le web (tout doit se passer sur le site du réseau).
On est bien d'accord... Si je me suis mis à twitter pour me tenir au courant, je ne tweete pas moi-même, et cet outil tend à me gonfler sérieusement...
On est bien d'accord... Si je me suis mis à twitter pour me tenir au courant, je ne tweete pas moi-même, et cet outil tend à me gonfler sérieusement...
À lire
Ouh mais ça m'a l'air intéressant ça... à lire.
Ver Hoef et Boveng, 2007. Très intéressant. Résumé:
Les auteurs comparent l'approche quasi-poisson et binomiale négative pour prendre en compte la surdispersion. Sur un plan théorique et sur un plan pratique. Les deux principales différences entre ces approches sont:
* Dans la relation entre moyenne et variance: pour la quasi-Poisson, on a (Var = theta*mu) et pour la binomiale négative, on a (Var = mu + kappa*mu). Pour savoir lequel des deux est meilleur, il est recommandé d'ajuster les deux modèles, puis de représenter les carrés des résidus (y-mu)^2, qui représentent la variance, en fonction de mu. Comme ces graphes sont en général assez bordéliques, les auteurs recommandent de découper en catégories de mu et de calculer la moyenne des carrés des résidus (donc la variance) dans chaque catégorie. La relation entre les deux est-elle linéaire ou quadratique?
* Dans les poids pris par les observations lors de l'ajustement. En général, on utilise l'IRLS pour ajuster ces modèles. C'est un moindre carré dans lequel on utilise une matrice de poids particulière pour les observations. La seule différence entre quasi-poisson et binomiale négative tient dans ces poids (le reste est identique entre les deux approche). On voit alors que
- Pour la quasi-Poisson, le poids de l'observation i est mu_i/theta (avec theta le coef de surdispersion)
- Pour la binomiale négative, le poids est (mu_i / (1+kappa*mu_i))
Donc, quand mu_i devient grand, le poids de l'observation i devient grand en quasi-poisson, alors qu'il tends vers 1/kappa avec la BN. Il faut alors se poser la question du comportement le plus désirable en fonction de l'objectif. Dans celui présenté par les auteurs, i.e. estimer l'effectif de phoques, le comportement de la BN est problématique: "Our goal is to estimate overall abundance, which is dominated by the larger sites, and we prefer to have adjustments dominated by the effects at those larger sites". En plus, le graphe suggéré au premier point ci-dessus tend à favoriser la quasi-poisson.
J'aime bien la conclusion: "an important way to choose an appropriate model is based on sound scientific reasoning rather than a data-driven method". Toujours bon à rappeler. J'aime bien ces auteurs.
Les auteurs comparent l'approche quasi-poisson et binomiale négative pour prendre en compte la surdispersion. Sur un plan théorique et sur un plan pratique. Les deux principales différences entre ces approches sont:
* Dans la relation entre moyenne et variance: pour la quasi-Poisson, on a (Var = theta*mu) et pour la binomiale négative, on a (Var = mu + kappa*mu). Pour savoir lequel des deux est meilleur, il est recommandé d'ajuster les deux modèles, puis de représenter les carrés des résidus (y-mu)^2, qui représentent la variance, en fonction de mu. Comme ces graphes sont en général assez bordéliques, les auteurs recommandent de découper en catégories de mu et de calculer la moyenne des carrés des résidus (donc la variance) dans chaque catégorie. La relation entre les deux est-elle linéaire ou quadratique?
* Dans les poids pris par les observations lors de l'ajustement. En général, on utilise l'IRLS pour ajuster ces modèles. C'est un moindre carré dans lequel on utilise une matrice de poids particulière pour les observations. La seule différence entre quasi-poisson et binomiale négative tient dans ces poids (le reste est identique entre les deux approche). On voit alors que
- Pour la quasi-Poisson, le poids de l'observation i est mu_i/theta (avec theta le coef de surdispersion)
- Pour la binomiale négative, le poids est (mu_i / (1+kappa*mu_i))
Donc, quand mu_i devient grand, le poids de l'observation i devient grand en quasi-poisson, alors qu'il tends vers 1/kappa avec la BN. Il faut alors se poser la question du comportement le plus désirable en fonction de l'objectif. Dans celui présenté par les auteurs, i.e. estimer l'effectif de phoques, le comportement de la BN est problématique: "Our goal is to estimate overall abundance, which is dominated by the larger sites, and we prefer to have adjustments dominated by the effects at those larger sites". En plus, le graphe suggéré au premier point ci-dessus tend à favoriser la quasi-poisson.
J'aime bien la conclusion: "an important way to choose an appropriate model is based on sound scientific reasoning rather than a data-driven method". Toujours bon à rappeler. J'aime bien ces auteurs.
Ah bon, des nouveaux critères pour faire du multi-modèle en bayésiens, et des moyens efficaces de les calculer.
À lire
À lire
Le gars qui a découvert le satellite voulait l'appeler Char (surnom de sa femme Charlène). Mais ses collègues voulaient un dieu ou une déesse grecque associée à Pluton. Il propose alors Charon, qui était associé à Pluton (passeur des enfers). Pas prononcé Kharon comme dans la mythologie grecque, mais Sharon, en référence à sa femme. C'est aujourd'hui la prononciation recommandée par la Nasa, en hommage au gars.
Google commence à poser des brevets sur des idées en machine learning. Ça sent vraiment le roussi... Comme l'indique le commentateur sur reddit:
"I am afraid that Google has just started an arms race, which could do significant damage to academic research in machine learning. Now it's likely that other companies using machine learning will rush to patent every research idea that was developed in part by their employees. We have all been in a prisoner's dilemma situation, and Google just defected. Now researchers will guard their ideas much more combatively, given that it's now fair game to patent these ideas, and big money is at stake."
"I am afraid that Google has just started an arms race, which could do significant damage to academic research in machine learning. Now it's likely that other companies using machine learning will rush to patent every research idea that was developed in part by their employees. We have all been in a prisoner's dilemma situation, and Google just defected. Now researchers will guard their ideas much more combatively, given that it's now fair game to patent these ideas, and big money is at stake."
Putain, les mecs ils ont fait fort... Franchement, ça c'est de la photo!
Idem, à lire aussi... Curieux de savoir la politique édioriale de JWM sur les annexes.
A lire
Ah ben je comprends mieux l'intérêt de dplyr... L'évaluation non-standard va utiliser des opérations de bases de données. Je vais peut-être lui laisser sa chance à ce package.
Des tutos de R dans R. Super bien fichu c't'affaire. Je forwarde aux collègues.
Je vais peut-être m'en acheter quelques uns...
Pour suivre l'approche de Pluton par New Horizons. Fascinant...
Il existe un journal qui s'appelle "International Journal of Approximate Reasoning"!
Et qui sort un numéro spécial sur le non-paramétrique Bayésien...
Faut absolument que je me prenne du temps pour lire ça...
Et qui sort un numéro spécial sur le non-paramétrique Bayésien...
Faut absolument que je me prenne du temps pour lire ça...
A lire
Ben décidément, le bouquin de B&A sur l'AIC est bien remis en question en ce moment.
J'attends les photos haute résolution avec impatience...