2396 shaares
There’s been a movement which has said that most research is wrong. It’s making people feel they’re doing something wrong, but that’s not the problem. The problem is that the publication system pushes you because you can only publish if you get a good, that is, small, p-value [a statistical test that indicates whether results could be due to chance]. Researchers then massage the data until they get the p-value and then it’s not reproducible. But if we were much more transparent and said, “You’re allowed to publish things which are significant or not significant because it’s useful down the road and just publish all your data and the code you used for the analyses” – if you’re transparent about what you’re doing, there’s much less opportunity to shoehorn the data into some wrong conclusion.
I feel that people misuse summaries in statistics. They feel as if statistics is going to summarize everything into one value, as if one p-value is going to summarize five years of work. It’s ridiculous. Everything is multidimensional, it’s complex. But if we could publish more of the negative results and all of the data, we would advance science much faster, because people would get insight from the negative results.
I feel that people misuse summaries in statistics. They feel as if statistics is going to summarize everything into one value, as if one p-value is going to summarize five years of work. It’s ridiculous. Everything is multidimensional, it’s complex. But if we could publish more of the negative results and all of the data, we would advance science much faster, because people would get insight from the negative results.
Intéressant.
Intéressant
Intéressant
A lire absolument.
Sur l'absence de garantie pour l'utilisation de R.
A lire
Tiens ? je connaissais pas...
À lire.
À garder sous le coude
HÉ BEN C'EST PAS LES SEULS !
Idem
Super présentation, avec plein de sources
Très intéressant !
De toute façon sans s pour dire quoiqu'il en soit.
Super source de thèmes pour la préparation de présentation
Super conseils pour préparer des présentations
Une réponse super-claire à une question que je me posais depuis longtemps. Quelle erreur max peut-on attendre sur une mesure de distance si l'on considère la terre comme une sphère. Réponse, assez peu étonnante : 22km (ce qui correspond à la différence entre le rayon à l'équateur et celui au pôle). Le gars fait une superbe carto des erreurs de distance à partir d'un point localisé en Camargue, et on peut voir que l'erreur monte vite. De la Camargue en Russie, ça peut faire déjà 5km de différence. Mais, en termes d'erreur relative, ça ne dépassera jamais 0.5% de la distance réelle.
Marrant : ils prennent une image en bitmap (noir et blanc), échantillonnent des pixels, et utilisent un algo pour trouver le plus court chemin passant par les pixels échantillonnés (pb du voyageur de commerce). Résultat: un portrait en une ligne.
Le mec va plus loin: il va prendre une image en niveaux de gris, et va échantillonner les pixels proportionnellement au poids défini par le niveau de gris. Il répète le processus 250 fois, et ça rend l'impression d'une image faite au crayon. Ici : https://fronkonstin.com/2018/04/17/pencil-scribbles/
Le mec va plus loin: il va prendre une image en niveaux de gris, et va échantillonner les pixels proportionnellement au poids défini par le niveau de gris. Il répète le processus 250 fois, et ça rend l'impression d'une image faite au crayon. Ici : https://fronkonstin.com/2018/04/17/pencil-scribbles/
L'estimation d'erreurs types pour les régressions lasso, c'est visiblement un sacré bordel.