2369 shaares
189 results
tagged
science
Le gars qui a découvert le satellite voulait l'appeler Char (surnom de sa femme Charlène). Mais ses collègues voulaient un dieu ou une déesse grecque associée à Pluton. Il propose alors Charon, qui était associé à Pluton (passeur des enfers). Pas prononcé Kharon comme dans la mythologie grecque, mais Sharon, en référence à sa femme. C'est aujourd'hui la prononciation recommandée par la Nasa, en hommage au gars.
Pour suivre l'approche de Pluton par New Horizons. Fascinant...
Des journaux scientifiques se font pirater! On croit soumettre à une revue donnée, et en fait, on soumet à une autre revue du même nom, et le faux éditeur empoche l'argent des auteurs...
La table périodique des éléments dans un format qui déchire
Article intéressant. Voir en particulier la figure 4: un article publié d'abord soumis à ArXiv est beaucoup, *beaucoup* plus cité qu'un article directement publié. Les physiciens se font plus chier: la publication permet de "référencer" une étude bien proprement, mais en pratique, toute la discussion scientifique se passe autour des articles sur ArXiv...
Le coût de l'édition d'un article, avec options tout confort, c'est-à-dire: indexation dans PubMed, Web of Science, etc., stockage pour une accessibilité sur le long-terme ($67), services numériques comme DOI, vérification de plagiat, altmetrics, etc. ($4), édition, peer-review, et génération de divers formats (pdf, epub, etc.; $130), + correction de l'anglais, site web pour la soumission, PDF amélioré, campagne sur les réseaux sociaux, et services de data management ($400). Au total, un article open-access coûte $600 à l'éditeur... Et les éditeurs font payer les auteurs beaucoup plus cher, en moyenne 2000 €, pour que l'article soit en open-access.
S'ils font payer si cher, c'est parce qu'aujourd'hui, un article rapporte en moyenne $5000 à l'éditeur. Donc pour qu'il le mette en open-access, il fera payer la différence. Pas parce que l'article, les managing editors, etc. lui coûtent ça, mais parce que sinon, ça se traduirait par un manque-à-gagner par rapport à un système dans lequel l'open-access n'existerait pas... Du coup, l'open-access basé sur le principe "auteur=payeur" n'est pas vraiment une solution au problème: ce serait même pire, puisqu'en plus, ceux qui n'ont pas les moyens de publier... ben... ne publieraient pas...
Faut vraiment sortir de ce système à la con...
S'ils font payer si cher, c'est parce qu'aujourd'hui, un article rapporte en moyenne $5000 à l'éditeur. Donc pour qu'il le mette en open-access, il fera payer la différence. Pas parce que l'article, les managing editors, etc. lui coûtent ça, mais parce que sinon, ça se traduirait par un manque-à-gagner par rapport à un système dans lequel l'open-access n'existerait pas... Du coup, l'open-access basé sur le principe "auteur=payeur" n'est pas vraiment une solution au problème: ce serait même pire, puisqu'en plus, ceux qui n'ont pas les moyens de publier... ben... ne publieraient pas...
Faut vraiment sortir de ce système à la con...
56% des auteurs qui indiquent dans leurs articles que les scripts/codes/détails/etc. sont disponibles "upon request" refusent de donner ces éléments sur demande en réalité. En conclusion, les éditeurs de journaux devraient éviter d'accepter ce type de déclarations d'intention.
Edit: j'ai lu le papier, et leur étude échantillonne des papiers publiés en 2009 en économie, listés par google scholar quand on recherche le terme "available upon request". Pas vu de faille méthodo à leur papier... Après, c'est vrai qu'ils ont pas fait de relance pour les auteurs qui ne répondaient pas (un tiers des auteurs ne répondaient pas), et je peux comprendre les mails qui sédimentent dans la boîte mail, ayant moi-même tendance à reporter à plus tard les réponses qui peuvent prendre du temps à rédiger. M'enfin bon, hein, d'un autre côté, ce serait plus simple si les auteurs mettaient directement leurs résultats/données/etc en open access. Quand on dit "available upon request", faut tenir parole sinon faut pas le dire.
Edit: j'ai lu le papier, et leur étude échantillonne des papiers publiés en 2009 en économie, listés par google scholar quand on recherche le terme "available upon request". Pas vu de faille méthodo à leur papier... Après, c'est vrai qu'ils ont pas fait de relance pour les auteurs qui ne répondaient pas (un tiers des auteurs ne répondaient pas), et je peux comprendre les mails qui sédimentent dans la boîte mail, ayant moi-même tendance à reporter à plus tard les réponses qui peuvent prendre du temps à rédiger. M'enfin bon, hein, d'un autre côté, ce serait plus simple si les auteurs mettaient directement leurs résultats/données/etc en open access. Quand on dit "available upon request", faut tenir parole sinon faut pas le dire.
Une liste des publishers scientifiques dont les pratiques sont malhonnêtes.
Bon à savoir.
Bon à savoir.
Euler avait conjecturé que la relation
Somme_{i=1}^n a_i^k = b^k
n'est possible que si n>=k.
Ces auteurs écrivent un article démontrant le contraire avec un contre-exemple: 27^5 + 84^5 + 110^5 + 133^5 = 144^5
Effectivement, on a k=5 et n=4.
Ils écrivent donc un article de 5 lignes qui démonte la conjecture d'Euler. Cinq lignes suffisent à démonter une conjecture d'un des plus brillants, pour ne pas dire le plus brillant des mathématiciens de tous les temps.
C'est beau quand même
Somme_{i=1}^n a_i^k = b^k
n'est possible que si n>=k.
Ces auteurs écrivent un article démontrant le contraire avec un contre-exemple: 27^5 + 84^5 + 110^5 + 133^5 = 144^5
Effectivement, on a k=5 et n=4.
Ils écrivent donc un article de 5 lignes qui démonte la conjecture d'Euler. Cinq lignes suffisent à démonter une conjecture d'un des plus brillants, pour ne pas dire le plus brillant des mathématiciens de tous les temps.
C'est beau quand même
Une analyse supplémentaire intéressante du canular de Bohannon par Gelman (voir ici: http://caloine.ouvaton.org/shaarli/?sv9yEg); il ajoute que la situation est pire que ce que décrit Bohannon, à cause du "garden of forking paths":
1. Il ne faut pas croire qu'il y a 18 comparaisons possibles sous prétexte qu'il y a 18 variables réponses. En prenant des sous-groupes (Hommes vs Femmes, gros vs fins, etc.), on multiplie d'autant les risques de faux positifs.
2. "I always worry when people write about p-hacking, that they mislead by giving the wrong impression that, if a researcher performs only one analysis on his her data, that all is ok." Le pb, c'est que la construction de l'analyse se fait autour du jeu de données (c'est là que l'expression "forking paths" prend tout son sens).
3. "he excluded one person from his study, and elsewhere he notes that researchers “drop ‘outlier’ data points” in their quest for scientific discovery. But I think he could’ve emphasized this a bit more, that researcher-degrees-of-freedom is not just about running lots of tests on your data, it’s also about the flexibility in rules for what data to exclude and how to code your responses"
4. Le problème principal avec les tests d'hypothèses, c'est qu'ils donnent l'illusion que la science a pour rôle de trouver des "vrais positifs"
1. Il ne faut pas croire qu'il y a 18 comparaisons possibles sous prétexte qu'il y a 18 variables réponses. En prenant des sous-groupes (Hommes vs Femmes, gros vs fins, etc.), on multiplie d'autant les risques de faux positifs.
2. "I always worry when people write about p-hacking, that they mislead by giving the wrong impression that, if a researcher performs only one analysis on his her data, that all is ok." Le pb, c'est que la construction de l'analyse se fait autour du jeu de données (c'est là que l'expression "forking paths" prend tout son sens).
3. "he excluded one person from his study, and elsewhere he notes that researchers “drop ‘outlier’ data points” in their quest for scientific discovery. But I think he could’ve emphasized this a bit more, that researcher-degrees-of-freedom is not just about running lots of tests on your data, it’s also about the flexibility in rules for what data to exclude and how to code your responses"
4. Le problème principal avec les tests d'hypothèses, c'est qu'ils donnent l'illusion que la science a pour rôle de trouver des "vrais positifs"
Marrant: le gars se crée un institut fictif, un nom de chercheur fictif, prend 16 personnes, les répartit en 3 groupes (régime normal, régime faible en carbohydrates, régime faible en carbohydrate + chocolat), mesure 18 variables réponses potentielles (qualité du sommeil, poids, etc.), et conclut que le poids a baissé dans le groupe avec chocolat (seuil alpha à 5%; taille d'effet moyenne: 2 kg, soit les fluctuations classiques du poids sur une période de 1 mois). Il écrit un article, et l'envoie dans une revue bidonnée genre comme celles qui nous spamment trois fois par jour, et moyennant 600$, il publie son article sans peer-review. Il fait une revue de presse (et il la fait propre: le gars est journaliste) et l'envoie à tout le monde. Et tout le monde mord à l'hameçon: Bild, cosmopolitan, etc.
Un canular de toute beauté. Et le gars est assez honnête dans ses conclusions, en indiquant que les diet researchers font en général ce genre d'erreur de bonne foi.
Mais que: (i) ils font quand même ce genre d'erreur, (ii) les journalistes ne se donnent pas la peine de lire ou de décrypter les papiers scientifiques.
Un canular de toute beauté. Et le gars est assez honnête dans ses conclusions, en indiquant que les diet researchers font en général ce genre d'erreur de bonne foi.
Mais que: (i) ils font quand même ce genre d'erreur, (ii) les journalistes ne se donnent pas la peine de lire ou de décrypter les papiers scientifiques.
Une image issue d'un article de Schoenfeld et Ioannidis. Ça nous apprend à relativiser quand on entend dans les niouzes une info du genre "Une récente étude démontre que consommer du Y favorise le cancer". Sur le graphique du bas, chaque point représente une étude... Certains patrons semblent constant (sucre, sel, bacon et charcuterie favorisant le cancer; oignon, olives et carottes prévenant), encore que j'imagine même pas le nombre de facteurs confondants dans l'étude (les fumeurs ont en général le goût atténué, et mettent plus de sel -- les obèses mangent plus de sucre et de charcut, etc.), mais pour le reste, on peut rien dire. L'article en question est ici: http://ajcn.nutrition.org/content/97/1/127.long
Il est passionnant ce papier.
Il est passionnant ce papier.
Suite au séminaire de la RSS de l'autre jour, ce résumé est paru. Rien de plus dans le résumé, mais tout l'évènement a été filmé. Faudra que je trouve un moment pour regarder ça...
Un jour...
Un jour...
La liste des journaux en écologie qui acceptent et refusent le LaTeX.
Un bon scientifique doit savoir dire "je ne sais pas"...
Une étude monstrueuse de réplication de résultats en psychologie: sur 100 études reproduites, 39 étaient reproductibles d'après des critères définis à priori (et 24 de plus si l'on oublie ces critères de significativité etc., et que l'on considère le message de chaque étude). Pas encore peer-reviewed, mais ça sortira dans science.
Entre 40 et 60% de reproductibilité, ça confirme un point déjà noté précédement: la moitié de la littérature scientifique est fausse...
Ça fait mal quand même...
À suivre
Entre 40 et 60% de reproductibilité, ça confirme un point déjà noté précédement: la moitié de la littérature scientifique est fausse...
Ça fait mal quand même...
À suivre
Ben putain, ça fait mal. En vrac:
"Preventive medicine displays all 3 elements of arrogance. First, it is aggressively assertive, pursuing symptomless individuals and telling them what they must do to remain healthy. (...) Second, preventive medicine is presumptuous, confident that the interventions it espouses will, on average, do more good than harm to those who accept and adhere to them. Finally, preventive medicine is overbearing, attacking those who question the value of its recommendations."
"Without evidence from positive randomized trials (and, better still, systematic reviews of randomized trials) we cannot justify soliciting the well to accept any personal health intervention. There are simply too many examples of the disastrous inadequacy of lesser evidence as a basis for individual interventions among the well: supplemental oxygen for healthy premies (causing retrolental fibroplasia), healthy babies sleeping face down (causing SIDS), thymic irradiation in healthy children, and the list goes on."
On rajoute à ça la prescription d'hormones aux femmes ménopausées, recommandées jusqu'à très récemment, et dont une étude a pu montrer que le traitement était calamiteux!
"I place the blame directly on the medical “experts” who, to gain private profit (from their industry affiliations), to satisfy a narcissistic need for public acclaim or in a misguided attempt to do good, advocate “preventive” manoeuvres that have never been validated in rigorous randomized trials."
"Preventive medicine displays all 3 elements of arrogance. First, it is aggressively assertive, pursuing symptomless individuals and telling them what they must do to remain healthy. (...) Second, preventive medicine is presumptuous, confident that the interventions it espouses will, on average, do more good than harm to those who accept and adhere to them. Finally, preventive medicine is overbearing, attacking those who question the value of its recommendations."
"Without evidence from positive randomized trials (and, better still, systematic reviews of randomized trials) we cannot justify soliciting the well to accept any personal health intervention. There are simply too many examples of the disastrous inadequacy of lesser evidence as a basis for individual interventions among the well: supplemental oxygen for healthy premies (causing retrolental fibroplasia), healthy babies sleeping face down (causing SIDS), thymic irradiation in healthy children, and the list goes on."
On rajoute à ça la prescription d'hormones aux femmes ménopausées, recommandées jusqu'à très récemment, et dont une étude a pu montrer que le traitement était calamiteux!
"I place the blame directly on the medical “experts” who, to gain private profit (from their industry affiliations), to satisfy a narcissistic need for public acclaim or in a misguided attempt to do good, advocate “preventive” manoeuvres that have never been validated in rigorous randomized trials."
Le MP3 de la conf est disponible. En résumé, les data scientists reprochent aux statisticiens d'être trop intéressés par la théorie et pas assez aux problèmes. Pour eux, la donnée est le point de départ (on est bien d'accord!). Reproche: "statisticians are naturally conservative and sceptic - cultural shift needed?". Autres tweet: "Statistics is taught bottom up from first principles, rather than top down from the problems as programmers need". "Stats needs to adapt or other disciplines will move into the statisticians space". "People don't want data, they want answers".
Ça permet d'y voir un peu plus clair dans ce débat.
Je comprends mieux (enfin autant qu'avant, en fait) la différence proclamée entre data science (on part des données) et statistique (on part du problème). Par contre, je ne saisis pas bien les différences en termes de pratique. Je crois que sur le fond, les data scientists traitent le problème en informaticien. On développe des algos pour identifier des patterns dans les données. Faut vraiment que je me renseigne sur ces pratiques utilisées en machine learning, trouver un bouquin sur la question, etc.
Ça permet d'y voir un peu plus clair dans ce débat.
Je comprends mieux (enfin autant qu'avant, en fait) la différence proclamée entre data science (on part des données) et statistique (on part du problème). Par contre, je ne saisis pas bien les différences en termes de pratique. Je crois que sur le fond, les data scientists traitent le problème en informaticien. On développe des algos pour identifier des patterns dans les données. Faut vraiment que je me renseigne sur ces pratiques utilisées en machine learning, trouver un bouquin sur la question, etc.
Les MOOC, cours massifs en différentes matières disponibles en lignes, avec cours, exos, etc. se développent de plus en plus.
On vit vraiment une époque formidable, où tout le monde peut se former à tous les sujets à condition d'y investir suffisamment de temps...
Faudra que je regarde ce que ça donne en stats...
On vit vraiment une époque formidable, où tout le monde peut se former à tous les sujets à condition d'y investir suffisamment de temps...
Faudra que je regarde ce que ça donne en stats...
Très intéressant. En vrac "Nobody seems to know exactly what 'data science' is, let alone its almost synonym 'big data'".
"It's now so easy to manipulate vast quantities of data that you don't need to employ a separate statistician, database guy and programmer. You hire someone who can code and do statistics too. This is the data scientist. (...) "
"It's now time for data science as a profession to take stock and ask itself 'what is the core skill set?'. Or further than this, 'is data science a new statistical speciality or even a nascent field in its own right?'."
"It's now so easy to manipulate vast quantities of data that you don't need to employ a separate statistician, database guy and programmer. You hire someone who can code and do statistics too. This is the data scientist. (...) "
"It's now time for data science as a profession to take stock and ask itself 'what is the core skill set?'. Or further than this, 'is data science a new statistical speciality or even a nascent field in its own right?'."