2390 shaares
189 results
tagged
science
Intéressant: l'impact factor correspond au nombre moyen de fois qu'un article d'une revue publié dans les deux années précédentes est cité. C'est une moyenne, et comme on est sur une distribution asymétrique, c'est nase. L'auteur indique déjà que la médiane serait plus intéressante. Exemple de Acta Crystallographica Section A: le journal est passé d'un IF de 2 à un IF de 49 à cause d'un unique papier.
Il fait une étude de Monte Carlo qui compare un papier tiré au sort d'une revue et un papier tiré au sort d'une autre revue et compare le nombre de citations, afin de savoir quelle revue est meilleure. Il représente la distribution des différences. Et là, c'est vraiment surprenant, les différences ne sont pas énormes. Et même entre canards très différents: on voit des différences nettes entre Nature (IF approx. 40) et Journal of Cell Biology (IF approx. 2), significatives, ça se voit clairement, mais curieusement ces différences ne sont pas aussi énormes que le suggère la différence d'IF! Quand on compare la différence moyenne de citation d'un papier tiré au sort dans JCB et dans Nature, le pic est quand même à 0!!! Après, c'est vrai que le nombre d'articles très cités est plus important dans Nature...
Et en s'appuyant sur des comparaisons de moyennes non-paramétriques, il démontre que si l'on cherche à s'appuyer sur l'IF pour comparer des revues, on peut comparer des revues en arrondissant au 5 (ou 10) le plus proche. Ainsi, ecology (approx. 5) est meilleur que European Journal of Wildlife research (approx 1), mais après, ça ne sert à rien de comparer un journal à 1.2 et à 1.5.
Très intéressant...
Il fait une étude de Monte Carlo qui compare un papier tiré au sort d'une revue et un papier tiré au sort d'une autre revue et compare le nombre de citations, afin de savoir quelle revue est meilleure. Il représente la distribution des différences. Et là, c'est vraiment surprenant, les différences ne sont pas énormes. Et même entre canards très différents: on voit des différences nettes entre Nature (IF approx. 40) et Journal of Cell Biology (IF approx. 2), significatives, ça se voit clairement, mais curieusement ces différences ne sont pas aussi énormes que le suggère la différence d'IF! Quand on compare la différence moyenne de citation d'un papier tiré au sort dans JCB et dans Nature, le pic est quand même à 0!!! Après, c'est vrai que le nombre d'articles très cités est plus important dans Nature...
Et en s'appuyant sur des comparaisons de moyennes non-paramétriques, il démontre que si l'on cherche à s'appuyer sur l'IF pour comparer des revues, on peut comparer des revues en arrondissant au 5 (ou 10) le plus proche. Ainsi, ecology (approx. 5) est meilleur que European Journal of Wildlife research (approx 1), mais après, ça ne sert à rien de comparer un journal à 1.2 et à 1.5.
Très intéressant...
Un article TRÈS intéressant sur l'interface science/politique. En résumé, le gouvt anglais veut connaître l'efficacité du prélèvement de blaireaux sur le contrôle de la tuberculose bovine. Il finance alors une étude, façon étude monstrueuse, avec randomisation, étude en double aveugle, le machin a l'air bien ficelé (j'ai pas lu l'étude -- à lire donc -- sigh...). Et là, surprise, l'étude conclut que le prélèvement de blaireaux est souvent inefficace, peut être efficace dans des conditions d'application irréaliste (genre erradication ultra rapide et ultra efficace de l'espèce à court terme), et sinon peut même *aggraver* la situation. Et là, les gestionnaires sont dans la merde: ils vivent tous avec l'idée que le prélèvement est LA solution, et voilà-t-y-pas qu'on leur dit que non. Et même qu'on leur dit que ça peut être pire.
Et pire, on ne leur dit pas pourquoi, et ça c'est pire que tout. On ne va pas changer notre façon de faire sans savoir quelle est la cause de ce résultat. J'aime bien la classique réaction des chefs "It depends whether you want to base your policy on a sound veterinary opinion, or just on statistics". Bougerai pas. Le gouvernement, dans la merde, cherche un second avis en 2007. Le rapport, écrit à la va vite d'après un éditorial de Nature, et truffé d'erreurs d'après l'auteur de l'article de blog, rassure le gouvt: ne changez rien, ils se sont plantés. Ce rapport est cité par Nature comme exemple typique du cas où un gouvernement ne tient aucun compte de l'avis scientifique après l'avoir demandé (l'éditorial de Nature sur le sujet est passionnant.).
Et avec les années, les études ultérieures donnent raison à cette première étude. On se rend compte que par le prélèvement, on favorise la dispersion des bestioles malades, d'où agravation. Mais les habitudes ont la vie dure, et les responsables ne changent pas la stratégie: prélèvement accru de blaireaux en cas de TB. On continue à débattre, les deux parties continuent à se taper dessus, les politiques n'ont pas vraiment envie de voir les choses évoluer... La conclusion: Since the ISG [le groupe en charge de cette étude] was disbanded in 2007, other advisory groups have come and gone. Over time the contribution of independent scientists has declined, with greater inputs from vets and farming representatives. Two further culls went ahead in 2013, but when an independent panel deemed them ineffective and possibly inhumane, it was not reappointed. The 2014 culls had no independent oversight, and subsequent claims of success are based on extremely shaky data. Outside government, views have become entrenched and cherry picking evidence has become a cottage industry for both sides of the debate.
Bon, cet article ne donne qu'un seul côté du débat, j'aimerais bien en savoir plus... À suivre.
Et pire, on ne leur dit pas pourquoi, et ça c'est pire que tout. On ne va pas changer notre façon de faire sans savoir quelle est la cause de ce résultat. J'aime bien la classique réaction des chefs "It depends whether you want to base your policy on a sound veterinary opinion, or just on statistics". Bougerai pas. Le gouvernement, dans la merde, cherche un second avis en 2007. Le rapport, écrit à la va vite d'après un éditorial de Nature, et truffé d'erreurs d'après l'auteur de l'article de blog, rassure le gouvt: ne changez rien, ils se sont plantés. Ce rapport est cité par Nature comme exemple typique du cas où un gouvernement ne tient aucun compte de l'avis scientifique après l'avoir demandé (l'éditorial de Nature sur le sujet est passionnant.).
Et avec les années, les études ultérieures donnent raison à cette première étude. On se rend compte que par le prélèvement, on favorise la dispersion des bestioles malades, d'où agravation. Mais les habitudes ont la vie dure, et les responsables ne changent pas la stratégie: prélèvement accru de blaireaux en cas de TB. On continue à débattre, les deux parties continuent à se taper dessus, les politiques n'ont pas vraiment envie de voir les choses évoluer... La conclusion: Since the ISG [le groupe en charge de cette étude] was disbanded in 2007, other advisory groups have come and gone. Over time the contribution of independent scientists has declined, with greater inputs from vets and farming representatives. Two further culls went ahead in 2013, but when an independent panel deemed them ineffective and possibly inhumane, it was not reappointed. The 2014 culls had no independent oversight, and subsequent claims of success are based on extremely shaky data. Outside government, views have become entrenched and cherry picking evidence has become a cottage industry for both sides of the debate.
Bon, cet article ne donne qu'un seul côté du débat, j'aimerais bien en savoir plus... À suivre.
Collabra: une revue à suivre de près.
Rédaction Médicale et Scientifique: Les mégarevues auraient remplacé le peer-review par le peer-view
Plos one dans le colimateur. Je suis pas complètement d'accord avec le gars.
C'est vrai que 70% de taux d'acceptation, ça fait beaucoup, mais ça s'explique: la politique de la revue, c'est de ne pas juger de l'intérêt scientifique d'un article. Seule la qualité scientifique compte. Si l'approche scientifique est correcte, on ne rejettera pas un article qui démontre que le ciel est bleu.
Pour quelqu'un comme moi, c'est important: scientifiquement, ça n'apporte rien de savoir que la densité de blaireau était entre 2 et 8 fois plus importante en Pays d'Auge que dans le Bessin entre 2000 et 2005. Pourtant, on a bien utilisé une approche scientifique pour arriver à cette estimation. Par contre, on a essayé de soumettre un article décrivant cette approche et ces résultats à Ecography, et l'article n'est pas parti aux référés; argument: "vous ne tirez aucune conclusion sur le processus biologique à l'origine des variations de densité", ce qui est vrai. L'article n'a aucun intérêt sur le plan science fondamentale. Pourtant, il a une importance sociale essentielle: on a besoin de ces éléments pour prendre des décisions en matière de gestion de la faune. On m'objectera -- à juste titre -- que ce n'est pas parce qu'un travail a une importance sociale qu'il a sa place dans une revue scientifique. C'est vrai, mais: (i) le travail mené pour cette estimation est un travail scientifique (cf. plus bas pour l'adresse de l'article, que le lecteur se fasse une opinion), (ii) c'est parce qu'il est scientifique qu'il est considéré pour prendre des décisions de gestion. Et donc, parce que l'approche utilisée pour obtenir cette estimation est une approche scientifique, ces éléments ont leur place dans une revue scientifique (en outre, je sors peut-être un peu du débat, mais comme ces résultats sont utilisés pour prendre des décisions de gestion, la validation par les pairs de la démarche utilisée pour l'estimation -- au cœur du processus de publication scientifique -- est précisément ce qui permet de calmer le jeu quand les conflits sociaux éclatent entre différentes parties, lesquelles n'hésitent pas à taxer les auteurs de "collusion avec l'ennemi" autrement: on est toujours suspect de fraude dans ce type de discussion lorsque les résultats ne vont pas dans le sens espéré!).
Et c'est là que Plos one est intéressant: on l'a soumis chez eux, on a eu une review de qualité (c'est là que je ne suis pas d'accord avec le "peer-viewed": les référés n'étaient pas plus complaisants que dans une autre revue -- et perso, en tant que référé, je ne fais pas du plus mauvais travail pour plos one que pour une autre revue. Simplement, je ne juge pas le fond), qui a permis de bien améliorer l'article, et celui-ci est maintenant dispo sur Plos one (http://journals.plos.org/plosone/article?id=10.1371/journal.pone.0121689). Et hormis Plos One, quelle revue acceptera ce type de résultats qui n'apporte rien d'un point de vue théorie écologique ou recommandation de gestion?
Il y avait eu un débat intéressant sur Plos One dans les commentaires d'un article de Dynamic Ecology (https://dynamicecology.wordpress.com/2013/01/11/is-using-detection-probabilities-a-case-of-statistical-machismo/): Eric Larson notait "I view one service of that journal as being a good outlet for response or rebuttal papers that are (hopefully) technically sound, but may not get a fair review at specialist or society journals owing to entrenched interests or cultural drift within particular fields". En réponse à ce commentaire, Jeremy Fox résumait bien cette opinion que je fais mienne au sujet de Plos One: "They publish a lot of very boring stuff. But they also publish some very interesting, provocative stuff that likely had a rough ride at selective journals for being too unconventional."
Donc, pour répondre aux questions posées:
1. Comment la communauté des reviewers peut répondre aux méga-revues ?
De la même façon qu'aux micro-reviews: ils peuvent refuser si le nombre de demandes est trop important. Là, je ne vois pas où est le pb, si je reçois 30 demandes de review de chez plos one, je vais pas toutes les accepter! Les reviewers ne sont pas bêtes, ils savent très bien résister à la pression (trop bien d'ailleurs, les éditeurs de revues le savent mieux que personne, vue la difficulté qu'ils ont à trouver des reviewers!); les reviewers cherchent en général à diversifier leur expertise.
2. Comment les scientifiques managent et lisent ces pages publiées qui augmentent ?
En ce qui me concerne, de la même façon que je lis ce blog: par mon aggrégateur de flux qui m'indique quand un article sort sur un sujet qui m'intéresse. Et plos one n'est pas 1/10 aussi productif que les serveurs de preprint type arxiv (pour infos: une 40aine d'articles archivés par jour)!
3. Des auteurs sont tentés par ces revues, mais pour quel impact de leur recherche ? Est-ce que leurs articles sont remarqués ?
En ce qui me concerne, j'ai déjà décrit plus haut ce qui me poussait à publier dans plos one. Et aujourd'hui, la diffusion d'un article se fait aussi par d'autres moyens (messages sur les listes, réseaux sociaux -- researchgate, etc.). Et voir plus haut les commentaires de Dynamic Ecology.
4. Est-ce que l'objectif de faire de la bonne science pour les financeurs doit être dilué par la course aux 'metrics' ?
Non. Quel rapport avec Plos One?
5. Est-ce que la communauté scientifique, déjà surchargée, pourra maintenir de hauts standards dans ces conditions ?
J'ai pas mal d'articles de plos one dans ma base biblio, et je ne lis pas plus de conneries dans plos one que dans les autres revues (ce qu'un commentaire de ce blog note également, à juste titre -- et je suis d'accord avec lui: développons les serveurs de pre-print avec commentaires associés! quand on voit tout ce que les matheux en retirent, je ne comprends pas cette réticence des autres domaines!).
6. Comment l'explosion des citations, voire des auto-citations, va mettre en péril les indicateurs existants ?
Ça, perso, je m'en fous, perso je suis pas jugé sur mon H index, ni sur l'impact factor des journaux où je publie XD.
C'est vrai que 70% de taux d'acceptation, ça fait beaucoup, mais ça s'explique: la politique de la revue, c'est de ne pas juger de l'intérêt scientifique d'un article. Seule la qualité scientifique compte. Si l'approche scientifique est correcte, on ne rejettera pas un article qui démontre que le ciel est bleu.
Pour quelqu'un comme moi, c'est important: scientifiquement, ça n'apporte rien de savoir que la densité de blaireau était entre 2 et 8 fois plus importante en Pays d'Auge que dans le Bessin entre 2000 et 2005. Pourtant, on a bien utilisé une approche scientifique pour arriver à cette estimation. Par contre, on a essayé de soumettre un article décrivant cette approche et ces résultats à Ecography, et l'article n'est pas parti aux référés; argument: "vous ne tirez aucune conclusion sur le processus biologique à l'origine des variations de densité", ce qui est vrai. L'article n'a aucun intérêt sur le plan science fondamentale. Pourtant, il a une importance sociale essentielle: on a besoin de ces éléments pour prendre des décisions en matière de gestion de la faune. On m'objectera -- à juste titre -- que ce n'est pas parce qu'un travail a une importance sociale qu'il a sa place dans une revue scientifique. C'est vrai, mais: (i) le travail mené pour cette estimation est un travail scientifique (cf. plus bas pour l'adresse de l'article, que le lecteur se fasse une opinion), (ii) c'est parce qu'il est scientifique qu'il est considéré pour prendre des décisions de gestion. Et donc, parce que l'approche utilisée pour obtenir cette estimation est une approche scientifique, ces éléments ont leur place dans une revue scientifique (en outre, je sors peut-être un peu du débat, mais comme ces résultats sont utilisés pour prendre des décisions de gestion, la validation par les pairs de la démarche utilisée pour l'estimation -- au cœur du processus de publication scientifique -- est précisément ce qui permet de calmer le jeu quand les conflits sociaux éclatent entre différentes parties, lesquelles n'hésitent pas à taxer les auteurs de "collusion avec l'ennemi" autrement: on est toujours suspect de fraude dans ce type de discussion lorsque les résultats ne vont pas dans le sens espéré!).
Et c'est là que Plos one est intéressant: on l'a soumis chez eux, on a eu une review de qualité (c'est là que je ne suis pas d'accord avec le "peer-viewed": les référés n'étaient pas plus complaisants que dans une autre revue -- et perso, en tant que référé, je ne fais pas du plus mauvais travail pour plos one que pour une autre revue. Simplement, je ne juge pas le fond), qui a permis de bien améliorer l'article, et celui-ci est maintenant dispo sur Plos one (http://journals.plos.org/plosone/article?id=10.1371/journal.pone.0121689). Et hormis Plos One, quelle revue acceptera ce type de résultats qui n'apporte rien d'un point de vue théorie écologique ou recommandation de gestion?
Il y avait eu un débat intéressant sur Plos One dans les commentaires d'un article de Dynamic Ecology (https://dynamicecology.wordpress.com/2013/01/11/is-using-detection-probabilities-a-case-of-statistical-machismo/): Eric Larson notait "I view one service of that journal as being a good outlet for response or rebuttal papers that are (hopefully) technically sound, but may not get a fair review at specialist or society journals owing to entrenched interests or cultural drift within particular fields". En réponse à ce commentaire, Jeremy Fox résumait bien cette opinion que je fais mienne au sujet de Plos One: "They publish a lot of very boring stuff. But they also publish some very interesting, provocative stuff that likely had a rough ride at selective journals for being too unconventional."
Donc, pour répondre aux questions posées:
1. Comment la communauté des reviewers peut répondre aux méga-revues ?
De la même façon qu'aux micro-reviews: ils peuvent refuser si le nombre de demandes est trop important. Là, je ne vois pas où est le pb, si je reçois 30 demandes de review de chez plos one, je vais pas toutes les accepter! Les reviewers ne sont pas bêtes, ils savent très bien résister à la pression (trop bien d'ailleurs, les éditeurs de revues le savent mieux que personne, vue la difficulté qu'ils ont à trouver des reviewers!); les reviewers cherchent en général à diversifier leur expertise.
2. Comment les scientifiques managent et lisent ces pages publiées qui augmentent ?
En ce qui me concerne, de la même façon que je lis ce blog: par mon aggrégateur de flux qui m'indique quand un article sort sur un sujet qui m'intéresse. Et plos one n'est pas 1/10 aussi productif que les serveurs de preprint type arxiv (pour infos: une 40aine d'articles archivés par jour)!
3. Des auteurs sont tentés par ces revues, mais pour quel impact de leur recherche ? Est-ce que leurs articles sont remarqués ?
En ce qui me concerne, j'ai déjà décrit plus haut ce qui me poussait à publier dans plos one. Et aujourd'hui, la diffusion d'un article se fait aussi par d'autres moyens (messages sur les listes, réseaux sociaux -- researchgate, etc.). Et voir plus haut les commentaires de Dynamic Ecology.
4. Est-ce que l'objectif de faire de la bonne science pour les financeurs doit être dilué par la course aux 'metrics' ?
Non. Quel rapport avec Plos One?
5. Est-ce que la communauté scientifique, déjà surchargée, pourra maintenir de hauts standards dans ces conditions ?
J'ai pas mal d'articles de plos one dans ma base biblio, et je ne lis pas plus de conneries dans plos one que dans les autres revues (ce qu'un commentaire de ce blog note également, à juste titre -- et je suis d'accord avec lui: développons les serveurs de pre-print avec commentaires associés! quand on voit tout ce que les matheux en retirent, je ne comprends pas cette réticence des autres domaines!).
6. Comment l'explosion des citations, voire des auto-citations, va mettre en péril les indicateurs existants ?
Ça, perso, je m'en fous, perso je suis pas jugé sur mon H index, ni sur l'impact factor des journaux où je publie XD.
Très bon article.
J'aime bien: "My best analogy is that they are trying to use a bathroom scale to weigh a feather—and the feather is resting loosely in the pouch of a kangaroo that is vigorously jumping up and down."
Je me la garde sous le coude.
Je me la garde sous le coude.
Intéressant, mais pas sûr d'être 100% d'accord avec lui. Quand on travaille sur un sujet mal connu dans une certaine communauté (e.g. analyses factorielles, mal connues chez les anglo-saxons), ça peut être pas mal de rappeler qu'on se place dans un domaine que le lecteur ne connaît pas forcément, et qu'on n'est pas le seul, et qu'il y a d'autres personnes qui travaillent sur la question et donc toute une théorie dont le lecteur ne connaît pas forcément l'existence. Certes, ce n'est pas le fait que beaucoup de gens travaillent dessus qui motivent l'étude, ce n'est pas l'effet de mode qui motive l'étude, mais c'est quand même un point à noter à mon avis, dans certains cas, de dire que "many people have been working on the topic". Au cas par cas, bien sûr, je comprends les arguments du bonhomme.
Par ailleurs, je ne suis pas d'accord avec lui quand il dit que notre boulot n'est pas de résoudre les controverses. Qui dit controverse dit désaccord sur la vision du monde. Résoudre une controverse est en soi une bonne motivation: elle vise à unifier les points de vue... AMHA.
Par ailleurs, je ne suis pas d'accord avec lui quand il dit que notre boulot n'est pas de résoudre les controverses. Qui dit controverse dit désaccord sur la vision du monde. Résoudre une controverse est en soi une bonne motivation: elle vise à unifier les points de vue... AMHA.
Voici l'éditorial en questiion...
La revue Nature est formelle : le changement climatique pourrait favoriser le retour de certaines espèces qu’on croyait éteintes, voire n’ayant jamais existé!
(via Nirmala)
(via Nirmala)
Sur la nécessité de sortir des papiers vulgarisés.
Plein d'infos intéressantes. En résumé, les histoires d'auto-plagiat ne sont pas si simples à gérer. Par exemple, quand on a une étude à long terme, le M&M est souvent identique d'un papier à l'autre (description de study area, data collection), et ce n'est pas nécessairement une mauvaise chose. Parfois, on a des études qui vont être répétées d'une zone à l'autre, d'une année à l'autre. Parfois, il peut être intéressant de traduire une étude dans un langage local pour faciliter la diffusion des résultats. Et une vision stricte implique ici qu'il s'agit d'auto-plagiat. Du coup, faut pas être trop strict... au final, contacter l'éditeur.
Au passage, on apprend que la Wildlife Society refuse les archivages à ArXiv (et autres serveurs de pre-print), c'est considéré comme une double soumission...
Au passage, on apprend que la Wildlife Society refuse les archivages à ArXiv (et autres serveurs de pre-print), c'est considéré comme une double soumission...
J'ai bien rigolé. Ya même moyen de télécharger le pdf.
C'est TRÈS intéressant!
Faute d'un stockage à long terme, les données scientifiques se perdent à un rythme de 17% par an!
Comme quoi, réfléchir aux bases de données, hein...
Faute d'un stockage à long terme, les données scientifiques se perdent à un rythme de 17% par an!
Comme quoi, réfléchir aux bases de données, hein...
Ben décidément, ya des publis intéressantes qui sortent aujourd'hui! En résumé, selon les auteurs, 5 éléments clés à développer:
1. Pensée créative au sujet de la donnée: être capable de modifier la forme de la donnée. Ce que j'appellerais des compétences à établir la donnée.
2. Capacité à gérer des données de différentes tailles (concepts de bases de données, et concepts informatiques associés)
3. Compétences dans un langage de programmation stat (R, python, julia)
4. Apprendre à manipuler des gros jeux de données bien merdiques, pour lesquels il n'y a aucun but ou méthode stat spécifique
5. Un éthos concernant la reproductibilité.
L'article tourne autour de R, de markdown, et du package dplyr qui est décrit dans le détail (faut vraiment que je me mette à dplyr).
Pas mal de discussion autour de la notion de data management, et sur l'importance de maîtriser le SQL.
1. Pensée créative au sujet de la donnée: être capable de modifier la forme de la donnée. Ce que j'appellerais des compétences à établir la donnée.
2. Capacité à gérer des données de différentes tailles (concepts de bases de données, et concepts informatiques associés)
3. Compétences dans un langage de programmation stat (R, python, julia)
4. Apprendre à manipuler des gros jeux de données bien merdiques, pour lesquels il n'y a aucun but ou méthode stat spécifique
5. Un éthos concernant la reproductibilité.
L'article tourne autour de R, de markdown, et du package dplyr qui est décrit dans le détail (faut vraiment que je me mette à dplyr).
Pas mal de discussion autour de la notion de data management, et sur l'importance de maîtriser le SQL.
Intéressant. Une étude sur près de 400 groupes de recherche. Plus le groupe est gros, et plus le nombre de publis est important. Le PI contribue 5 fois plus que les autres membres du groupes. Un post-doc est trois fois plus productif qu'un thésard. Le PI est le facteur déterminant qui va jouer sur les impact factors des revues et sur le nombre de citations du groupe.
Bon, m'a l'air assez descriptif comme étude, gaffe aux inférences hasardeuses (et aux facteurs confondants). Mais c'est quand même intéressant.
Bon, m'a l'air assez descriptif comme étude, gaffe aux inférences hasardeuses (et aux facteurs confondants). Mais c'est quand même intéressant.
Ben putain, c'est super impressionnant: la 1.5 milliards de pixels de résolution pour la photo la plus fine jamais prise de la galaxie d'andromède.
Le zoom poussé à fond, on réalise vraiment le nombre d'étoiles présentes dans la galaxie...
Bluffant
Le zoom poussé à fond, on réalise vraiment le nombre d'étoiles présentes dans la galaxie...
Bluffant
Une histoire de la data science dans le milieu des affaires. À noter le point sur lequel tout le monde s'accorde, les pour comme les contre:
"there’s no clear definition of data science. (...) there are as yet no standards for data science curriculum content"
OK. Bon ben c'est quand même un peu éloigné de mes thématiques.
Je ne sais pas si je vais poursuivre cette veille.
"there’s no clear definition of data science. (...) there are as yet no standards for data science curriculum content"
OK. Bon ben c'est quand même un peu éloigné de mes thématiques.
Je ne sais pas si je vais poursuivre cette veille.
By "Data Science", we mean almost everything that has something to do with data: Collecting, analyzing, modeling...... yet the most important part is its applications --- all sorts of applications. (...)
The Journal of Data Science publishes research works on a wide range of topics that involving understanding and making effective use of field data --- i.e., all aspects of applied statistics. We prefer applied research and emphasis is on the relevance of the underlying problem rather than pure mathematical depth. We prefer papers with solid applications and real cases. Detailed technical proof, particularly those that push to the extreme, is not required. The papers published in the Journal of Data Science will cover a wide range of spectrum, as can be seen from the affiliations of the members of our editorial board.
La distinction avec la statistique appliquée est quand même fine. "Data science" me paraît être un nouveau terme appliqué à un métier très ancien. Ce qui colle assez bien avec l'article "fondateur" de Cleveland. C'est en fait un point de vue sur ce métier, et pas un nouveau métier. Tout comme le triangle de la biométrie est la vision lyonnaise de la biométrie, mais que l'école lyonnaise n'en est pas l'inventrice.
Cela dit l'article de Cleveland est très intéressant, et souligne, à travers ce concept de data science, un concept de statistique appliquée assez proche de celui de biométrie à l'école lyonnaise. J'ai l'impression que ce terme de data science est à la statistique appliquée ce que le triangle de la biométrie est à la biométrie: un point de vue sur la façon dont il faudrait l'étudier, l'utiliser, etc. Comme on le voit ici, ça couvre aussi l'échantillonnage ("collecting"), mais c'est surtout centré sur la donnée, incluant également et surtout les données dont on n'a pas contrôlé la collecte (type de données souvent délaissé par la stat théorique).
Je commence à y voir plus clair.
Edit: oui, en y réfléchissant, j'en reviens à ma première impression: la data science est à la science ce que la biométrie est à la biologie. On ne peut pas appeler ça de la statistique, la statistique est une branche des mathématiques. Appeler ça "statistiques appliquées" a trop tendance à mettre de côté la "subject matter" pour le centrer sur le côté math. Et à ignorer le côté informatique. Ce que l'école lyonnaise appelle la biométrie serait de la "data science" appliquée à la biologie. Donc, retour au point de départ. La meilleure description est donc donnée ici: http://learnitdaily.com/what-is-a-data-scientist/
The Journal of Data Science publishes research works on a wide range of topics that involving understanding and making effective use of field data --- i.e., all aspects of applied statistics. We prefer applied research and emphasis is on the relevance of the underlying problem rather than pure mathematical depth. We prefer papers with solid applications and real cases. Detailed technical proof, particularly those that push to the extreme, is not required. The papers published in the Journal of Data Science will cover a wide range of spectrum, as can be seen from the affiliations of the members of our editorial board.
La distinction avec la statistique appliquée est quand même fine. "Data science" me paraît être un nouveau terme appliqué à un métier très ancien. Ce qui colle assez bien avec l'article "fondateur" de Cleveland. C'est en fait un point de vue sur ce métier, et pas un nouveau métier. Tout comme le triangle de la biométrie est la vision lyonnaise de la biométrie, mais que l'école lyonnaise n'en est pas l'inventrice.
Cela dit l'article de Cleveland est très intéressant, et souligne, à travers ce concept de data science, un concept de statistique appliquée assez proche de celui de biométrie à l'école lyonnaise. J'ai l'impression que ce terme de data science est à la statistique appliquée ce que le triangle de la biométrie est à la biométrie: un point de vue sur la façon dont il faudrait l'étudier, l'utiliser, etc. Comme on le voit ici, ça couvre aussi l'échantillonnage ("collecting"), mais c'est surtout centré sur la donnée, incluant également et surtout les données dont on n'a pas contrôlé la collecte (type de données souvent délaissé par la stat théorique).
Je commence à y voir plus clair.
Edit: oui, en y réfléchissant, j'en reviens à ma première impression: la data science est à la science ce que la biométrie est à la biologie. On ne peut pas appeler ça de la statistique, la statistique est une branche des mathématiques. Appeler ça "statistiques appliquées" a trop tendance à mettre de côté la "subject matter" pour le centrer sur le côté math. Et à ignorer le côté informatique. Ce que l'école lyonnaise appelle la biométrie serait de la "data science" appliquée à la biologie. Donc, retour au point de départ. La meilleure description est donc donnée ici: http://learnitdaily.com/what-is-a-data-scientist/
Encore un post super intéressant de Gelman. Je me rends compte que j'avais mal compris ce concept de data science. Jusque là, je pensais qu'il s'agissait en quelque sorte du métier de biométricien (surtout à cause de post comme celui-ci: http://learnitdaily.com/what-is-a-data-scientist/), et je me rends compte que c'est très très loin d'être la vision dominante.
En fait ce concept de data science est à rapprocher du débat autour des big data. Comme l'indique Gelman:
It’s been said that the most important thing in statistics is not what you do with the data, but, rather, what data you use.
Le concept de data science se rapproche plutôt du premier point. Donc, si je comprends bien, le concept de data science part de la donnée et non du problème. On a un jeu de données, que peut-on en faire?
"the point of data science (as I see it) is to be able to grab the damn data."
En un sens, la question est la même que celle posée par le concept de big data: la donnée existe, on ne peut pas l'ignorer. Après, c'est un peu dérangeant ce côté "oublions la statistique, les statisticiens sont des dinosaures dont on ne doit pas se préoccupper", c'est la porte ouverte à toutes les escroqueries (une collecte opportuniste de la donnée introduit des biais dans l'inférence, c'est inévitable). Mais apparemment, c'est surtout le blogger discuté ici qui a ce comportement, et ça ne reflète pas forcément l'ensemble des data scientists.
Au passage, très bonne remarque:
" So I think it’s important to keep these two things separate: (a) reactions (positive or negative) to the hype, and (b) attitudes about the subject of the hype."
Ce n'est pas parce qu'un sujet est à la mode qu'il est bon. Mais ce n'est pas pour autant qu'il est mauvais.
Bon, d'accord, je lance une veille là-dessus.
En fait ce concept de data science est à rapprocher du débat autour des big data. Comme l'indique Gelman:
It’s been said that the most important thing in statistics is not what you do with the data, but, rather, what data you use.
Le concept de data science se rapproche plutôt du premier point. Donc, si je comprends bien, le concept de data science part de la donnée et non du problème. On a un jeu de données, que peut-on en faire?
"the point of data science (as I see it) is to be able to grab the damn data."
En un sens, la question est la même que celle posée par le concept de big data: la donnée existe, on ne peut pas l'ignorer. Après, c'est un peu dérangeant ce côté "oublions la statistique, les statisticiens sont des dinosaures dont on ne doit pas se préoccupper", c'est la porte ouverte à toutes les escroqueries (une collecte opportuniste de la donnée introduit des biais dans l'inférence, c'est inévitable). Mais apparemment, c'est surtout le blogger discuté ici qui a ce comportement, et ça ne reflète pas forcément l'ensemble des data scientists.
Au passage, très bonne remarque:
" So I think it’s important to keep these two things separate: (a) reactions (positive or negative) to the hype, and (b) attitudes about the subject of the hype."
Ce n'est pas parce qu'un sujet est à la mode qu'il est bon. Mais ce n'est pas pour autant qu'il est mauvais.
Bon, d'accord, je lance une veille là-dessus.
Un article tout ce qu'il y a de plus sérieux contenant une liste des aliments sans produits chimiques.
Marrant
(via le hollandais volant)
Marrant
(via le hollandais volant)
Apparemment, ce n'est pas si simple: le big data existe qu'on le veuille ou non. Pour le moment, le truc est mobilisé par les informaticiens, mais les stateux devraient aussi s'intéresser à la chose. Pour le moment, la rupture est claire. Mais à l'avenir? "The goal is to prepare members of our profession to collaborate on Big Data problems". On va y venir, on n'y coupera pas...
Comme l'indique l'auteur: "We know statistical thinking—our understanding of modeling, bias, confounding, false discovery, uncertainty, sampling, and design—brings much to the table. We also must be prepared to understand other ways of thinking that are critical in the Age of Big Data and to integrate these with our own expertise and knowledge."
Ça me fait penser aux données GPS et au SIG en écologie: pendant longtemps, ça a été très à la mode, la révolution, on pouvait plus rien faire sans utiliser ça. Ensuite, retour de balancier, comme on savait pas quoi en faire on a commencé à se dire que c'était pas la solution. Et maintenant, des solutions apparaissent, et on se rend compte que ça permet de répondre à certaine question et pas à d'autres... et on devient plus raisonnable
Là, c'est un peut pareil: on a des bouquin du genre: "Big Data: A Revolution That Will Transform How We Live, Work, and Think", tout le monde qui le vend à toutes les sauces, et quand on aura compris qu'on peut faire de la belle merde avec ça, on reviendra à des questions plus raisonnables... mais tout aussi pertinentes.
Bon ben d'accord, je vais lancer une veille là-dessus... à rapprocher de la veille sur les sciences participatives, ce sont les mêmes questions qui se posent!
Comme l'indique l'auteur: "We know statistical thinking—our understanding of modeling, bias, confounding, false discovery, uncertainty, sampling, and design—brings much to the table. We also must be prepared to understand other ways of thinking that are critical in the Age of Big Data and to integrate these with our own expertise and knowledge."
Ça me fait penser aux données GPS et au SIG en écologie: pendant longtemps, ça a été très à la mode, la révolution, on pouvait plus rien faire sans utiliser ça. Ensuite, retour de balancier, comme on savait pas quoi en faire on a commencé à se dire que c'était pas la solution. Et maintenant, des solutions apparaissent, et on se rend compte que ça permet de répondre à certaine question et pas à d'autres... et on devient plus raisonnable
Là, c'est un peut pareil: on a des bouquin du genre: "Big Data: A Revolution That Will Transform How We Live, Work, and Think", tout le monde qui le vend à toutes les sauces, et quand on aura compris qu'on peut faire de la belle merde avec ça, on reviendra à des questions plus raisonnables... mais tout aussi pertinentes.
Bon ben d'accord, je vais lancer une veille là-dessus... à rapprocher de la veille sur les sciences participatives, ce sont les mêmes questions qui se posent!
Ben vinzou, les gars ils ont quand même fait très fort...
via le hollandais volant.
via le hollandais volant.
Waaaaaa cébo.
(via le hollandais volant)
(via le hollandais volant)
J'ai l'impression de lire mon histoire à moi dans ce billet. Sauf que moi, je faisais pas de rugby, mais sinon, sur le principe c'est exactement ça, c'est à la fac que j'ai commencé à aimer aller en cours.
Je suis complètement d'accord avec l'auteur qui indique:
"Une maladie toute française est de croire que notre futur est inscrit dans les astres du parcours scolaire. Si vous n’êtes pas dans les clous pendant les années allant de la 4é à la terminale, si pour des raisons diverses et variées vous dérivez et bien point de salut, vous voilà stigmatisés à jamais."
C'est tellement vrai!
Je suis complètement d'accord avec l'auteur qui indique:
"Une maladie toute française est de croire que notre futur est inscrit dans les astres du parcours scolaire. Si vous n’êtes pas dans les clous pendant les années allant de la 4é à la terminale, si pour des raisons diverses et variées vous dérivez et bien point de salut, vous voilà stigmatisés à jamais."
C'est tellement vrai!
Tiens? cette stratégie de faire des annexes bien détaillées qui raconte des histoires avec des articles qui les résument ne fait pas l'unanimité. En ce qui me concerne, quand on oblige les auteurs a écrire des articles de quelques milliers de mots, je trouve qu'il y a un moment où les annexes commencent à remplacer l'article: elles seules permettent la reproductibilité.
La cuvée Ig-Nobel 2014 est arrivée
8.7% des projets ANR soumis sont acceptés!
Je suis bien content d'être sorti de ce système...
Je suis bien content d'être sorti de ce système...
Bon, et puis je stocke ce post ici, il semble être un peu incontournable en ce moment, et tout le monde en parle, surtout depuis la présentation de Ben Bolker à l'ISEC à Montpellier. La notion de machisme statistique décrit la tendance à vouloir écraser le lecteur sous un arsenal monstrueux de statistiques compliquées et incompréhensibles. C'est ce bloggeur qui a introduit la notion, et qui est très à la mode en ce moment en écologie.
Un peu d'éthymologie:
Courbe sigmoïde: ça vient de la lettre grecque sigma qui produit le son S, et S est la forme de la courbe. Zont été la chercher loin celle-là.
Logarithme: vient de logos (rapport, proportion) et arithmos (nombre), inventé par John Napier au XVIème siècle.
Logistique: inventé par Verhulst au XIXème siècle, sans raison, mais apparemment, en grec ça veut dire calcul, et jusqu'au XVIIIème logistique était synonyme de logarithme. Plus après Verhulst.
Me coucherai moins con.
Courbe sigmoïde: ça vient de la lettre grecque sigma qui produit le son S, et S est la forme de la courbe. Zont été la chercher loin celle-là.
Logarithme: vient de logos (rapport, proportion) et arithmos (nombre), inventé par John Napier au XVIème siècle.
Logistique: inventé par Verhulst au XIXème siècle, sans raison, mais apparemment, en grec ça veut dire calcul, et jusqu'au XVIIIème logistique était synonyme de logarithme. Plus après Verhulst.
Me coucherai moins con.
Un plaidoyer pour arrêter d'utiliser des abbréviations pour les titres de journaux dans les listes de citations. Rapport qu'à l'époque digitale, c'est pas une bonne idée d'avoir plusieurs identifiants pour le même journal, que ça introduit des sources de confusions pour les bibliothécaires, et que ça crée un esprit de corps. Bon, c'est pousser les choses un peu loin, mais c'est vrai que le gain d'utiliser des abréviations est moins important maintenant que tout est digital.
p. 301 de "Perfectly reasonable deviations (from the beaten track). Richard P. Feynman:
"In physics the truth is rarely perfecly clear, and that is certainly universally the case in human affairs. Hence, what is not surrounded by uncertainty cannot be the truth".
Une très belle citation que je me garde sous le coude ici
"In physics the truth is rarely perfecly clear, and that is certainly universally the case in human affairs. Hence, what is not surrounded by uncertainty cannot be the truth".
Une très belle citation que je me garde sous le coude ici
Marrant. En même temps, en lisant la source, le gars qui propose d'inclure dans tous les papiers la citation suivante de façon routinière est sérieux:
My salary, grants, promotions, professional standing, and career all depend on publishing significant findings frequently. I declare these incentives have in no way influenced the integrity of the present research.
My salary, grants, promotions, professional standing, and career all depend on publishing significant findings frequently. I declare these incentives have in no way influenced the integrity of the present research.
Non, on n'utilise pas que 10% de son cerveau.
très intéressant: un post de Roger D. Peng au sujet d'un tweet de Jan de Leeuw: "As long as statistics continues to emphasize assumptions, models, and inference it will remain a minor subfield of data science.", suivi d'un second tweet: "Statistics is the applied science that constructs and studies techniques for data analysis."
Ce que Roger D Peng interprête, à tort à mon avis comme le fait que la statistique n'est qu'un sous-champ mineur de la "data science" (incluant biométrie, psychométrie, etc.). C'est pas normal, ça devrait être le contraire, i.e. la data science devrait être un sous-champs de la statistique "What should be is that statistics should include the field of data science. Honestly, that would be beneficial to the field of statistics and would allow us to provide a home to many people who don't necessarily have one ". Le fait est qu'être à la frontière n'est pas toujours simple, mais d'un autre côté, je ne suis pas d'accord avec le point de vue de Roger D Peng. La statistique est une discipline des mathématiques, il est normal que le statisticien fonctionne en mathématicien. Je ne pense pas que la stat devrait englober la data science. Pour moi, ce serait aller trop loin (en exagérant un peu, ce serait un peu équivalent au physicien convaincu que la science physique devrait englober toutes les autres sciences).
Par contre, je trouve bien que des gens comme Jan de Leeuw souligne que le rôle du stateux n'est pas seulement de développer des techniques pour l'inférence. L'exploratoire fait aussi partie du champs de la statistique.
Ce que Roger D Peng interprête, à tort à mon avis comme le fait que la statistique n'est qu'un sous-champ mineur de la "data science" (incluant biométrie, psychométrie, etc.). C'est pas normal, ça devrait être le contraire, i.e. la data science devrait être un sous-champs de la statistique "What should be is that statistics should include the field of data science. Honestly, that would be beneficial to the field of statistics and would allow us to provide a home to many people who don't necessarily have one ". Le fait est qu'être à la frontière n'est pas toujours simple, mais d'un autre côté, je ne suis pas d'accord avec le point de vue de Roger D Peng. La statistique est une discipline des mathématiques, il est normal que le statisticien fonctionne en mathématicien. Je ne pense pas que la stat devrait englober la data science. Pour moi, ce serait aller trop loin (en exagérant un peu, ce serait un peu équivalent au physicien convaincu que la science physique devrait englober toutes les autres sciences).
Par contre, je trouve bien que des gens comme Jan de Leeuw souligne que le rôle du stateux n'est pas seulement de développer des techniques pour l'inférence. L'exploratoire fait aussi partie du champs de la statistique.
À parcourir absolument. Le bouquin est disponible gratuitement, apparemment, du coup je vais récupérer ça.
Encore un serveur de preprint, figures, etc. pour les écolos (entre autre).
Edit: en fait, c'est un fourre-tout où on peut stocker tout un tas de trucs, incluant des préprints, des jeux de données, des vidéos, des figures, des candidatures à des offres de financements, etc.
Pas sûr que ce soit super utile. À voir.
Edit: en fait, c'est un fourre-tout où on peut stocker tout un tas de trucs, incluant des préprints, des jeux de données, des vidéos, des figures, des candidatures à des offres de financements, etc.
Pas sûr que ce soit super utile. À voir.
Un autre point de vue sur l'affaire Facebook. La clef de la critique: l'expérience n'a pas été approuvée par un comité d'éthique comme c'est le cas d'ordinaire en psychologie.
L'auteur indique "Unfortunately, we cannot undo the harm that potentially has been caused by this research. Considering the sample size (over 600,000) and the reported significant effect of the experimental manipulation, it is possible that vulnerable participants were harmed".
C'est vrai que, comme le disait un autre blogger (http://junkcharts.typepad.com/numbersruleyourworld/2014/06/the-facebook-experiment-controversy.html), toute opération publicitaire, tout discours politique est en soi une opération de manipulation psychologique dont il ne doit pas être compliqué de montrer l'effet non seulement sur les émotions, mais même sur les actes d'une population.
Mais d'un autre côté, ce que souligne ce gars avec raison est qu'il y a des règles scientifiques auxquelles on ne doit pas déroger même quand on s'appelle Facebook. Et l'obligation de passage d'une expérience en psychologie devant un comité d'éthique en est une. Mettre en œuvre ce genre d'expérience à grande échelle sans l'aval d'un comité d'éthique est une pratique discutable, non parce que cette expérience est en elle-même plus criticable que les pratiques politiques ou commerciales habituelles, mais parce qu'elle a une visée scientifique et qu'elle doit donc se plier aux règles scientifiques conçues pour éviter les dérives.
L'auteur indique "Unfortunately, we cannot undo the harm that potentially has been caused by this research. Considering the sample size (over 600,000) and the reported significant effect of the experimental manipulation, it is possible that vulnerable participants were harmed".
C'est vrai que, comme le disait un autre blogger (http://junkcharts.typepad.com/numbersruleyourworld/2014/06/the-facebook-experiment-controversy.html), toute opération publicitaire, tout discours politique est en soi une opération de manipulation psychologique dont il ne doit pas être compliqué de montrer l'effet non seulement sur les émotions, mais même sur les actes d'une population.
Mais d'un autre côté, ce que souligne ce gars avec raison est qu'il y a des règles scientifiques auxquelles on ne doit pas déroger même quand on s'appelle Facebook. Et l'obligation de passage d'une expérience en psychologie devant un comité d'éthique en est une. Mettre en œuvre ce genre d'expérience à grande échelle sans l'aval d'un comité d'éthique est une pratique discutable, non parce que cette expérience est en elle-même plus criticable que les pratiques politiques ou commerciales habituelles, mais parce qu'elle a une visée scientifique et qu'elle doit donc se plier aux règles scientifiques conçues pour éviter les dérives.
Dans la série "articles originaux dans plos one". Quand on monte un escalier, le monter deux marches à la fois permet d'atteindre un *taux* de dépense d'énergie plus élevé qu'une marche à la fois. En d'autres termes, c'est plus fatiguant. Mais comme la montée est plus longue en prenant une marche à la fois, au total, la *quantité* d'énergie dépensée est supérieure dans le cas une marche à la fois. Moralité, pour maigrir, on monte les escaliers une marche à la fois.
Tiens? un point de vue intéressant sur l'expérience de manipulation à grande échelle de Facebook. L'auteur ne comprend pas pourquoi une telle controverse, dans la mesure où ce genre de manipulation est menée à grande échelle par n'importe quel politicien de base ou par n'importe quelle entreprise de pub. Et en pire: alors que l'expérience Facebook ne visait qu'à manipuler les émotions, les politiciens et boites de pub cherchent à manipuler émotions, comportement action.
Bon, de toutes façons, ils sont chez eux ils font ce qu'ils veulent. Moi chuis pas sur facebook et je m'en porte pas plus mal.
Bon, de toutes façons, ils sont chez eux ils font ce qu'ils veulent. Moi chuis pas sur facebook et je m'en porte pas plus mal.
Ecology letters interdit la publication de pre-print avant soumission des papiers aux revues (genre bioRxiv, arxiv, etc). Une très bonne synthèse de pourquoi c'est une décision criticable.
Je suis complètement d'accord avec lui: (i) La définition d'une politique éditoriale d'une revue ne doit concerner que la revue en elle même, et non se substituer au chercheur dans sa définition de stratégie de recherche (même si cette stratégie est mauvaise), (ii) les éditeurs sont en général content lorsqu'un papier a déjà été relu et critiqué par des spécialistes du domaine (d'ailleurs, pour les grandes revues comme Nature et Science, c'est même une obligation d'avoir déjà fait relire l'article par des spécialistes avant la soumission et l'envoi aux référés), (iii) la rapidité de publication dans Ecology letters ne concerne qu'un très petit pourcentage des articles soumis, (iv) Ecology letters peut parfaitement n'être pas le premier choix de revue, et en contraignant les auteurs à éviter les relectures au cas où.
Surtout la décision est très bizarre quand on connaît l'importance que revêt ArXiv chez les matheux, et comment ce système permet d'augmenter la qualité générale de la recherche dans ce domaine!
Je suis complètement d'accord avec lui: (i) La définition d'une politique éditoriale d'une revue ne doit concerner que la revue en elle même, et non se substituer au chercheur dans sa définition de stratégie de recherche (même si cette stratégie est mauvaise), (ii) les éditeurs sont en général content lorsqu'un papier a déjà été relu et critiqué par des spécialistes du domaine (d'ailleurs, pour les grandes revues comme Nature et Science, c'est même une obligation d'avoir déjà fait relire l'article par des spécialistes avant la soumission et l'envoi aux référés), (iii) la rapidité de publication dans Ecology letters ne concerne qu'un très petit pourcentage des articles soumis, (iv) Ecology letters peut parfaitement n'être pas le premier choix de revue, et en contraignant les auteurs à éviter les relectures au cas où.
Surtout la décision est très bizarre quand on connaît l'importance que revêt ArXiv chez les matheux, et comment ce système permet d'augmenter la qualité générale de la recherche dans ce domaine!
Un article de TREE hors de mon champs de compétence, mais dont je garde le lien rien que pour le titre. ya des géns qui savent écrire un titre accrocheur. Et le résumé.
Ça me donne envie de lire l'article.
Un jour peut-être.
Ça me donne envie de lire l'article.
Un jour peut-être.
Marrant. Et yen a plein d'autres sur le site.
Via Mathieu. Intéressant.
Marrant. Et j'aime bien le Calvin et Hobbes.
Intéressant. Des conseils pour les éditeurs de revues scientifiques pour identifier les reviews pourries. En bref:
* Si la review fait un paragraphe de long, elle est naze dans 90% des cas
* Si le reviewer est clairement un adversaire (aveuglément opposé aux idées, sans discussion sur le travail en lui-même), la review est naze dans 90% des cas
* Si le reviewer est un copain de l'auteur, il sera un peu trop complaisant, donc vérifier les collaborations entre auteur et référé
* Si le reviewer se concentre sur le manque de nouveauté du papier: Novelty is a poisoned chalice – don’t fall into the trap of thinking that all papers have to be absolutely, ground-shakingly and Earth-shatteringly novel. True novelty is very rare.
* Si la review fait un paragraphe de long, elle est naze dans 90% des cas
* Si le reviewer est clairement un adversaire (aveuglément opposé aux idées, sans discussion sur le travail en lui-même), la review est naze dans 90% des cas
* Si le reviewer est un copain de l'auteur, il sera un peu trop complaisant, donc vérifier les collaborations entre auteur et référé
* Si le reviewer se concentre sur le manque de nouveauté du papier: Novelty is a poisoned chalice – don’t fall into the trap of thinking that all papers have to be absolutely, ground-shakingly and Earth-shatteringly novel. True novelty is very rare.
Tiens? un papier dans TREE sur la possibilité d'introduire une mesure de la qualité du processus de review pour chaque revue.
À récupérer et lire un jour
À récupérer et lire un jour
Un post de Ben Bolker très intéressant: lorsque l'on développe un logiciel de stats on doit atteindre un compromis entre logiciel super facile à utiliser, user friendly et tout (mais qui du coup, risque implicitement de suggérer à l'utilisateur qu'il n'a pas besoin de comprendre ce qu'il fait) et un logiciel qui va demander à l'utilisateur un investissement plus important pour en comprendre la logique, garantissant de ce fait une compréhension minimale et de fait, un risque d'erreur plus faible. Mais ce faisant, on diminue de la même façon le nombre d'utilisateurs.
Le compromis n'est pas si simple à trancher. En outre, il est souvent difficile de concevoir des garde-fous, comme bolker le décrit bien dans ses exemples. Cela dit, en conclusion, il semble trancher: "There’s nothing like a broad user base for finding new, exciting applications, and having people use your methods to do interesting science may be the best reward."
Le compromis n'est pas si simple à trancher. En outre, il est souvent difficile de concevoir des garde-fous, comme bolker le décrit bien dans ses exemples. Cela dit, en conclusion, il semble trancher: "There’s nothing like a broad user base for finding new, exciting applications, and having people use your methods to do interesting science may be the best reward."
Joli (via le hollandais volant)
Via sebsauvage. Marrant, faudra que j'essaie...
marrant
Les images de la course d'amibes.
Après la course de lévrier, la course d'amibes génétiquement modifiées. Moi, je te me commencerait par te me les doper à l'EPO...
À lire, quand j'aurai le temps
Un groupe de chercheur travaillant sur l'interaction maths/environnement/écologie
Ce sont des choses qui arrivent
Ahem.
Les ricains, hein...
Les ricains, hein...
Intéressant...
(via mathieu) Un gars qui expose ce qu'il attend des membres de son labo, et qui en retour, expose ce que ces membres sont en droit d'attendre de lui.
Clair et net.
Clair et net.
Le débat continue. Voir aussi le commentaire, même si je ne vois pas bien où le commentateur veut en venir: je suis d'accord que la donnée est plus couteuse que le logiciel, et je suis d'accord qu'un logiciel ou une méthode peuvent être utilisées de multiples fois, contrairement aux données qu'il est mal vu d'utiliser de nombreuses fois (bootstrapping papers). Et donc?
Pas faux.
À regarder. Un jour.
Via Mathieu. Ça va finir par péter cette histoire... Et le plus tôt sera le mieux, yen a un peu raz-le-bol de ces méthodes d'escroc.
Et un autre...
Tiens? un sommet sur les sciences participatives. Et des liens intéressants...
À garder sous le coude
À garder sous le coude
Oui, ce n'est pas nouveau...
Un modèle pour les sciences participatives. Faudra que je récupère ça...
(via le hollandais volant) Ça y est, je suis convaincu. Quand je pense à tout le temps que j'ai perdu en croyant à cette connerie de théorie de l'évolution! L'argument qui m'a convaincu est le dernier: si l'on descend du singe, pourquoi est-ce qu'il y a toujours des singes aujourd'hui?
Cela dit, les autres arguments sont tout aussi convaincants...
Quand même, vive la laïcité!
Cela dit, les autres arguments sont tout aussi convaincants...
Quand même, vive la laïcité!
Enfin une explication de ce que c'est qu'un ordinateur quantique. Bon, faut que je prenne le temps de relire ça, parce que je ne suis pas sûr d'avoir tout compris.
Fascinant: on demande à 174 scientifiques de renom (attention, des pointures, e.g. Gigerenzer en Psycho) quelle idée, selon eux, devrait être éliminée de la science.
Les réponses sont fascinantes et instructives. Vraiment.
Bon, j'ai pas tout lu, mais je pense que je prendrai le temps un jour
Les réponses sont fascinantes et instructives. Vraiment.
Bon, j'ai pas tout lu, mais je pense que je prendrai le temps un jour
Un résumé marrant des thèses par leurs étudiants. Ya même un fil RSS. Me suis abonné.
Pourquoi évaluer les chercheurs sur la base du nombre de publis, voire du facteur d'impact des revues dans lesquelles on publie, est une ânerie.
Bon ça on le savait déjà, mais les conséquences en Chine (où le professeur peut être rétrogradé au rang de maître de conf, puis de technicien de labo s'il ne publie pas assez) sont assez impressionnantes.
Bon ça on le savait déjà, mais les conséquences en Chine (où le professeur peut être rétrogradé au rang de maître de conf, puis de technicien de labo s'il ne publie pas assez) sont assez impressionnantes.
Et apparemment, la dépublication est un processus courant!
On croit rêver!
On croit rêver!
Tiens? c'est nouveau ça. On dépublie une étude scientifique!!!! Du grand n'importe quoi.
Marrant: quand on laisse du matos sur le terrain, ajouter une étiquette "C'est pour ma thèse, svp ne pas toucher, appelez moi si vous voulez des infos" est plus efficace à empêcher le vandalisme et le vol de matos que "matériel sous surveillance! 12 balles dans la peau si vous touchez!". Je caricature mais bon.
Un article très intéressant de grands ponts dans nature. À garder sous le coude parce que c'est toujours bon de rappeler certaines évidences.
Et je pense en particulier à:
Extrapolating beyond the data is risky. Patterns found within a given range do not necessarily apply outside that range. Thus, it is very difficult to predict the response of ecological systems to climate change, when the rate of change is faster than has been experienced in the evolutionary history of existing species, and when the weather extremes may be entirely new.
Ben oui. Voila une remarque pertinente
Et je pense en particulier à:
Extrapolating beyond the data is risky. Patterns found within a given range do not necessarily apply outside that range. Thus, it is very difficult to predict the response of ecological systems to climate change, when the rate of change is faster than has been experienced in the evolutionary history of existing species, and when the weather extremes may be entirely new.
Ben oui. Voila une remarque pertinente
Tout est dans le titre. Bob O'Hara est co-auteur. Pas lu, mais à lire
Seuls les paresseux travaillent vraiment dur
Une critique des réseaux sociaux scientifiques et en particulier de MyScienceWork et de leurs méthodes euh... criticables. MyScienceWork s'affiche comme défenseur de l'open access, sauf que l'adhésion à leur système est nécessaire à toute opération. C'est parfaitement compréhensible, mais ce n'est pas de l'open-access. J'aurais un peu la même critique à faire a ResearchGate... J'y suis abonné parce que c'est quand même pratique de connaître les dernières publis des chercheurs que l'on suit, mais c'est vrai que je préfèrerais un réseau réellement open-access.
Serais curieux de savoir si ça existe...
Serais curieux de savoir si ça existe...
Extrait du précédent site. Je garde cette figure dans un coin, elle est vraiment jolie.
Une cartographie de la science actuelle. Très marrant de voir comme les matheux sont isolés du reste
Moui... l'étude à l'air propre, mais je suis pas convaincu pour la conclusion
Un site permettant de définir un identifiant unique à chaque chercheur. Pour différencier Jean Dupont du CNRS et Jean Dupont de l'USGS. Je sais pas trop si ça va prendre, mais à garder sous le coude
La science ne s'autocorrige pas. TL;DR. Mais à lire un jour
J'aime bien l'image
Tiens le prix de la "bad ad hoc hypothesis" a été décerné. Extrait:
Dr. Edward Chung presenting on how Lyme Disease is actually an evolutionary calling for people to stay inside and become nerds, Cornell PhD candidate Stacy Farina theorizing that fish’s low intelligence is a natural protection against existential crisis, among several other high ranking academic minds. The winner, published author and M.I.T. graduate Tomer Ullman, took home the “Shrugging Darwin” with his presentation on how screaming babies were used as adrenaline boosters in ancient societies.
Dr. Edward Chung presenting on how Lyme Disease is actually an evolutionary calling for people to stay inside and become nerds, Cornell PhD candidate Stacy Farina theorizing that fish’s low intelligence is a natural protection against existential crisis, among several other high ranking academic minds. The winner, published author and M.I.T. graduate Tomer Ullman, took home the “Shrugging Darwin” with his presentation on how screaming babies were used as adrenaline boosters in ancient societies.
Tiens, un genre de wikipedia pour chercheurs.
Tiens, un festival scientifique marrant. L'objectif est de construire la théorie de l'évolution la plus farfelue possible en s'appuyant sur des faits et des références. Voir le SMBC à ce sujet. À suivre...
Ah ben voila! suffisait de demander

