2387 shaares
Sur le big data: on est vraiment sur des pbs d'informaticiens dans ce cas. Le problème de ces histoires de "data scientists", c'est que chacun y met un peu ce qu'il veut. Pour certains, il s'agit de stats exploratoires (originellement, le terme vient d'un papier de Cleveland quand même). Pour d'autre, c'est l'évolution logique de l'approche informaticienne de l'analyse de données, celle qui passe outre les questions statistiques. Là, on est dans le dernier cas. Alors? ben la question n'est pas simple, la tendance "data science and big data" existe indéniablement, comme le dit très bien le gars.
Une appli shiny pour voir l'évolution des téléchargements de packages grâce aux cranlogs de Rstudio
J'avais remarqué que Elsevier avait des pratiques douteuses dans ce genre. Depuis qu'on a sorti un papier sur l'efficacité de la vaccination contre la peste porcine dans Journal of Theoretical biology, je suis spammé comme jamais. Le nombre de sollicitations de participation à des soi-disantes conf (ressemblant plus à des opérations de pub qu'autre chose), et de spams en tout genre que je reçois, c'est hallucinant...
Marrant
Un article TRÈS intéressant sur l'interface science/politique. En résumé, le gouvt anglais veut connaître l'efficacité du prélèvement de blaireaux sur le contrôle de la tuberculose bovine. Il finance alors une étude, façon étude monstrueuse, avec randomisation, étude en double aveugle, le machin a l'air bien ficelé (j'ai pas lu l'étude -- à lire donc -- sigh...). Et là, surprise, l'étude conclut que le prélèvement de blaireaux est souvent inefficace, peut être efficace dans des conditions d'application irréaliste (genre erradication ultra rapide et ultra efficace de l'espèce à court terme), et sinon peut même *aggraver* la situation. Et là, les gestionnaires sont dans la merde: ils vivent tous avec l'idée que le prélèvement est LA solution, et voilà-t-y-pas qu'on leur dit que non. Et même qu'on leur dit que ça peut être pire.
Et pire, on ne leur dit pas pourquoi, et ça c'est pire que tout. On ne va pas changer notre façon de faire sans savoir quelle est la cause de ce résultat. J'aime bien la classique réaction des chefs "It depends whether you want to base your policy on a sound veterinary opinion, or just on statistics". Bougerai pas. Le gouvernement, dans la merde, cherche un second avis en 2007. Le rapport, écrit à la va vite d'après un éditorial de Nature, et truffé d'erreurs d'après l'auteur de l'article de blog, rassure le gouvt: ne changez rien, ils se sont plantés. Ce rapport est cité par Nature comme exemple typique du cas où un gouvernement ne tient aucun compte de l'avis scientifique après l'avoir demandé (l'éditorial de Nature sur le sujet est passionnant.).
Et avec les années, les études ultérieures donnent raison à cette première étude. On se rend compte que par le prélèvement, on favorise la dispersion des bestioles malades, d'où agravation. Mais les habitudes ont la vie dure, et les responsables ne changent pas la stratégie: prélèvement accru de blaireaux en cas de TB. On continue à débattre, les deux parties continuent à se taper dessus, les politiques n'ont pas vraiment envie de voir les choses évoluer... La conclusion: Since the ISG [le groupe en charge de cette étude] was disbanded in 2007, other advisory groups have come and gone. Over time the contribution of independent scientists has declined, with greater inputs from vets and farming representatives. Two further culls went ahead in 2013, but when an independent panel deemed them ineffective and possibly inhumane, it was not reappointed. The 2014 culls had no independent oversight, and subsequent claims of success are based on extremely shaky data. Outside government, views have become entrenched and cherry picking evidence has become a cottage industry for both sides of the debate.
Bon, cet article ne donne qu'un seul côté du débat, j'aimerais bien en savoir plus... À suivre.
Et pire, on ne leur dit pas pourquoi, et ça c'est pire que tout. On ne va pas changer notre façon de faire sans savoir quelle est la cause de ce résultat. J'aime bien la classique réaction des chefs "It depends whether you want to base your policy on a sound veterinary opinion, or just on statistics". Bougerai pas. Le gouvernement, dans la merde, cherche un second avis en 2007. Le rapport, écrit à la va vite d'après un éditorial de Nature, et truffé d'erreurs d'après l'auteur de l'article de blog, rassure le gouvt: ne changez rien, ils se sont plantés. Ce rapport est cité par Nature comme exemple typique du cas où un gouvernement ne tient aucun compte de l'avis scientifique après l'avoir demandé (l'éditorial de Nature sur le sujet est passionnant.).
Et avec les années, les études ultérieures donnent raison à cette première étude. On se rend compte que par le prélèvement, on favorise la dispersion des bestioles malades, d'où agravation. Mais les habitudes ont la vie dure, et les responsables ne changent pas la stratégie: prélèvement accru de blaireaux en cas de TB. On continue à débattre, les deux parties continuent à se taper dessus, les politiques n'ont pas vraiment envie de voir les choses évoluer... La conclusion: Since the ISG [le groupe en charge de cette étude] was disbanded in 2007, other advisory groups have come and gone. Over time the contribution of independent scientists has declined, with greater inputs from vets and farming representatives. Two further culls went ahead in 2013, but when an independent panel deemed them ineffective and possibly inhumane, it was not reappointed. The 2014 culls had no independent oversight, and subsequent claims of success are based on extremely shaky data. Outside government, views have become entrenched and cherry picking evidence has become a cottage industry for both sides of the debate.
Bon, cet article ne donne qu'un seul côté du débat, j'aimerais bien en savoir plus... À suivre.
Intéressant: on peut trouver des références sur une séquence d'entiers ici. Très complet.
L'autorité de certification libre pour la délivrance de certificats SSL.
Dans cette idée du https généralisé imposé par mozilla et google...
Dans cette idée du https généralisé imposé par mozilla et google...
Idem, m'a l'air intéressant
A lire
Profitons bien des derniers instants des navigateurs mozilla based avant de passer à autre chose. Mozilla est en train de se tirer une balle dans le pied...
Collabra: une revue à suivre de près.
À suivre de près. Quand on voit l'efficacité des opensourcemaps, faut voir comment un truc comme ça peut marcher.
Bonne analyse.
Boitani dans Spiegel sur le loup
Anagrames des stations de métro à Paris. Yen a des jolis!
A lire.
Rédaction Médicale et Scientifique: Les mégarevues auraient remplacé le peer-review par le peer-view
Plos one dans le colimateur. Je suis pas complètement d'accord avec le gars.
C'est vrai que 70% de taux d'acceptation, ça fait beaucoup, mais ça s'explique: la politique de la revue, c'est de ne pas juger de l'intérêt scientifique d'un article. Seule la qualité scientifique compte. Si l'approche scientifique est correcte, on ne rejettera pas un article qui démontre que le ciel est bleu.
Pour quelqu'un comme moi, c'est important: scientifiquement, ça n'apporte rien de savoir que la densité de blaireau était entre 2 et 8 fois plus importante en Pays d'Auge que dans le Bessin entre 2000 et 2005. Pourtant, on a bien utilisé une approche scientifique pour arriver à cette estimation. Par contre, on a essayé de soumettre un article décrivant cette approche et ces résultats à Ecography, et l'article n'est pas parti aux référés; argument: "vous ne tirez aucune conclusion sur le processus biologique à l'origine des variations de densité", ce qui est vrai. L'article n'a aucun intérêt sur le plan science fondamentale. Pourtant, il a une importance sociale essentielle: on a besoin de ces éléments pour prendre des décisions en matière de gestion de la faune. On m'objectera -- à juste titre -- que ce n'est pas parce qu'un travail a une importance sociale qu'il a sa place dans une revue scientifique. C'est vrai, mais: (i) le travail mené pour cette estimation est un travail scientifique (cf. plus bas pour l'adresse de l'article, que le lecteur se fasse une opinion), (ii) c'est parce qu'il est scientifique qu'il est considéré pour prendre des décisions de gestion. Et donc, parce que l'approche utilisée pour obtenir cette estimation est une approche scientifique, ces éléments ont leur place dans une revue scientifique (en outre, je sors peut-être un peu du débat, mais comme ces résultats sont utilisés pour prendre des décisions de gestion, la validation par les pairs de la démarche utilisée pour l'estimation -- au cœur du processus de publication scientifique -- est précisément ce qui permet de calmer le jeu quand les conflits sociaux éclatent entre différentes parties, lesquelles n'hésitent pas à taxer les auteurs de "collusion avec l'ennemi" autrement: on est toujours suspect de fraude dans ce type de discussion lorsque les résultats ne vont pas dans le sens espéré!).
Et c'est là que Plos one est intéressant: on l'a soumis chez eux, on a eu une review de qualité (c'est là que je ne suis pas d'accord avec le "peer-viewed": les référés n'étaient pas plus complaisants que dans une autre revue -- et perso, en tant que référé, je ne fais pas du plus mauvais travail pour plos one que pour une autre revue. Simplement, je ne juge pas le fond), qui a permis de bien améliorer l'article, et celui-ci est maintenant dispo sur Plos one (http://journals.plos.org/plosone/article?id=10.1371/journal.pone.0121689). Et hormis Plos One, quelle revue acceptera ce type de résultats qui n'apporte rien d'un point de vue théorie écologique ou recommandation de gestion?
Il y avait eu un débat intéressant sur Plos One dans les commentaires d'un article de Dynamic Ecology (https://dynamicecology.wordpress.com/2013/01/11/is-using-detection-probabilities-a-case-of-statistical-machismo/): Eric Larson notait "I view one service of that journal as being a good outlet for response or rebuttal papers that are (hopefully) technically sound, but may not get a fair review at specialist or society journals owing to entrenched interests or cultural drift within particular fields". En réponse à ce commentaire, Jeremy Fox résumait bien cette opinion que je fais mienne au sujet de Plos One: "They publish a lot of very boring stuff. But they also publish some very interesting, provocative stuff that likely had a rough ride at selective journals for being too unconventional."
Donc, pour répondre aux questions posées:
1. Comment la communauté des reviewers peut répondre aux méga-revues ?
De la même façon qu'aux micro-reviews: ils peuvent refuser si le nombre de demandes est trop important. Là, je ne vois pas où est le pb, si je reçois 30 demandes de review de chez plos one, je vais pas toutes les accepter! Les reviewers ne sont pas bêtes, ils savent très bien résister à la pression (trop bien d'ailleurs, les éditeurs de revues le savent mieux que personne, vue la difficulté qu'ils ont à trouver des reviewers!); les reviewers cherchent en général à diversifier leur expertise.
2. Comment les scientifiques managent et lisent ces pages publiées qui augmentent ?
En ce qui me concerne, de la même façon que je lis ce blog: par mon aggrégateur de flux qui m'indique quand un article sort sur un sujet qui m'intéresse. Et plos one n'est pas 1/10 aussi productif que les serveurs de preprint type arxiv (pour infos: une 40aine d'articles archivés par jour)!
3. Des auteurs sont tentés par ces revues, mais pour quel impact de leur recherche ? Est-ce que leurs articles sont remarqués ?
En ce qui me concerne, j'ai déjà décrit plus haut ce qui me poussait à publier dans plos one. Et aujourd'hui, la diffusion d'un article se fait aussi par d'autres moyens (messages sur les listes, réseaux sociaux -- researchgate, etc.). Et voir plus haut les commentaires de Dynamic Ecology.
4. Est-ce que l'objectif de faire de la bonne science pour les financeurs doit être dilué par la course aux 'metrics' ?
Non. Quel rapport avec Plos One?
5. Est-ce que la communauté scientifique, déjà surchargée, pourra maintenir de hauts standards dans ces conditions ?
J'ai pas mal d'articles de plos one dans ma base biblio, et je ne lis pas plus de conneries dans plos one que dans les autres revues (ce qu'un commentaire de ce blog note également, à juste titre -- et je suis d'accord avec lui: développons les serveurs de pre-print avec commentaires associés! quand on voit tout ce que les matheux en retirent, je ne comprends pas cette réticence des autres domaines!).
6. Comment l'explosion des citations, voire des auto-citations, va mettre en péril les indicateurs existants ?
Ça, perso, je m'en fous, perso je suis pas jugé sur mon H index, ni sur l'impact factor des journaux où je publie XD.
C'est vrai que 70% de taux d'acceptation, ça fait beaucoup, mais ça s'explique: la politique de la revue, c'est de ne pas juger de l'intérêt scientifique d'un article. Seule la qualité scientifique compte. Si l'approche scientifique est correcte, on ne rejettera pas un article qui démontre que le ciel est bleu.
Pour quelqu'un comme moi, c'est important: scientifiquement, ça n'apporte rien de savoir que la densité de blaireau était entre 2 et 8 fois plus importante en Pays d'Auge que dans le Bessin entre 2000 et 2005. Pourtant, on a bien utilisé une approche scientifique pour arriver à cette estimation. Par contre, on a essayé de soumettre un article décrivant cette approche et ces résultats à Ecography, et l'article n'est pas parti aux référés; argument: "vous ne tirez aucune conclusion sur le processus biologique à l'origine des variations de densité", ce qui est vrai. L'article n'a aucun intérêt sur le plan science fondamentale. Pourtant, il a une importance sociale essentielle: on a besoin de ces éléments pour prendre des décisions en matière de gestion de la faune. On m'objectera -- à juste titre -- que ce n'est pas parce qu'un travail a une importance sociale qu'il a sa place dans une revue scientifique. C'est vrai, mais: (i) le travail mené pour cette estimation est un travail scientifique (cf. plus bas pour l'adresse de l'article, que le lecteur se fasse une opinion), (ii) c'est parce qu'il est scientifique qu'il est considéré pour prendre des décisions de gestion. Et donc, parce que l'approche utilisée pour obtenir cette estimation est une approche scientifique, ces éléments ont leur place dans une revue scientifique (en outre, je sors peut-être un peu du débat, mais comme ces résultats sont utilisés pour prendre des décisions de gestion, la validation par les pairs de la démarche utilisée pour l'estimation -- au cœur du processus de publication scientifique -- est précisément ce qui permet de calmer le jeu quand les conflits sociaux éclatent entre différentes parties, lesquelles n'hésitent pas à taxer les auteurs de "collusion avec l'ennemi" autrement: on est toujours suspect de fraude dans ce type de discussion lorsque les résultats ne vont pas dans le sens espéré!).
Et c'est là que Plos one est intéressant: on l'a soumis chez eux, on a eu une review de qualité (c'est là que je ne suis pas d'accord avec le "peer-viewed": les référés n'étaient pas plus complaisants que dans une autre revue -- et perso, en tant que référé, je ne fais pas du plus mauvais travail pour plos one que pour une autre revue. Simplement, je ne juge pas le fond), qui a permis de bien améliorer l'article, et celui-ci est maintenant dispo sur Plos one (http://journals.plos.org/plosone/article?id=10.1371/journal.pone.0121689). Et hormis Plos One, quelle revue acceptera ce type de résultats qui n'apporte rien d'un point de vue théorie écologique ou recommandation de gestion?
Il y avait eu un débat intéressant sur Plos One dans les commentaires d'un article de Dynamic Ecology (https://dynamicecology.wordpress.com/2013/01/11/is-using-detection-probabilities-a-case-of-statistical-machismo/): Eric Larson notait "I view one service of that journal as being a good outlet for response or rebuttal papers that are (hopefully) technically sound, but may not get a fair review at specialist or society journals owing to entrenched interests or cultural drift within particular fields". En réponse à ce commentaire, Jeremy Fox résumait bien cette opinion que je fais mienne au sujet de Plos One: "They publish a lot of very boring stuff. But they also publish some very interesting, provocative stuff that likely had a rough ride at selective journals for being too unconventional."
Donc, pour répondre aux questions posées:
1. Comment la communauté des reviewers peut répondre aux méga-revues ?
De la même façon qu'aux micro-reviews: ils peuvent refuser si le nombre de demandes est trop important. Là, je ne vois pas où est le pb, si je reçois 30 demandes de review de chez plos one, je vais pas toutes les accepter! Les reviewers ne sont pas bêtes, ils savent très bien résister à la pression (trop bien d'ailleurs, les éditeurs de revues le savent mieux que personne, vue la difficulté qu'ils ont à trouver des reviewers!); les reviewers cherchent en général à diversifier leur expertise.
2. Comment les scientifiques managent et lisent ces pages publiées qui augmentent ?
En ce qui me concerne, de la même façon que je lis ce blog: par mon aggrégateur de flux qui m'indique quand un article sort sur un sujet qui m'intéresse. Et plos one n'est pas 1/10 aussi productif que les serveurs de preprint type arxiv (pour infos: une 40aine d'articles archivés par jour)!
3. Des auteurs sont tentés par ces revues, mais pour quel impact de leur recherche ? Est-ce que leurs articles sont remarqués ?
En ce qui me concerne, j'ai déjà décrit plus haut ce qui me poussait à publier dans plos one. Et aujourd'hui, la diffusion d'un article se fait aussi par d'autres moyens (messages sur les listes, réseaux sociaux -- researchgate, etc.). Et voir plus haut les commentaires de Dynamic Ecology.
4. Est-ce que l'objectif de faire de la bonne science pour les financeurs doit être dilué par la course aux 'metrics' ?
Non. Quel rapport avec Plos One?
5. Est-ce que la communauté scientifique, déjà surchargée, pourra maintenir de hauts standards dans ces conditions ?
J'ai pas mal d'articles de plos one dans ma base biblio, et je ne lis pas plus de conneries dans plos one que dans les autres revues (ce qu'un commentaire de ce blog note également, à juste titre -- et je suis d'accord avec lui: développons les serveurs de pre-print avec commentaires associés! quand on voit tout ce que les matheux en retirent, je ne comprends pas cette réticence des autres domaines!).
6. Comment l'explosion des citations, voire des auto-citations, va mettre en péril les indicateurs existants ?
Ça, perso, je m'en fous, perso je suis pas jugé sur mon H index, ni sur l'impact factor des journaux où je publie XD.
Via Mathieu. Et ya pire: j'ai déjà eu l'occasion d'ajuster une régression linéaire qui donnait d'aussi bons résultats qu'une régression logistique (tant que les valeurs prédites restent entre 0.2 et 0.8, ce qui était le cas dans mon étude). La première étant plus intéressante pour un usage sur le terrain (allez expliquer au technicien qu'il faut qu'il calcule l'inverse logit d'une combinaison linéaire).
Après, à relativiser aussi: en termes prédictifs, on n'a pas tant de différences que ça. En termes explicatifs, le choix est important: les coefficients ne s'interprètent pas de la même façon dans les deux cas (et ça m'étonnerait que les tests que l'on peut faire derrière donnent les mêmes résultats, ceux-ci ne s'appuyant pas sur les mêmes hypothèses).
Après, à relativiser aussi: en termes prédictifs, on n'a pas tant de différences que ça. En termes explicatifs, le choix est important: les coefficients ne s'interprètent pas de la même façon dans les deux cas (et ça m'étonnerait que les tests que l'on peut faire derrière donnent les mêmes résultats, ceux-ci ne s'appuyant pas sur les mêmes hypothèses).