2353 shaares
Sur l'effet Dunning Kruger que j'ai déja évoqué précédemment précédemment.
Ah tiens, je connaissais pas: xmpp permet de faire du chat, un genre de msn libre.
Yen a des zoulis, j'ai pas tout compris, par exemple
while :;do printf "\e[%d;%dH\e[48;5;%dm \e[0m" $(($RANDOM%$LINES)) $(($RANDOM%$COLUMNS)) $(($RANDOM%216 )); done
while :;do printf "\e[%d;%dH\e[48;5;%dm \e[0m" $(($RANDOM%$LINES)) $(($RANDOM%$COLUMNS)) $(($RANDOM%216 )); done
Très intéressant. En vrac "Nobody seems to know exactly what 'data science' is, let alone its almost synonym 'big data'".
"It's now so easy to manipulate vast quantities of data that you don't need to employ a separate statistician, database guy and programmer. You hire someone who can code and do statistics too. This is the data scientist. (...) "
"It's now time for data science as a profession to take stock and ask itself 'what is the core skill set?'. Or further than this, 'is data science a new statistical speciality or even a nascent field in its own right?'."
"It's now so easy to manipulate vast quantities of data that you don't need to employ a separate statistician, database guy and programmer. You hire someone who can code and do statistics too. This is the data scientist. (...) "
"It's now time for data science as a profession to take stock and ask itself 'what is the core skill set?'. Or further than this, 'is data science a new statistical speciality or even a nascent field in its own right?'."
Plus d'ébola au libéria!
Intéressant: l'impact factor correspond au nombre moyen de fois qu'un article d'une revue publié dans les deux années précédentes est cité. C'est une moyenne, et comme on est sur une distribution asymétrique, c'est nase. L'auteur indique déjà que la médiane serait plus intéressante. Exemple de Acta Crystallographica Section A: le journal est passé d'un IF de 2 à un IF de 49 à cause d'un unique papier.
Il fait une étude de Monte Carlo qui compare un papier tiré au sort d'une revue et un papier tiré au sort d'une autre revue et compare le nombre de citations, afin de savoir quelle revue est meilleure. Il représente la distribution des différences. Et là, c'est vraiment surprenant, les différences ne sont pas énormes. Et même entre canards très différents: on voit des différences nettes entre Nature (IF approx. 40) et Journal of Cell Biology (IF approx. 2), significatives, ça se voit clairement, mais curieusement ces différences ne sont pas aussi énormes que le suggère la différence d'IF! Quand on compare la différence moyenne de citation d'un papier tiré au sort dans JCB et dans Nature, le pic est quand même à 0!!! Après, c'est vrai que le nombre d'articles très cités est plus important dans Nature...
Et en s'appuyant sur des comparaisons de moyennes non-paramétriques, il démontre que si l'on cherche à s'appuyer sur l'IF pour comparer des revues, on peut comparer des revues en arrondissant au 5 (ou 10) le plus proche. Ainsi, ecology (approx. 5) est meilleur que European Journal of Wildlife research (approx 1), mais après, ça ne sert à rien de comparer un journal à 1.2 et à 1.5.
Très intéressant...
Il fait une étude de Monte Carlo qui compare un papier tiré au sort d'une revue et un papier tiré au sort d'une autre revue et compare le nombre de citations, afin de savoir quelle revue est meilleure. Il représente la distribution des différences. Et là, c'est vraiment surprenant, les différences ne sont pas énormes. Et même entre canards très différents: on voit des différences nettes entre Nature (IF approx. 40) et Journal of Cell Biology (IF approx. 2), significatives, ça se voit clairement, mais curieusement ces différences ne sont pas aussi énormes que le suggère la différence d'IF! Quand on compare la différence moyenne de citation d'un papier tiré au sort dans JCB et dans Nature, le pic est quand même à 0!!! Après, c'est vrai que le nombre d'articles très cités est plus important dans Nature...
Et en s'appuyant sur des comparaisons de moyennes non-paramétriques, il démontre que si l'on cherche à s'appuyer sur l'IF pour comparer des revues, on peut comparer des revues en arrondissant au 5 (ou 10) le plus proche. Ainsi, ecology (approx. 5) est meilleur que European Journal of Wildlife research (approx 1), mais après, ça ne sert à rien de comparer un journal à 1.2 et à 1.5.
Très intéressant...
Sur le big data: on est vraiment sur des pbs d'informaticiens dans ce cas. Le problème de ces histoires de "data scientists", c'est que chacun y met un peu ce qu'il veut. Pour certains, il s'agit de stats exploratoires (originellement, le terme vient d'un papier de Cleveland quand même). Pour d'autre, c'est l'évolution logique de l'approche informaticienne de l'analyse de données, celle qui passe outre les questions statistiques. Là, on est dans le dernier cas. Alors? ben la question n'est pas simple, la tendance "data science and big data" existe indéniablement, comme le dit très bien le gars.
Une appli shiny pour voir l'évolution des téléchargements de packages grâce aux cranlogs de Rstudio
J'avais remarqué que Elsevier avait des pratiques douteuses dans ce genre. Depuis qu'on a sorti un papier sur l'efficacité de la vaccination contre la peste porcine dans Journal of Theoretical biology, je suis spammé comme jamais. Le nombre de sollicitations de participation à des soi-disantes conf (ressemblant plus à des opérations de pub qu'autre chose), et de spams en tout genre que je reçois, c'est hallucinant...
Marrant
Un article TRÈS intéressant sur l'interface science/politique. En résumé, le gouvt anglais veut connaître l'efficacité du prélèvement de blaireaux sur le contrôle de la tuberculose bovine. Il finance alors une étude, façon étude monstrueuse, avec randomisation, étude en double aveugle, le machin a l'air bien ficelé (j'ai pas lu l'étude -- à lire donc -- sigh...). Et là, surprise, l'étude conclut que le prélèvement de blaireaux est souvent inefficace, peut être efficace dans des conditions d'application irréaliste (genre erradication ultra rapide et ultra efficace de l'espèce à court terme), et sinon peut même *aggraver* la situation. Et là, les gestionnaires sont dans la merde: ils vivent tous avec l'idée que le prélèvement est LA solution, et voilà-t-y-pas qu'on leur dit que non. Et même qu'on leur dit que ça peut être pire.
Et pire, on ne leur dit pas pourquoi, et ça c'est pire que tout. On ne va pas changer notre façon de faire sans savoir quelle est la cause de ce résultat. J'aime bien la classique réaction des chefs "It depends whether you want to base your policy on a sound veterinary opinion, or just on statistics". Bougerai pas. Le gouvernement, dans la merde, cherche un second avis en 2007. Le rapport, écrit à la va vite d'après un éditorial de Nature, et truffé d'erreurs d'après l'auteur de l'article de blog, rassure le gouvt: ne changez rien, ils se sont plantés. Ce rapport est cité par Nature comme exemple typique du cas où un gouvernement ne tient aucun compte de l'avis scientifique après l'avoir demandé (l'éditorial de Nature sur le sujet est passionnant.).
Et avec les années, les études ultérieures donnent raison à cette première étude. On se rend compte que par le prélèvement, on favorise la dispersion des bestioles malades, d'où agravation. Mais les habitudes ont la vie dure, et les responsables ne changent pas la stratégie: prélèvement accru de blaireaux en cas de TB. On continue à débattre, les deux parties continuent à se taper dessus, les politiques n'ont pas vraiment envie de voir les choses évoluer... La conclusion: Since the ISG [le groupe en charge de cette étude] was disbanded in 2007, other advisory groups have come and gone. Over time the contribution of independent scientists has declined, with greater inputs from vets and farming representatives. Two further culls went ahead in 2013, but when an independent panel deemed them ineffective and possibly inhumane, it was not reappointed. The 2014 culls had no independent oversight, and subsequent claims of success are based on extremely shaky data. Outside government, views have become entrenched and cherry picking evidence has become a cottage industry for both sides of the debate.
Bon, cet article ne donne qu'un seul côté du débat, j'aimerais bien en savoir plus... À suivre.
Et pire, on ne leur dit pas pourquoi, et ça c'est pire que tout. On ne va pas changer notre façon de faire sans savoir quelle est la cause de ce résultat. J'aime bien la classique réaction des chefs "It depends whether you want to base your policy on a sound veterinary opinion, or just on statistics". Bougerai pas. Le gouvernement, dans la merde, cherche un second avis en 2007. Le rapport, écrit à la va vite d'après un éditorial de Nature, et truffé d'erreurs d'après l'auteur de l'article de blog, rassure le gouvt: ne changez rien, ils se sont plantés. Ce rapport est cité par Nature comme exemple typique du cas où un gouvernement ne tient aucun compte de l'avis scientifique après l'avoir demandé (l'éditorial de Nature sur le sujet est passionnant.).
Et avec les années, les études ultérieures donnent raison à cette première étude. On se rend compte que par le prélèvement, on favorise la dispersion des bestioles malades, d'où agravation. Mais les habitudes ont la vie dure, et les responsables ne changent pas la stratégie: prélèvement accru de blaireaux en cas de TB. On continue à débattre, les deux parties continuent à se taper dessus, les politiques n'ont pas vraiment envie de voir les choses évoluer... La conclusion: Since the ISG [le groupe en charge de cette étude] was disbanded in 2007, other advisory groups have come and gone. Over time the contribution of independent scientists has declined, with greater inputs from vets and farming representatives. Two further culls went ahead in 2013, but when an independent panel deemed them ineffective and possibly inhumane, it was not reappointed. The 2014 culls had no independent oversight, and subsequent claims of success are based on extremely shaky data. Outside government, views have become entrenched and cherry picking evidence has become a cottage industry for both sides of the debate.
Bon, cet article ne donne qu'un seul côté du débat, j'aimerais bien en savoir plus... À suivre.
Intéressant: on peut trouver des références sur une séquence d'entiers ici. Très complet.
L'autorité de certification libre pour la délivrance de certificats SSL.
Dans cette idée du https généralisé imposé par mozilla et google...
Dans cette idée du https généralisé imposé par mozilla et google...
Idem, m'a l'air intéressant
A lire
Profitons bien des derniers instants des navigateurs mozilla based avant de passer à autre chose. Mozilla est en train de se tirer une balle dans le pied...
Collabra: une revue à suivre de près.
À suivre de près. Quand on voit l'efficacité des opensourcemaps, faut voir comment un truc comme ça peut marcher.