2353 shaares
à lire, sur l'ABC
Marrant
Apprendre le créneau. Pas mal, sauf que moi j'ai plutôt tendance à aligner mes peuneus sur les peuneus de la bagnoles de devant, et pas sur son pare choc. Mais sinon, pas mal.
Eurodeer dans la presse locale.
Doit pas être inintéressant non plus.
À récupérer
Plein d'infos intéressantes. En résumé, les histoires d'auto-plagiat ne sont pas si simples à gérer. Par exemple, quand on a une étude à long terme, le M&M est souvent identique d'un papier à l'autre (description de study area, data collection), et ce n'est pas nécessairement une mauvaise chose. Parfois, on a des études qui vont être répétées d'une zone à l'autre, d'une année à l'autre. Parfois, il peut être intéressant de traduire une étude dans un langage local pour faciliter la diffusion des résultats. Et une vision stricte implique ici qu'il s'agit d'auto-plagiat. Du coup, faut pas être trop strict... au final, contacter l'éditeur.
Au passage, on apprend que la Wildlife Society refuse les archivages à ArXiv (et autres serveurs de pre-print), c'est considéré comme une double soumission...
Au passage, on apprend que la Wildlife Society refuse les archivages à ArXiv (et autres serveurs de pre-print), c'est considéré comme une double soumission...
Tiens, faudra que je récupère l'article.
Edit: j'ai regardé le package, et c'est signé: c'est du travail de chercheur en informatique, ça me fait penser au package trip. Donc, pour résumer, c'est programmé 1000 fois plus proprement qu'adehabitat, c'est probablement mieux optimisé en termes d'utilisation de la mémoire, l'ajustement de LoCoH doit être 100 fois plus rapide que pour adehabitat, les structures d'objets sont probablement mieux conçues, toutes les guidelines informatiques sont respectées, ça cause appli web et workflow... et ça ne marchera pas.
Pour commencer, le truc est pas sur CRAN, et m'étonnerait qu'il y soit un jour (ça viole trop de règles de développement de R pour ça).
Ensuite, ça réclame R pour fonctionner, mais ça viole tous les principes de la philosophie de R: on lance le package sous R, puis on tape rhrGUI(), et là plus besoin d'utiliser R. Ça lance une page web sous un navigateur, et on a une application, un logiciel qui réclame R pour fonctionner, mais on n'est plus dans R. Il faut donner l'adresse d'un fichier texte, on clique sur des boutons et des cases à cocher (mon id est dans la première colonne, mon x et mon y dans telle autre, je veux telle ou telle analyse, nombre minimum d'options permettant le contrôle, e.g. pour kernel on peut choisir le h, point). On suit un certain workflow (on est canalisé par le programmeur dans les options possibles), et vlan ça génère en vrac toutes les analyses possibles et imaginables. Mention spéciale pour le "time to statistical independence" dont ça fait 20 ans maintenant qu'on dit qu'il n'a aucune importance pour l'estimation d'un domaine vital. Et ça stocke une centaine de fichiers dans le répertoire de travail. Comme tous les clique-boutons, moins d'options que dans le cadre de l'utilisation d'une ligne de commande. On part du fichier (coordonnées) et on arrive au fichier (domaine vital), et on évite à l'utilisateur l'utilisation de R.
C'est une philosophie.
C'est un truc avec les informaticiens ça. Quand j'utilise un navigateur, c'est vrai que je ne suis pas forcément intéressé par ce qu'il se passe sous le capot. Je veux un navigateur qui fonctionne bien, et vite. Quand j'utilise un logiciel de stats, je veux tout savoir et tout contrôler, et je ne veux surtout pas qu'on me le cache ou qu'on le décide à ma place.
Sans moi donc.
Edit: j'ai regardé le package, et c'est signé: c'est du travail de chercheur en informatique, ça me fait penser au package trip. Donc, pour résumer, c'est programmé 1000 fois plus proprement qu'adehabitat, c'est probablement mieux optimisé en termes d'utilisation de la mémoire, l'ajustement de LoCoH doit être 100 fois plus rapide que pour adehabitat, les structures d'objets sont probablement mieux conçues, toutes les guidelines informatiques sont respectées, ça cause appli web et workflow... et ça ne marchera pas.
Pour commencer, le truc est pas sur CRAN, et m'étonnerait qu'il y soit un jour (ça viole trop de règles de développement de R pour ça).
Ensuite, ça réclame R pour fonctionner, mais ça viole tous les principes de la philosophie de R: on lance le package sous R, puis on tape rhrGUI(), et là plus besoin d'utiliser R. Ça lance une page web sous un navigateur, et on a une application, un logiciel qui réclame R pour fonctionner, mais on n'est plus dans R. Il faut donner l'adresse d'un fichier texte, on clique sur des boutons et des cases à cocher (mon id est dans la première colonne, mon x et mon y dans telle autre, je veux telle ou telle analyse, nombre minimum d'options permettant le contrôle, e.g. pour kernel on peut choisir le h, point). On suit un certain workflow (on est canalisé par le programmeur dans les options possibles), et vlan ça génère en vrac toutes les analyses possibles et imaginables. Mention spéciale pour le "time to statistical independence" dont ça fait 20 ans maintenant qu'on dit qu'il n'a aucune importance pour l'estimation d'un domaine vital. Et ça stocke une centaine de fichiers dans le répertoire de travail. Comme tous les clique-boutons, moins d'options que dans le cadre de l'utilisation d'une ligne de commande. On part du fichier (coordonnées) et on arrive au fichier (domaine vital), et on évite à l'utilisateur l'utilisation de R.
C'est une philosophie.
C'est un truc avec les informaticiens ça. Quand j'utilise un navigateur, c'est vrai que je ne suis pas forcément intéressé par ce qu'il se passe sous le capot. Je veux un navigateur qui fonctionne bien, et vite. Quand j'utilise un logiciel de stats, je veux tout savoir et tout contrôler, et je ne veux surtout pas qu'on me le cache ou qu'on le décide à ma place.
Sans moi donc.
Intéressant, je ne savais pas que ça portait un nom...
L'effet qui explique que l'ignorance engendre plus fréquemment la confiance en soi que ne le fait la connaissance
L'effet qui explique que l'ignorance engendre plus fréquemment la confiance en soi que ne le fait la connaissance
Cleveland avait soulevé le problème dans son bouquin de 1993: il illustrait le cas d'une étude où les auteurs étaient passés à côté des structures importantes dans leurs données, et montrait qu'avec des graphes simples à comprendre, on identifiait facilement ces structures. J'avais stocké le passage:
Sometimes, when vizualisation thoroughly reveals the structure of a set of data, there is a tendency to underrate the power of the method for the application. Little effort is expended in seeing the structure once the right visualization method is used, so we are mislead into thinking nothing exciting has occurred. (...)
The rubber data might be such a case. The intensive visualization showed a linearity in hardness, a nonlinearity in tensile strenght, an interaction between hardness and tensile strength, and three aberrant observations in a corner of the factor measurement region. It might be thought that anyone analyzing these data would uncover these properties. This is not the case. In the original treatment, the analysts got it wrong. They operated within a paradigm of numerical methods and probabilistic inference for data analysis, and not intensive visualization. They missed the nonlinearity. They missed the interaction. They missed the outliers. In other words, they missed most of the structure of the data.
Sometimes, when vizualisation thoroughly reveals the structure of a set of data, there is a tendency to underrate the power of the method for the application. Little effort is expended in seeing the structure once the right visualization method is used, so we are mislead into thinking nothing exciting has occurred. (...)
The rubber data might be such a case. The intensive visualization showed a linearity in hardness, a nonlinearity in tensile strenght, an interaction between hardness and tensile strength, and three aberrant observations in a corner of the factor measurement region. It might be thought that anyone analyzing these data would uncover these properties. This is not the case. In the original treatment, the analysts got it wrong. They operated within a paradigm of numerical methods and probabilistic inference for data analysis, and not intensive visualization. They missed the nonlinearity. They missed the interaction. They missed the outliers. In other words, they missed most of the structure of the data.
Une liste des classiques en stats à lire absolument d'après Christian Robert
Bon à partir de maintenant, je vais utiliser des messages de commit pertinents et arrêter d'écrire n'importe quoi...
Intéressant. Je savais déjà pour sa contribution à l'estimation du nombre d'espèces, pas pour le reste.
Faudra que je récupère l'article
Faudra que je récupère l'article
Fil intéressant: quelques bons morceaux, certains très marrants, beaucoup de kitchissimes.
Me le met de côté
Me le met de côté
Du coup, je me mets de côté le raccourcisseur d'URL
Très intéressant, les sources sont données.
TRÈS intéressant.
La vache, c'est pas mal ça: pour injecter un code txt présent dans un fichier séparé dans un document latex.
Oui, ça va être bien utile..
Oui, ça va être bien utile..