2387 shaares
Une liste des publishers scientifiques dont les pratiques sont malhonnêtes.
Bon à savoir.
Bon à savoir.
Euler avait conjecturé que la relation
Somme_{i=1}^n a_i^k = b^k
n'est possible que si n>=k.
Ces auteurs écrivent un article démontrant le contraire avec un contre-exemple: 27^5 + 84^5 + 110^5 + 133^5 = 144^5
Effectivement, on a k=5 et n=4.
Ils écrivent donc un article de 5 lignes qui démonte la conjecture d'Euler. Cinq lignes suffisent à démonter une conjecture d'un des plus brillants, pour ne pas dire le plus brillant des mathématiciens de tous les temps.
C'est beau quand même
Somme_{i=1}^n a_i^k = b^k
n'est possible que si n>=k.
Ces auteurs écrivent un article démontrant le contraire avec un contre-exemple: 27^5 + 84^5 + 110^5 + 133^5 = 144^5
Effectivement, on a k=5 et n=4.
Ils écrivent donc un article de 5 lignes qui démonte la conjecture d'Euler. Cinq lignes suffisent à démonter une conjecture d'un des plus brillants, pour ne pas dire le plus brillant des mathématiciens de tous les temps.
C'est beau quand même
Une visualisation des déplacements des pièces aux échecs basés sur 2.2 millions de parties. Rigolo
Ah ben tiens, voila un sujet intéressant!
Le CRW composite a été suggéré comme alternative aux marches de Lévy sur les trajets d'animaux présentant des "patches". Cet article semble fournir des outils permettant de distinguer les deux. J'ai pas encore lu, mais j'ai un peu de mal à voir le sens biologique que l'on peut donner à une marche fractale...
Bref, à lire donc.
Le CRW composite a été suggéré comme alternative aux marches de Lévy sur les trajets d'animaux présentant des "patches". Cet article semble fournir des outils permettant de distinguer les deux. J'ai pas encore lu, mais j'ai un peu de mal à voir le sens biologique que l'on peut donner à une marche fractale...
Bref, à lire donc.
Une évidence toujours bonne à rappeler: le paramètre de surdispersion n'est pas une baguette magique qui transforme un modèle pourri en bon modèle. Ces auteurs recommendent de regarder les résidus en fonction des variables explicatives.
Mais bon, ça répond pas à ma question: je suis bloqué sur un pb: peut-on parler de surdispersion lorsque l'on ajuste un modèle log-linéaire non-saturé à un tableau de contingence? La question m'est posée par un référé, et j'avoue que je bloque un peu... En effet, la surdispersion n'est pas estimable avec un modèle saturé (par définition, puisque celle ci est estimée à partir de la déviance du modèle, et que cette déviance est nulle dans le cas d'un modèle saturé). Et si l'on fait sauter quelques interactions entre les entrées du tableau de contingence, la déviance augmente (nécessairement), pouvant donner l'illusion d'une surdispersion. Mais cette surdispersion n'est-elle pas le signe d'un mauvais ajustement au sens de l'absence d'une ou plusieurs variables explicatives pertinentes (comme dans ce papier)? Ne serait-il pas plus pertinent d'intégrer des interactions dans le modèle pour réduire cette déviance plutôt que d'ajuster un coefficient de surdispersion? quel est le sens de la surdispersion dans ce contexte?
Je continue à chercher, à suivre...
Mais bon, ça répond pas à ma question: je suis bloqué sur un pb: peut-on parler de surdispersion lorsque l'on ajuste un modèle log-linéaire non-saturé à un tableau de contingence? La question m'est posée par un référé, et j'avoue que je bloque un peu... En effet, la surdispersion n'est pas estimable avec un modèle saturé (par définition, puisque celle ci est estimée à partir de la déviance du modèle, et que cette déviance est nulle dans le cas d'un modèle saturé). Et si l'on fait sauter quelques interactions entre les entrées du tableau de contingence, la déviance augmente (nécessairement), pouvant donner l'illusion d'une surdispersion. Mais cette surdispersion n'est-elle pas le signe d'un mauvais ajustement au sens de l'absence d'une ou plusieurs variables explicatives pertinentes (comme dans ce papier)? Ne serait-il pas plus pertinent d'intégrer des interactions dans le modèle pour réduire cette déviance plutôt que d'ajuster un coefficient de surdispersion? quel est le sens de la surdispersion dans ce contexte?
Je continue à chercher, à suivre...
aaaaaaaaaaaaaaaaaaaaaaaahh!
Tout s'explique! feignant n'est pas une déformation de fainéant, mais le participe présent du verbe feindre!
Le fainéant ne fait rien, le feignant fait semblant de travailler.
Tout s'explique! feignant n'est pas une déformation de fainéant, mais le participe présent du verbe feindre!
Le fainéant ne fait rien, le feignant fait semblant de travailler.
Et le package R qui fait l'interface vers le service web.
Un service web pour dire aux gens d'aller se faire foutre. Multilangage implémenté.
Une analyse supplémentaire intéressante du canular de Bohannon par Gelman (voir ici: http://caloine.ouvaton.org/shaarli/?sv9yEg); il ajoute que la situation est pire que ce que décrit Bohannon, à cause du "garden of forking paths":
1. Il ne faut pas croire qu'il y a 18 comparaisons possibles sous prétexte qu'il y a 18 variables réponses. En prenant des sous-groupes (Hommes vs Femmes, gros vs fins, etc.), on multiplie d'autant les risques de faux positifs.
2. "I always worry when people write about p-hacking, that they mislead by giving the wrong impression that, if a researcher performs only one analysis on his her data, that all is ok." Le pb, c'est que la construction de l'analyse se fait autour du jeu de données (c'est là que l'expression "forking paths" prend tout son sens).
3. "he excluded one person from his study, and elsewhere he notes that researchers “drop ‘outlier’ data points” in their quest for scientific discovery. But I think he could’ve emphasized this a bit more, that researcher-degrees-of-freedom is not just about running lots of tests on your data, it’s also about the flexibility in rules for what data to exclude and how to code your responses"
4. Le problème principal avec les tests d'hypothèses, c'est qu'ils donnent l'illusion que la science a pour rôle de trouver des "vrais positifs"
1. Il ne faut pas croire qu'il y a 18 comparaisons possibles sous prétexte qu'il y a 18 variables réponses. En prenant des sous-groupes (Hommes vs Femmes, gros vs fins, etc.), on multiplie d'autant les risques de faux positifs.
2. "I always worry when people write about p-hacking, that they mislead by giving the wrong impression that, if a researcher performs only one analysis on his her data, that all is ok." Le pb, c'est que la construction de l'analyse se fait autour du jeu de données (c'est là que l'expression "forking paths" prend tout son sens).
3. "he excluded one person from his study, and elsewhere he notes that researchers “drop ‘outlier’ data points” in their quest for scientific discovery. But I think he could’ve emphasized this a bit more, that researcher-degrees-of-freedom is not just about running lots of tests on your data, it’s also about the flexibility in rules for what data to exclude and how to code your responses"
4. Le problème principal avec les tests d'hypothèses, c'est qu'ils donnent l'illusion que la science a pour rôle de trouver des "vrais positifs"
À lire
Marrant: le gars se crée un institut fictif, un nom de chercheur fictif, prend 16 personnes, les répartit en 3 groupes (régime normal, régime faible en carbohydrates, régime faible en carbohydrate + chocolat), mesure 18 variables réponses potentielles (qualité du sommeil, poids, etc.), et conclut que le poids a baissé dans le groupe avec chocolat (seuil alpha à 5%; taille d'effet moyenne: 2 kg, soit les fluctuations classiques du poids sur une période de 1 mois). Il écrit un article, et l'envoie dans une revue bidonnée genre comme celles qui nous spamment trois fois par jour, et moyennant 600$, il publie son article sans peer-review. Il fait une revue de presse (et il la fait propre: le gars est journaliste) et l'envoie à tout le monde. Et tout le monde mord à l'hameçon: Bild, cosmopolitan, etc.
Un canular de toute beauté. Et le gars est assez honnête dans ses conclusions, en indiquant que les diet researchers font en général ce genre d'erreur de bonne foi.
Mais que: (i) ils font quand même ce genre d'erreur, (ii) les journalistes ne se donnent pas la peine de lire ou de décrypter les papiers scientifiques.
Un canular de toute beauté. Et le gars est assez honnête dans ses conclusions, en indiquant que les diet researchers font en général ce genre d'erreur de bonne foi.
Mais que: (i) ils font quand même ce genre d'erreur, (ii) les journalistes ne se donnent pas la peine de lire ou de décrypter les papiers scientifiques.
Encore un article sur le big data...
Marrant
(via le hollandais volant)
(via le hollandais volant)
Intéressant. L'UEFI est déjà un système merdique quand on veut utiliser un système linux. Je l'avais toujours compris comme un moyen coercitif de Microsoft de décourager l'utilisateur de se tourner vers un autre système. En fait, c'est pire que ça: même si l'on choisit de rester sous windows, si la carte mère plante, les données sont perdues puisque le disque dur est associé à une carte mère.
Enfin, comme il l'indique, ya toujours moyen d'utiliser linux pour récupérer les données, mais bon: (i) pour l'utilisateur moyen, c'est mort, (ii) dans tous les cas, le disque dur est foutu (puisque lié à la carte mère).
Et les constructeurs laissent faire...
Enfin, comme il l'indique, ya toujours moyen d'utiliser linux pour récupérer les données, mais bon: (i) pour l'utilisateur moyen, c'est mort, (ii) dans tous les cas, le disque dur est foutu (puisque lié à la carte mère).
Et les constructeurs laissent faire...
Encore un article de Miller sur la misidentification. À lire donc.
marrant
Très bonne description de l'utilisation du DOM dans conkeror
Un résumé intéressant des combats internes à l'académie des sciences
5154 co-auteurs sur un article!
Calculer le jour de la semaine pour n'importe quelle date (via le hollandais volant).