2353 shaares
Ah oui... M'a l'air pas mal le JSON quand même, bien flexible et tout. Bon, j'ai un projet dans lequel les données sont bien hétérogènes, je vais voir si ya pas moyen d'agencer tout ça dans un gros JSON. Me fera une expérience là-dessus. Bon c'est pas pour tout de suite mais dès que j'ai fini le présent projet, je tente!
Le JSON prend de l'ampleur. Faudra vraiment que je regarde sérieusement ce que c'est précisément que ce format de stockage des données
Et apparemment, la dépublication est un processus courant!
On croit rêver!
On croit rêver!
Très vrai
Le paradoxe de Bertrand, ou pourquoi "Quelle est la distribution de telle statistique x sachant que mes points sont tirés aléatoirement" ne veut rien dire.
Et le plus drôle de l'affaire, c'est que Jaynes, en utilisant le principe d'indifférence, résoud le problème! Comme quoi le bayésien ça sert!
Et le plus drôle de l'affaire, c'est que Jaynes, en utilisant le principe d'indifférence, résoud le problème! Comme quoi le bayésien ça sert!
Sur la bataille bayésien/fréquentistes. Oui, je trouve que ça résume assez bien ma position. Et ça m'agace toujours un peu quand j'entends des opinions définitives (comme j'ai entendu récemment) du genre: "le bayésien c'est pas de la science" par des personnes qui régurgitent sans trop réfléchir les préfaces de bouquins fréquentistes écrits dans les années 1970.
Un tumblr marrant sur les dérapages de l'évolution. Les espèces qu'on comprend pas bien comment l'évolution a pu en arriver là
La date d'aujourd'hui correspond à un nombre premier, et ce, quel que soit le format d'écriture de la date.
Bon.
D'accord.
Bon.
D'accord.
Tiens? c'est nouveau ça. On dépublie une étude scientifique!!!! Du grand n'importe quoi.
À mourir de rire: quand Hoover encourage le FBI à surveiller les productions de Jean-Paul Sartre et Albert Canus (sic), suspectées d'être pro-communistes, et qu'une institution fondammentalement anti-philosophique se retrouve à philosopher sur l'absurde et l'existentialisme sans trop savoir trop conclure...
Marrant: quand on laisse du matos sur le terrain, ajouter une étiquette "C'est pour ma thèse, svp ne pas toucher, appelez moi si vous voulez des infos" est plus efficace à empêcher le vandalisme et le vol de matos que "matériel sous surveillance! 12 balles dans la peau si vous touchez!". Je caricature mais bon.
Plein de gifs WTF
Tiens? il reste de la peste bubonique, en particulier dans le sud ouest des états unis où la maladie est endémique, et transmise par les "ground squirrels", à savoir marmottes, chiens de prairie et chipmunks. Autrement dit, comme l'indique l'auteur, à moins de faire des calins aux écureuils morts, on ne risque pas grand chose
Bon, le blog de Gelman donne des explications plus détaillées, et plein de refs. Article hyper intéressant, on y apprend plein de choses essentielles en modélisation bayésienne. Notamment:
* Ce qui avait été noté par John Cook, et qui est expliqué plus clairement là: on se comporte avec la prior de la même façon qu'avec la vraisemblance dans un modèle classique. On commence par un modèle/une prior simple. Si le résultat est naze, on améliore. Du bon sens.
* que ce qu'on croît être non informatif ne l'est pas toujours. Comme il l'écrit dans son blog:
"Traditionally in statistics we’ve worked with the paradigm of a single highly informative dataset with only weak external information. But if the data are sparse and prior information is strong, we have to think differently. And, when you increase the dimensionality of a problem, both these things happen: data per parameter become more sparse, and priors distribution that are innocuous in low dimensions become strong and highly informative (sometimes in a bad way) in high dimensions."
Et il donne des exemples. Le prochain modèle bayésien que j'ajuste, je fais des tests de ça. Apparemment, même une prior uniforme, ça peut générer des structures merdiques.
* Ce qui avait été noté par John Cook, et qui est expliqué plus clairement là: on se comporte avec la prior de la même façon qu'avec la vraisemblance dans un modèle classique. On commence par un modèle/une prior simple. Si le résultat est naze, on améliore. Du bon sens.
* que ce qu'on croît être non informatif ne l'est pas toujours. Comme il l'écrit dans son blog:
"Traditionally in statistics we’ve worked with the paradigm of a single highly informative dataset with only weak external information. But if the data are sparse and prior information is strong, we have to think differently. And, when you increase the dimensionality of a problem, both these things happen: data per parameter become more sparse, and priors distribution that are innocuous in low dimensions become strong and highly informative (sometimes in a bad way) in high dimensions."
Et il donne des exemples. Le prochain modèle bayésien que j'ajuste, je fais des tests de ça. Apparemment, même une prior uniforme, ça peut générer des structures merdiques.
L'opinion de Gelman sur les prior en bayésien décrite par John Cook. Et elle vaut son pesant d'or:
On commence par ajuster du non informatif, sur lequel on est inattaquable. On ne prend alors aucun risque. Et s'il est clair que le non-informatif conduit à des conclusions sans intérêt car trop vague, alors il est temps de revenir à la définition des prior, et d'en définir des plus réalistes, mais aussi plus criticable.
C'est du bon sens, mais je n'imagine pas le nombre de référés qui vont nous rentrer dans le lard avec une telle stratégie. Ce serait pas mal d'avoir une ref à renvoyer en retour sur la question. Je vais chercher
On commence par ajuster du non informatif, sur lequel on est inattaquable. On ne prend alors aucun risque. Et s'il est clair que le non-informatif conduit à des conclusions sans intérêt car trop vague, alors il est temps de revenir à la définition des prior, et d'en définir des plus réalistes, mais aussi plus criticable.
C'est du bon sens, mais je n'imagine pas le nombre de référés qui vont nous rentrer dans le lard avec une telle stratégie. Ce serait pas mal d'avoir une ref à renvoyer en retour sur la question. Je vais chercher
Un site très très très dangereux pour la productivité. NSFW passque le W il est arrêté net du coup
Intéressant!
Un article très intéressant de grands ponts dans nature. À garder sous le coude parce que c'est toujours bon de rappeler certaines évidences.
Et je pense en particulier à:
Extrapolating beyond the data is risky. Patterns found within a given range do not necessarily apply outside that range. Thus, it is very difficult to predict the response of ecological systems to climate change, when the rate of change is faster than has been experienced in the evolutionary history of existing species, and when the weather extremes may be entirely new.
Ben oui. Voila une remarque pertinente
Et je pense en particulier à:
Extrapolating beyond the data is risky. Patterns found within a given range do not necessarily apply outside that range. Thus, it is very difficult to predict the response of ecological systems to climate change, when the rate of change is faster than has been experienced in the evolutionary history of existing species, and when the weather extremes may be entirely new.
Ben oui. Voila une remarque pertinente
Apprendre à multiplier à la japonaise. C'est assez efficace.
Mais d'après imgur, ce serait plutôt du coréen, mais bon. C'est tout aussi efficace
Mais d'après imgur, ce serait plutôt du coréen, mais bon. C'est tout aussi efficace
Vu sur imgur: creer un nouveau dossier et lui donner le nom suivant:
GodMode.{ED7BA470-8E54-465E-825C-99712043E01C}
Peut toujours servir
GodMode.{ED7BA470-8E54-465E-825C-99712043E01C}
Peut toujours servir