2353 shaares
M'a l'air intéressant. À lire...
Ça peut toujours être utile pour créer des packages "on the fly".
Quand on cherche à publier en latex dans certaines revues (genre ecography, sauf que eux en théorie ils acceptent pas le latex, mais bon faut pas pousser, j'envoie en latex quand même), les pdf générés par pdflatex ne sont pas toujours acceptés, rapport qu'ils contiennent des fonts de type 3. Comment tout ramener en type 1 bien décrit sur cette page.
Edit: Et pour vérifier le type de polices présentes ou référencées dans un pdf, si c'est embedded, etc., on utilise
pdffonts monfichier.pdf
Edit: Et pour vérifier le type de polices présentes ou référencées dans un pdf, si c'est embedded, etc., on utilise
pdffonts monfichier.pdf
marrant
Analyse très intéressante.
Après, j'ai tendance à me méfier des prédictions des "experts" concernant le devenir du proche orient. Pour info, je suis en train de lire le bouquin de Tetlock (2005: Expert Political Judgment: How Good Is It? How Can We Know?), dont j'avais trouvé un résumé dans l'excellent bouquin de Kahneman (thinking fast and slow):
"Tetlock interviewed 284 people who made their living “commenting or offering advice on political and economic trends.” He asked them to assess the probabilities that certain events would occur in the not too distant future, both in areas of the world in which they specialized and in regions about which they had less knowledge. Would Gorbachev be ousted in a coup? Would the United States go to war in the Persian Gulf? Which country would become the next big emerging market? In all, Tetlock gathered more than 80,000 predictions. He also asked the experts how they reached their conclusions, how they reacted when proved wrong, and how they evaluated evidence that did not support their positions. Respondents were asked to rate the probabilities of three alternative outcomes in every case: the persistence of the status quo, more of something such as political freedom or economic growth, or less of that thing.
The results were devastating. The experts performed worse than they would have if they had simply assigned equal probabilities to each of the three potential outcomes. In other words, people who spend their time, and earn their living, studying a particular topic produce poorer predictions than dart-throwing monkeys who would have distributed their choices evenly over the options. Even in the region they knew best, experts were not significantly better than nonspecialists. Those who know more forecast very slightly better than those who know less. But those with the most knowledge are often less reliable. The reason is that the person who acquires more knowledge develops an enhanced illusion of her skill and becomes unrealistically overconfident. (...) Tetlock also found that experts resisted admitting that they had been wrong, and when they were compelled to admit error, they had a large collection of excuses: they had been wrong only in their timing, an unforeseeable event had intervened, or they had been wrong but for the right reasons."
Le bouquin de tetlock est encore plus fascinant. En d'autres termes, les experts savent toujours tout, et n'ont jamais tort. Même quand ils ont tort, ce qui arrive aussi fréquemment que si les gars n'y connaissaient rien.
Après, j'ai tendance à me méfier des prédictions des "experts" concernant le devenir du proche orient. Pour info, je suis en train de lire le bouquin de Tetlock (2005: Expert Political Judgment: How Good Is It? How Can We Know?), dont j'avais trouvé un résumé dans l'excellent bouquin de Kahneman (thinking fast and slow):
"Tetlock interviewed 284 people who made their living “commenting or offering advice on political and economic trends.” He asked them to assess the probabilities that certain events would occur in the not too distant future, both in areas of the world in which they specialized and in regions about which they had less knowledge. Would Gorbachev be ousted in a coup? Would the United States go to war in the Persian Gulf? Which country would become the next big emerging market? In all, Tetlock gathered more than 80,000 predictions. He also asked the experts how they reached their conclusions, how they reacted when proved wrong, and how they evaluated evidence that did not support their positions. Respondents were asked to rate the probabilities of three alternative outcomes in every case: the persistence of the status quo, more of something such as political freedom or economic growth, or less of that thing.
The results were devastating. The experts performed worse than they would have if they had simply assigned equal probabilities to each of the three potential outcomes. In other words, people who spend their time, and earn their living, studying a particular topic produce poorer predictions than dart-throwing monkeys who would have distributed their choices evenly over the options. Even in the region they knew best, experts were not significantly better than nonspecialists. Those who know more forecast very slightly better than those who know less. But those with the most knowledge are often less reliable. The reason is that the person who acquires more knowledge develops an enhanced illusion of her skill and becomes unrealistically overconfident. (...) Tetlock also found that experts resisted admitting that they had been wrong, and when they were compelled to admit error, they had a large collection of excuses: they had been wrong only in their timing, an unforeseeable event had intervened, or they had been wrong but for the right reasons."
Le bouquin de tetlock est encore plus fascinant. En d'autres termes, les experts savent toujours tout, et n'ont jamais tort. Même quand ils ont tort, ce qui arrive aussi fréquemment que si les gars n'y connaissaient rien.
Ça s'arrange pas...
À garder sous le coude: comment se faire un polycopié à partir d'une présentation beamer. À noter: l'utilisation de pdfnup pour combiner plusieurs diapos en une.
Et la petite remarque assassine "(sorry Windows users, you need a real computer to do this)". Hin hin.
Et la petite remarque assassine "(sorry Windows users, you need a real computer to do this)". Hin hin.
Eh ben ils ont fait du beau boulot les ricains... C'était bien la peine de la ramener en 2003 si c'est pour que ça finisse comme ça...
c'est vrai. Il suffit de lire un article sur Rue89 pour voir à quel points les commentaires peuvent être pourris. Même sur des articles super neutres, ya des commentateurs qui ont le chic pour atteindre le point godwin...
Cela dit, je les lis toujours.
Cela dit, je les lis toujours.
Me coucherai moins con.
Ne jamais attribuer à la malveillance ce que la stupidité peut expliquer
Marrant. Et j'aime bien le Calvin et Hobbes.
Intéressant. Des conseils pour les éditeurs de revues scientifiques pour identifier les reviews pourries. En bref:
* Si la review fait un paragraphe de long, elle est naze dans 90% des cas
* Si le reviewer est clairement un adversaire (aveuglément opposé aux idées, sans discussion sur le travail en lui-même), la review est naze dans 90% des cas
* Si le reviewer est un copain de l'auteur, il sera un peu trop complaisant, donc vérifier les collaborations entre auteur et référé
* Si le reviewer se concentre sur le manque de nouveauté du papier: Novelty is a poisoned chalice – don’t fall into the trap of thinking that all papers have to be absolutely, ground-shakingly and Earth-shatteringly novel. True novelty is very rare.
* Si la review fait un paragraphe de long, elle est naze dans 90% des cas
* Si le reviewer est clairement un adversaire (aveuglément opposé aux idées, sans discussion sur le travail en lui-même), la review est naze dans 90% des cas
* Si le reviewer est un copain de l'auteur, il sera un peu trop complaisant, donc vérifier les collaborations entre auteur et référé
* Si le reviewer se concentre sur le manque de nouveauté du papier: Novelty is a poisoned chalice – don’t fall into the trap of thinking that all papers have to be absolutely, ground-shakingly and Earth-shatteringly novel. True novelty is very rare.
Des infos utiles sur le DIC, et quelques papiers importants
Tiens? un papier dans TREE sur la possibilité d'introduire une mesure de la qualité du processus de review pour chaque revue.
À récupérer et lire un jour
À récupérer et lire un jour
Reçu sur R-SIG-geo: comment installer différents logiciels de géostats sur linux.
Un post de Ben Bolker très intéressant: lorsque l'on développe un logiciel de stats on doit atteindre un compromis entre logiciel super facile à utiliser, user friendly et tout (mais qui du coup, risque implicitement de suggérer à l'utilisateur qu'il n'a pas besoin de comprendre ce qu'il fait) et un logiciel qui va demander à l'utilisateur un investissement plus important pour en comprendre la logique, garantissant de ce fait une compréhension minimale et de fait, un risque d'erreur plus faible. Mais ce faisant, on diminue de la même façon le nombre d'utilisateurs.
Le compromis n'est pas si simple à trancher. En outre, il est souvent difficile de concevoir des garde-fous, comme bolker le décrit bien dans ses exemples. Cela dit, en conclusion, il semble trancher: "There’s nothing like a broad user base for finding new, exciting applications, and having people use your methods to do interesting science may be the best reward."
Le compromis n'est pas si simple à trancher. En outre, il est souvent difficile de concevoir des garde-fous, comme bolker le décrit bien dans ses exemples. Cela dit, en conclusion, il semble trancher: "There’s nothing like a broad user base for finding new, exciting applications, and having people use your methods to do interesting science may be the best reward."
Intéressant. J'aime bien ce blog.
Joli (via le hollandais volant)