2390 shaares
57 results
tagged
écologie
À garder sous le coude, ref intéressante
HÉ BEN C'EST PAS LES SEULS !
A suivre !
Intéressante application du distance sampling sur données de pièges photos. À lire
À récupérer et à lire
À lire
Et ils citent adehabitat :-D
Eh ben ça chauffe autour de cette étude.
Idée géniale: utilisation de Google Image pour estimer la variabilité géographique des traits fonctionnels des espèces. Pas cher et efficace!
Estimation d'un N-mixture par maximum de vraisemblance. À lire.
Un collectif qui a pour objectif de fédérer les initiatives de sciences citoyennes dans le domaine de la biodiversité en France. L'annuaire est sympa.
Semble intéressant... Je me méfie cependant de certaines de ces conclusions, trop générales. À lire en détail et avec un œil critique
A lire. M'a l'air intéressant
Ah bon? bon à savoir
La vache, ya plein d'infos, de webinaires, de formations sur ce site. Dès que j'ai un peu de temps, faut que je creuse ça
Un numéro spécial sur Bayesien, Fisherien, erreurs et approches statistiques pour l’écologie des populations
Un article de blog très intéressant, qui fait un point sympa sur ces dernières tendances.
A lire... Je ne sais pas trop dans quelle mesure l'analyse de décision peut vraiment aider à résoudre des pbs vraiment complexes...
Un article TRÈS intéressant sur l'interface science/politique. En résumé, le gouvt anglais veut connaître l'efficacité du prélèvement de blaireaux sur le contrôle de la tuberculose bovine. Il finance alors une étude, façon étude monstrueuse, avec randomisation, étude en double aveugle, le machin a l'air bien ficelé (j'ai pas lu l'étude -- à lire donc -- sigh...). Et là, surprise, l'étude conclut que le prélèvement de blaireaux est souvent inefficace, peut être efficace dans des conditions d'application irréaliste (genre erradication ultra rapide et ultra efficace de l'espèce à court terme), et sinon peut même *aggraver* la situation. Et là, les gestionnaires sont dans la merde: ils vivent tous avec l'idée que le prélèvement est LA solution, et voilà-t-y-pas qu'on leur dit que non. Et même qu'on leur dit que ça peut être pire.
Et pire, on ne leur dit pas pourquoi, et ça c'est pire que tout. On ne va pas changer notre façon de faire sans savoir quelle est la cause de ce résultat. J'aime bien la classique réaction des chefs "It depends whether you want to base your policy on a sound veterinary opinion, or just on statistics". Bougerai pas. Le gouvernement, dans la merde, cherche un second avis en 2007. Le rapport, écrit à la va vite d'après un éditorial de Nature, et truffé d'erreurs d'après l'auteur de l'article de blog, rassure le gouvt: ne changez rien, ils se sont plantés. Ce rapport est cité par Nature comme exemple typique du cas où un gouvernement ne tient aucun compte de l'avis scientifique après l'avoir demandé (l'éditorial de Nature sur le sujet est passionnant.).
Et avec les années, les études ultérieures donnent raison à cette première étude. On se rend compte que par le prélèvement, on favorise la dispersion des bestioles malades, d'où agravation. Mais les habitudes ont la vie dure, et les responsables ne changent pas la stratégie: prélèvement accru de blaireaux en cas de TB. On continue à débattre, les deux parties continuent à se taper dessus, les politiques n'ont pas vraiment envie de voir les choses évoluer... La conclusion: Since the ISG [le groupe en charge de cette étude] was disbanded in 2007, other advisory groups have come and gone. Over time the contribution of independent scientists has declined, with greater inputs from vets and farming representatives. Two further culls went ahead in 2013, but when an independent panel deemed them ineffective and possibly inhumane, it was not reappointed. The 2014 culls had no independent oversight, and subsequent claims of success are based on extremely shaky data. Outside government, views have become entrenched and cherry picking evidence has become a cottage industry for both sides of the debate.
Bon, cet article ne donne qu'un seul côté du débat, j'aimerais bien en savoir plus... À suivre.
Et pire, on ne leur dit pas pourquoi, et ça c'est pire que tout. On ne va pas changer notre façon de faire sans savoir quelle est la cause de ce résultat. J'aime bien la classique réaction des chefs "It depends whether you want to base your policy on a sound veterinary opinion, or just on statistics". Bougerai pas. Le gouvernement, dans la merde, cherche un second avis en 2007. Le rapport, écrit à la va vite d'après un éditorial de Nature, et truffé d'erreurs d'après l'auteur de l'article de blog, rassure le gouvt: ne changez rien, ils se sont plantés. Ce rapport est cité par Nature comme exemple typique du cas où un gouvernement ne tient aucun compte de l'avis scientifique après l'avoir demandé (l'éditorial de Nature sur le sujet est passionnant.).
Et avec les années, les études ultérieures donnent raison à cette première étude. On se rend compte que par le prélèvement, on favorise la dispersion des bestioles malades, d'où agravation. Mais les habitudes ont la vie dure, et les responsables ne changent pas la stratégie: prélèvement accru de blaireaux en cas de TB. On continue à débattre, les deux parties continuent à se taper dessus, les politiques n'ont pas vraiment envie de voir les choses évoluer... La conclusion: Since the ISG [le groupe en charge de cette étude] was disbanded in 2007, other advisory groups have come and gone. Over time the contribution of independent scientists has declined, with greater inputs from vets and farming representatives. Two further culls went ahead in 2013, but when an independent panel deemed them ineffective and possibly inhumane, it was not reappointed. The 2014 culls had no independent oversight, and subsequent claims of success are based on extremely shaky data. Outside government, views have become entrenched and cherry picking evidence has become a cottage industry for both sides of the debate.
Bon, cet article ne donne qu'un seul côté du débat, j'aimerais bien en savoir plus... À suivre.
Ça c'est un titre d'article. Bon, faut que je lise le papier.
Ah? à trouver et à lire. L'idée d'interfacer SIG et R pour ce type de calcul me paraît effectivement une idée à suivre.
À voir...
À voir...
Ah ben il est sorti. Youpi!
Eurodeer dans la presse locale.
Suite à une révision d'article dans laquelle les référés nous avaient demandé de discuter de cette question, j'ai un peu creusé la littérature. Bon au final, on va citer deux papiers, mais comme je voudrais pas perdre le travail fait, je stocke un résumé de tout ça -- genre mini-revue de la littérature -- ici.
De nombreux auteurs ont montré l'importance que pouvait avoir la présence de faux positifs dans les études d'occupancy (erreurs d'identification). Royle et Link (2006), Fitzpatrick et al. (2009), McClintock et al. (2010 JWM), Miller et al. (2012) montrent tous l'importance de ce type d'erreur dans des études expérimentales. Ces différents auteurs montrent que même une petite quantité d'erreur d'identification peut conduire à des biais considérables dans les estimations d'occupancy. Et si Fitzpatrick et al. (2009) recommandent de mettre l'accent sur la formation des observateurs pour réduire ce nombre d'erreurs, McClintock et al. (2010 JWM) sont plus pessimistes. En effet, ils montrent que même des observateurs super-entraînés sont sujets aux erreurs d'identification, et de façon non négligeable. Mettre l'accent sur la formation des observateurs ne suffit pas, il faut intégrer cette erreur dans le modèle d'estimation.
Royle et Link (2006) ont proposé une approche d'estimation de la probabilité de présence intégrant à la fois probabilité de détection et probabilité d'erreur d'identification. Cette approche, bien que correcte en théorie, a été fortement critiquée par McClintock et al. (2010, Ecology), qui indiquent que il existe des symétries dans la vraisemblance de Royle et Link qui peuvent difficilement être résolues (confusion entre les différentes probabilités), et les hypothèses posées (i.e. supposer que la probabilité de faux positif est inférieure à la probabilité de vrai positif) seront parfois erronées (dans le cas d'une espèce absente d'une zone, mais considérée comme présente). En outre, ces auters indiquent que l'approche de Royle et Link ne permet pas de distinguer l'hétérogénéité de la détectabilité, de la présence de misclassification. Autrement dit, si le modèle décrit parfaitement la situation, pas de soucis, mais la robustesse du bouzin laisse à désirer, et dès que la réalité s'écarte un tant soit peu du modèle, les estimations deviennent délirantes. Or, on n'aura jamais le modèle parfait...
La conclusion de McClintock et al. (2010, Ecology) est "to our knowledge, an occupancy modeling framework incorporating both fals positive errors and heterogeneity has yet to be formally developed". Une solution arrive en 2011, avec l'article de Miller et al. L'approche propose de combiner des données collectées avec différentes approches, ou des données de différents statuts. Par exemple, on a des observations visuelles de piafs sans risque (supposé) d'erreur d'identification, et des observations auditives avec un risque d'erreur plus grand. Ou alors, on a des observations de type "une grenouille isolée qui chante", et "un concert de grenouille de la même espèce qui chante". Le risque d'erreur d'identification est alors supposé plus faible dans le cas du "concert". Combiner ces différentes approches de collectes des données dans une approche de modélisation permet une estimation plus précise des probabilités de faux positifs. Miller et al. illustrent leur approche avec un mélange de deux types de données, dont un supposé "parfait" (sans erreur d'identification), mais indiquent -- sans l'illustrer malheureusement -- qu'il n'est pas forcément nécessaire de disposer d'une approche "parfaite" parmi les approches considérées.
L'approche de Miller et al. (2011) est donc extrêmement récente, et n'a pour le moment été appliquée que sur les grenouilles et dans étude sur le loup (voir revue de Bailey et al. 2014). Elle repose sur des hypothèses qu'il faudra quand même tester. Ainsi, l'idée que l'erreur d'identification est plus faible quand un observateur écoute un concert de grenouille que quand il n'en écoute qu'une seule est fausse, ce qui est démontré par Miller et al. (2012). Bref, la seule solution disponible aujourd'hui a été assez peu testée pour le moment. Cela dit, j'en aime bien le principe.
* Fitzpatrick, M. C.; Preisser, E. L.; Ellison, A. M. & Elkinton, J. S. 2009. Observer bias and the detection of low-density populations Ecological Applications, 19, 1673-1679.
* McClintock, B. T.; Bailey, L. L.; Pollock, K. H. & Simons, T. R. 2010. Unmodeled observation error induces bias when inferring patterns and dynamics of species occurrence via aural detections Ecology, 91, 2446-2454.
* McClintock, B. T.; Bailey, L. L.; Pollock, K. H. & Simons, T. R. 2010. Experimental investigation of observation error in anuran call surveys The Journal of Wildlife Management, 74, 1882-1893.
* Miller, D. A.; Nichols, J. D.; McClintock, B. T.; Grant, E. H. C.; Bailey, L. L. & Weir, L. A. 2011. Improving occupancy estimation when two types of observational error occur: non-detection and species misidentification Ecology, 92, 1422-1428.
* Miller, D. A.; Weir, L. A.; McClintock, B. T.; Grant, E. H. C.; Bailey, L. L. & Simons, T. R. 2012. Experimental investigation of false positive errors in auditory species occurrence surveys Ecological Applications, 22, 1665-1674.
* Royle, J. A. & Link, W. A. 2006. Generalized site occupancy models allowing for false positive and false negative errors. Ecology, 87, 835-841.
De nombreux auteurs ont montré l'importance que pouvait avoir la présence de faux positifs dans les études d'occupancy (erreurs d'identification). Royle et Link (2006), Fitzpatrick et al. (2009), McClintock et al. (2010 JWM), Miller et al. (2012) montrent tous l'importance de ce type d'erreur dans des études expérimentales. Ces différents auteurs montrent que même une petite quantité d'erreur d'identification peut conduire à des biais considérables dans les estimations d'occupancy. Et si Fitzpatrick et al. (2009) recommandent de mettre l'accent sur la formation des observateurs pour réduire ce nombre d'erreurs, McClintock et al. (2010 JWM) sont plus pessimistes. En effet, ils montrent que même des observateurs super-entraînés sont sujets aux erreurs d'identification, et de façon non négligeable. Mettre l'accent sur la formation des observateurs ne suffit pas, il faut intégrer cette erreur dans le modèle d'estimation.
Royle et Link (2006) ont proposé une approche d'estimation de la probabilité de présence intégrant à la fois probabilité de détection et probabilité d'erreur d'identification. Cette approche, bien que correcte en théorie, a été fortement critiquée par McClintock et al. (2010, Ecology), qui indiquent que il existe des symétries dans la vraisemblance de Royle et Link qui peuvent difficilement être résolues (confusion entre les différentes probabilités), et les hypothèses posées (i.e. supposer que la probabilité de faux positif est inférieure à la probabilité de vrai positif) seront parfois erronées (dans le cas d'une espèce absente d'une zone, mais considérée comme présente). En outre, ces auters indiquent que l'approche de Royle et Link ne permet pas de distinguer l'hétérogénéité de la détectabilité, de la présence de misclassification. Autrement dit, si le modèle décrit parfaitement la situation, pas de soucis, mais la robustesse du bouzin laisse à désirer, et dès que la réalité s'écarte un tant soit peu du modèle, les estimations deviennent délirantes. Or, on n'aura jamais le modèle parfait...
La conclusion de McClintock et al. (2010, Ecology) est "to our knowledge, an occupancy modeling framework incorporating both fals positive errors and heterogeneity has yet to be formally developed". Une solution arrive en 2011, avec l'article de Miller et al. L'approche propose de combiner des données collectées avec différentes approches, ou des données de différents statuts. Par exemple, on a des observations visuelles de piafs sans risque (supposé) d'erreur d'identification, et des observations auditives avec un risque d'erreur plus grand. Ou alors, on a des observations de type "une grenouille isolée qui chante", et "un concert de grenouille de la même espèce qui chante". Le risque d'erreur d'identification est alors supposé plus faible dans le cas du "concert". Combiner ces différentes approches de collectes des données dans une approche de modélisation permet une estimation plus précise des probabilités de faux positifs. Miller et al. illustrent leur approche avec un mélange de deux types de données, dont un supposé "parfait" (sans erreur d'identification), mais indiquent -- sans l'illustrer malheureusement -- qu'il n'est pas forcément nécessaire de disposer d'une approche "parfaite" parmi les approches considérées.
L'approche de Miller et al. (2011) est donc extrêmement récente, et n'a pour le moment été appliquée que sur les grenouilles et dans étude sur le loup (voir revue de Bailey et al. 2014). Elle repose sur des hypothèses qu'il faudra quand même tester. Ainsi, l'idée que l'erreur d'identification est plus faible quand un observateur écoute un concert de grenouille que quand il n'en écoute qu'une seule est fausse, ce qui est démontré par Miller et al. (2012). Bref, la seule solution disponible aujourd'hui a été assez peu testée pour le moment. Cela dit, j'en aime bien le principe.
* Fitzpatrick, M. C.; Preisser, E. L.; Ellison, A. M. & Elkinton, J. S. 2009. Observer bias and the detection of low-density populations Ecological Applications, 19, 1673-1679.
* McClintock, B. T.; Bailey, L. L.; Pollock, K. H. & Simons, T. R. 2010. Unmodeled observation error induces bias when inferring patterns and dynamics of species occurrence via aural detections Ecology, 91, 2446-2454.
* McClintock, B. T.; Bailey, L. L.; Pollock, K. H. & Simons, T. R. 2010. Experimental investigation of observation error in anuran call surveys The Journal of Wildlife Management, 74, 1882-1893.
* Miller, D. A.; Nichols, J. D.; McClintock, B. T.; Grant, E. H. C.; Bailey, L. L. & Weir, L. A. 2011. Improving occupancy estimation when two types of observational error occur: non-detection and species misidentification Ecology, 92, 1422-1428.
* Miller, D. A.; Weir, L. A.; McClintock, B. T.; Grant, E. H. C.; Bailey, L. L. & Simons, T. R. 2012. Experimental investigation of false positive errors in auditory species occurrence surveys Ecological Applications, 22, 1665-1674.
* Royle, J. A. & Link, W. A. 2006. Generalized site occupancy models allowing for false positive and false negative errors. Ecology, 87, 835-841.
pas mal de refs intéressantes
Une nouvelle charge en bonne et due forme contre le bayésien en écologie.
Le débat continue...
à lire quand j'aurai le temps
à lire quand j'aurai le temps
Bon, et puis je stocke ce post ici, il semble être un peu incontournable en ce moment, et tout le monde en parle, surtout depuis la présentation de Ben Bolker à l'ISEC à Montpellier. La notion de machisme statistique décrit la tendance à vouloir écraser le lecteur sous un arsenal monstrueux de statistiques compliquées et incompréhensibles. C'est ce bloggeur qui a introduit la notion, et qui est très à la mode en ce moment en écologie.
Il faut y arrêter avec les méthodes super-compliquées.
Edit: OK, j'ai vu la vidéo, le message est plus nuancé: la question est de savoir si ça vaut vraiment la peine de se lancer dans les nouvelles méthodes à la mode. Du point de vue du statisticien, le développement de nouvelles méthodes est aussi un moyen de publier. Et pour faciliter la publication, il va probablement souligner l'utilité du machin. La question est de savoir si ça vaut vraiment le coût. En fait si c'est une machinerie monstrueuse pour une amélioration de 5%, ce n'est pas la peine ("not worth the trouble"). Et Bolker dit un truc très juste: on passe son temps à se faire emmerder par des référés sur "vous auriez dû utiliiser telle méthode, etc.". Bolker remarque qu'il y a trois types de référés: (i) ceux qui ne connaisse rien aux statistiques et qui ne vont pas nous emmerder là-dessus, (ii) ceux qui s'y connaissent bien, et qui vont relire le matériel stat, juger de la pertinence des choix et accepter ceux qui ne sont légèrement suboptimaux sans forcément bouler le papier, et (iii) ceux qui connaissent suffisamment de stats pour savoir que la méthode X aurait aussi été pertinente, mais pas assez pour savoir que l'application de cette méthode n'aurait apporté qu'une très légère amélioration par rapport aux résultats obtenus. Et ces derniers sont les plus chiants.
Edit: OK, j'ai vu la vidéo, le message est plus nuancé: la question est de savoir si ça vaut vraiment la peine de se lancer dans les nouvelles méthodes à la mode. Du point de vue du statisticien, le développement de nouvelles méthodes est aussi un moyen de publier. Et pour faciliter la publication, il va probablement souligner l'utilité du machin. La question est de savoir si ça vaut vraiment le coût. En fait si c'est une machinerie monstrueuse pour une amélioration de 5%, ce n'est pas la peine ("not worth the trouble"). Et Bolker dit un truc très juste: on passe son temps à se faire emmerder par des référés sur "vous auriez dû utiliiser telle méthode, etc.". Bolker remarque qu'il y a trois types de référés: (i) ceux qui ne connaisse rien aux statistiques et qui ne vont pas nous emmerder là-dessus, (ii) ceux qui s'y connaissent bien, et qui vont relire le matériel stat, juger de la pertinence des choix et accepter ceux qui ne sont légèrement suboptimaux sans forcément bouler le papier, et (iii) ceux qui connaissent suffisamment de stats pour savoir que la méthode X aurait aussi été pertinente, mais pas assez pour savoir que l'application de cette méthode n'aurait apporté qu'une très légère amélioration par rapport aux résultats obtenus. Et ces derniers sont les plus chiants.
Les IF 2013 sont arrivés
Yabon.
Ecology letters interdit la publication de pre-print avant soumission des papiers aux revues (genre bioRxiv, arxiv, etc). Une très bonne synthèse de pourquoi c'est une décision criticable.
Je suis complètement d'accord avec lui: (i) La définition d'une politique éditoriale d'une revue ne doit concerner que la revue en elle même, et non se substituer au chercheur dans sa définition de stratégie de recherche (même si cette stratégie est mauvaise), (ii) les éditeurs sont en général content lorsqu'un papier a déjà été relu et critiqué par des spécialistes du domaine (d'ailleurs, pour les grandes revues comme Nature et Science, c'est même une obligation d'avoir déjà fait relire l'article par des spécialistes avant la soumission et l'envoi aux référés), (iii) la rapidité de publication dans Ecology letters ne concerne qu'un très petit pourcentage des articles soumis, (iv) Ecology letters peut parfaitement n'être pas le premier choix de revue, et en contraignant les auteurs à éviter les relectures au cas où.
Surtout la décision est très bizarre quand on connaît l'importance que revêt ArXiv chez les matheux, et comment ce système permet d'augmenter la qualité générale de la recherche dans ce domaine!
Je suis complètement d'accord avec lui: (i) La définition d'une politique éditoriale d'une revue ne doit concerner que la revue en elle même, et non se substituer au chercheur dans sa définition de stratégie de recherche (même si cette stratégie est mauvaise), (ii) les éditeurs sont en général content lorsqu'un papier a déjà été relu et critiqué par des spécialistes du domaine (d'ailleurs, pour les grandes revues comme Nature et Science, c'est même une obligation d'avoir déjà fait relire l'article par des spécialistes avant la soumission et l'envoi aux référés), (iii) la rapidité de publication dans Ecology letters ne concerne qu'un très petit pourcentage des articles soumis, (iv) Ecology letters peut parfaitement n'être pas le premier choix de revue, et en contraignant les auteurs à éviter les relectures au cas où.
Surtout la décision est très bizarre quand on connaît l'importance que revêt ArXiv chez les matheux, et comment ce système permet d'augmenter la qualité générale de la recherche dans ce domaine!
Un article de TREE hors de mon champs de compétence, mais dont je garde le lien rien que pour le titre. ya des géns qui savent écrire un titre accrocheur. Et le résumé.
Ça me donne envie de lire l'article.
Un jour peut-être.
Ça me donne envie de lire l'article.
Un jour peut-être.
Faudra que je prenne le temps de lire ça un jour...
À lire, quand j'aurai le temps
Ya des gens qui savent faire la pub de leur papier...
À lire donc.
À lire donc.
A voir...
Parce qu'il n'y a pas de combats sans importance.
Le gars a développé une méthode de mesure de recouvrement de niche. Bon, le gars parle de niche fonctionnelle (version eltonienne), mais son approche doit pouvoir s'étendre aux niches grinelliennes. Il met son papier en accès libre. À lire...
un site.
Un arxiv pour biologistes! reste à savoir si ça va prendre. En tous cas, moi, je soutiens
Un serpent qui vole!
Un site marrant avec plein d'images médiévales. Potentiellement utile quand on prépare une présentation, ya plein d'images d'animaux
Oh mais ça m'a l'air intéressant ça! On a de l'info environnementale à échelle fine (e.g. pixels de 100 mètres) et de l'info sur la distribution d'une espèce grossière (genre présence dans un gros quadrat), et on veut une carte de distribution à l'échelle fine. Le gars dit que c'est possible et publie la solution. Bidouillage immonde ou pas? j'ai pas lu, mais incontestablement, c'est à garder sous le coude.
Les noms des groupes d'animaux en anglais (herd pour éléphants, pack pour wolves, etc.)
Et conspiracy pour corbeaux!
À garder sous le coude, c'est toujours utile
Et conspiracy pour corbeaux!
À garder sous le coude, c'est toujours utile
Une belle défense de l'exploratoire. Il est toujours bon de rappeler que l'approche exploratoire est intéressante
pas vu, mais à voir
Tiens un article sur les stats pour les sciences participatives. À récupérer.
Discussion d'un papier de Possingham qui a l'air intéressante
Comment le comportement reproducteur d'un piaf peut pourrir des estimations d'abondance.
Tiens? les marches de Lévy reprennent du poil de la bête. À lire.
Un numero spécial de TREE sur l'éco-informatique. À récupérer.
Un package intéressant pour l'estimation des UD avec données GPS, basé sur les brownian bridge dynamiques. M'a l'air intéressant à creuser.
Tiens, un rassemblement de blogs sur l'écologie des changements climatiques. Pas mal de posts sur l'utilisation de stats/info en écologie. à voir
Et ya même une section pre-print qui se veut l'équivalent d'ArXiv pour les biologistes. Pas mal!
Un nouveau canard qui défend l'open access.
Un site servant de dépot aux codes open source développés en écologie. Me suis inscrit

