2369 shaares
51 results
tagged
maths
Celui là, je me le garde sous le coude.
Von Neumann disait "With four parameters I can fit an elephant, and with five I can make him wiggle his trunk."
Ya des siphonnés qui l'ont pris au pied de la lettre, et qui expliquent comment faire (Mayer et al. 2010).
Le code python est dispo
Ya des siphonnés qui l'ont pris au pied de la lettre, et qui expliquent comment faire (Mayer et al. 2010).
Le code python est dispo
Dans la série des must-read, quelques refs intéressantes en topologie.
Intéressant: utiliser les copula pour simuler des distributions multivariées avec structure de corrélation imposée. Les copula sont des distributions multidimensionnelles caractérisées par des distributions marginales uniformes. Le théorème de Sklar indique que toute distribution multidimensionnelle peut être formulée comme fonction de ses distributions marginales (e.g. Poisson, etc.) et d'une structure de corrélation décrite par une copula (voir e.g. https://en.wikipedia.org/wiki/Copula_(probability_theory)).
Quelques bouquins intéressants sur l'algèbre linéaire.
Section Jacobian Determinant: Wikipedia est un outil génial. L'explication du pourquoi il apparaît dans le changement de variable lors de l'intégration est limpide, et les illustrations aussi.
Vive Wikipedia.
Vive Wikipedia.
Super explication de la raison pour laquelle on trouve le déterminant de la Jacobienne quand on fait du changement de variable dans une intégrale multiple:
Le déterminant d'une matrice est le volume du parallélotope (l'extension du parallélépipède dans un espace de dimension n) défini par les vecteurs de la matrices.
Si on a une fonction qui prend un vecteur x de longueur n et qui renvoie un vecteur y de longueur m, alors la Jacobienne est une matrice m×n qui décrit la valeur de la dérivée des m éléments résultats sur les n éléments d'entrée. Considérons le cas où m=n. La Jacobienne décrit alors la pente de chaque fonction élément de y dans la direction de chaque élément de x: La Jacobienne est une approximation linéaire en un point x de la fonction vectorielle y(x).
Le déterminant de la jacobienne est alors un "élément de volume différentiel". Idée intéressante à creuser.
Le déterminant d'une matrice est le volume du parallélotope (l'extension du parallélépipède dans un espace de dimension n) défini par les vecteurs de la matrices.
Si on a une fonction qui prend un vecteur x de longueur n et qui renvoie un vecteur y de longueur m, alors la Jacobienne est une matrice m×n qui décrit la valeur de la dérivée des m éléments résultats sur les n éléments d'entrée. Considérons le cas où m=n. La Jacobienne décrit alors la pente de chaque fonction élément de y dans la direction de chaque élément de x: La Jacobienne est une approximation linéaire en un point x de la fonction vectorielle y(x).
Le déterminant de la jacobienne est alors un "élément de volume différentiel". Idée intéressante à creuser.
Quelques refs intéressantes.
Discussion très intéressante: à priori, on doit bien dire Théorème central limite et pas théorème de la limite centrale comme je le croyais. Le nom provient d'un article allemand de Polya dans lequel l'adjectif "central" est de façon non-ambigüe associé à "théorème".
Voila.
Voila.
Intéressant
J'avais vu ça dans Jaynes. Ce théorème permet de justifier la probabilité comme une extension de la logique.
Bon à savoir: la médiane est une average, comme la moyenne, comme tous les paramètres de positions. J'utilise donc le terme "average" pour décrire le paramètre lambda dans le modèle de Poisson surdispersé:
y_i ~ Poisson(lambda × epsilon_i)
epsilon_i ~ Normal(0, sigma)
Même si lambda n'est ni une moyenne ni une médiane.
y_i ~ Poisson(lambda × epsilon_i)
epsilon_i ~ Normal(0, sigma)
Même si lambda n'est ni une moyenne ni une médiane.
À lire absolument, j'ai pas suivi le débat et je commence à prendre du retard sur ces questions.
Dans la série j'apprends un nouveau concept math chaque jour: la quasi-convexité. La fonction f est quasi-convexe si pour tout trio de point x<z<y, f(z) < max(f(x),f(y)).
La quasi-concavité, c'est le contraire. La loi normale est quasi-concave.
La quasi-concavité, c'est le contraire. La loi normale est quasi-concave.
Un post marrant sur les raisons qui amènent à une sursimplification de la réalité et aux hypothèses irréalistes dans le développement mathématique.
Une bonne synthèse sur les comparaisons asymptotiques (big-O, little-o, etc.)
Euler avait conjecturé que la relation
Somme_{i=1}^n a_i^k = b^k
n'est possible que si n>=k.
Ces auteurs écrivent un article démontrant le contraire avec un contre-exemple: 27^5 + 84^5 + 110^5 + 133^5 = 144^5
Effectivement, on a k=5 et n=4.
Ils écrivent donc un article de 5 lignes qui démonte la conjecture d'Euler. Cinq lignes suffisent à démonter une conjecture d'un des plus brillants, pour ne pas dire le plus brillant des mathématiciens de tous les temps.
C'est beau quand même
Somme_{i=1}^n a_i^k = b^k
n'est possible que si n>=k.
Ces auteurs écrivent un article démontrant le contraire avec un contre-exemple: 27^5 + 84^5 + 110^5 + 133^5 = 144^5
Effectivement, on a k=5 et n=4.
Ils écrivent donc un article de 5 lignes qui démonte la conjecture d'Euler. Cinq lignes suffisent à démonter une conjecture d'un des plus brillants, pour ne pas dire le plus brillant des mathématiciens de tous les temps.
C'est beau quand même
Intéressant: on peut trouver des références sur une séquence d'entiers ici. Très complet.
Je note dans le tas category theory... je ne sais pas du tout ce que c'est. À voir un jour
Un peu d'éthymologie:
Courbe sigmoïde: ça vient de la lettre grecque sigma qui produit le son S, et S est la forme de la courbe. Zont été la chercher loin celle-là.
Logarithme: vient de logos (rapport, proportion) et arithmos (nombre), inventé par John Napier au XVIème siècle.
Logistique: inventé par Verhulst au XIXème siècle, sans raison, mais apparemment, en grec ça veut dire calcul, et jusqu'au XVIIIème logistique était synonyme de logarithme. Plus après Verhulst.
Me coucherai moins con.
Courbe sigmoïde: ça vient de la lettre grecque sigma qui produit le son S, et S est la forme de la courbe. Zont été la chercher loin celle-là.
Logarithme: vient de logos (rapport, proportion) et arithmos (nombre), inventé par John Napier au XVIème siècle.
Logistique: inventé par Verhulst au XIXème siècle, sans raison, mais apparemment, en grec ça veut dire calcul, et jusqu'au XVIIIème logistique était synonyme de logarithme. Plus après Verhulst.
Me coucherai moins con.