Choux romanesco, Vache qui rit et intégrales curvilignes

31 octobre 2014

Don't dead open inside

Le zombie est une créature à capacités cognitives limitées à la fois morte et vivante, se nourrissant essentiellement de cerveaux humains. Ils peuvent se nourrir avec d'autres types de viandes, mais la viande humaine reste quand même leur principale source de protéines. Le mathématicien, quant à lui, est une créature bien vivante dont les capacités cognitives sont potentiellement infinies et qui, sauf rares exceptions, ne se nourrit pas de cerveaux humains, mais plutôt de café. 

Will_you_be_ready

Pourtant, les mathématiciens entretiennent des rapports très proches avec les zombies dès qu'il s'agit de modélisation. Et la question qui se pose vraiment, c'est de savoir comment réagirait la population mondiale face à une épidémie de type zombie...

Le modèle SIR
Pour modéliser une apocalypse zombie, on peut piocher parmi les modèles classiques d'évolution des population. On penser au modèle proie-prédateur de Lotka et Volterra, mais puisque les zombies sont considérés comme des malades dans la plupart des histoires de zombies modernes, c'est plutôt du côté des modèles épidémiologiques que l'on va se tourner.

Le modèle de base en épidémiologie (qui date tout de même de 1927) duquel dérive la majorité des autres modèles est le modèle SIR. Il part de l'hypothèse que, face à une maladie donnée, le monde se divise en trois catégories : les individus sains et susceptibles de tomber malade (S), les individus infectés (I) et les individus remis de leur maladie (c'est à dire, soit immunisés, soit morts) (R). Evidemment, c'est un modèle, et de très nombreuses variantes ont été proposées et étudiées.

Pour mathématiser le modèle, on va devoir faire appel aux équations différentielles. Pour cela, on va considérer les fonctions suivantes :

  • S(t) : le nombre (ou la concentration / proportion) d'individus sains, en fonction du temps
  • I(t) : le nombre d'individus infectés, en fonction du temps
  • R(t) : le nombre d'individus remis, en fonction du temps

Pour modéliser le problème, on a également besoin de connaître plusieurs coefficients, propres à chaque maladie :

  • β, le taux de propagation du virus (plus β est grand, plus la maladie est infectieuse)
  • ζ, le taux de rémission ou de décès du virus (1/ζ correspond alors au temps moyen de rémission/décès) (plus ζ est petit, plus le temps durant lequel le malade est contagieux est long)

Ainsi, le nombre d'individus sains diminuera au cours du temps. Cette diminution sera proportionnelle selon le coefficient de propagation β du virus, et dépendra donc du nombre d'invidivus infectés présents (plus le nombre d'infecté est grand, plus la propagation sera rapide). Mathématiquement, cela s'écrit S'(t) = – β.I(t).S(t), où S'(t) désigne la dérivée de la fonction S en fonction de t, qui correspond à la vitesse de diminution du nombre d'individus sains.
Inversement, le nombre d'individus infectés augmente proportionnellement au taux β et au nombre d'individus encore sains, mais diminue selon le taux de rémission ζ. L'équation est alors I'(t) = β.S(t).I(t) – ζ I(t)
Enfin, l'augmentation du nombre d'individus remis/morts est proportionnelle au nombre d'individus infectés, d'un facteur ζ. On a alors l'équation R'(t) = ζ I(t).

Finalement, on obtient un système de trois équations différentielles :

Modele_SIR

Qu'on se le dise tout de suite, il est hors de question de chercher une formule explicite pour la solution de ce système. Déjà parce que la connaître ne nous apportera pas grand chose, mais surtout, parce qu'une telle formule n'existe généralement pas. On peut quand même étudier le comportement des solutions !
On peut le faire mathématiquement, en étudiant par exemple les points d'équilibre du système. Mais on peut aussi, et c'est quand même plus amusant, choisir des valeurs pour les coefficients β et ζ, ainsi que des conditions initiales, et laisser l'ordinateur faire les calculs pour compter le nombre de morts causés par notre virus fictif (bien sûr, cela implique également de s'y connaître en mathématique de modélisation pour vérifier que les courbes que l'on obtient sont les bonnes, mais on va fermer les yeux là-dessus et faire comme si c'était quelque chose de facile). 

ModèleSIR

Scénario catastrophe : comment réagirait la population en présence d'un virus mortel et incurable ? Simulons !
A : maladie très infectieuse (β=4) mais rapidement mortelle (ζ=4). 60% de la population survit, c'est pas mal.
B : maladie très infectieuse (β=4) et longtemps contagieuse (ζ=1) : extinction de l'humanité.
C : maladie peu infectieuse (β=0.5) et mais très longtemps contagieuse (ζ=0.25). 20% de survivant !
Dans chaque cas, on part de 90% d'individus sains et de 10% de malades.

Apocalypse zombie, modèle de Munz
Seulement, être un zombie n'est pas une maladie comme les autres puisque, la rémission est rarement possible, et que la mort n'y est que temporaire. Dans un article en 2009, quatre mathématiciens canadiens (P.Munz, I. Hudea, J. Imad et R.J. Smith) proposent une modélisation dérivée du modèle SIR, dans lequel :

  • la population I des infectés est remplacée par la population Z des zombifiés.
  • on ajoute à l'équation de l'évolution de S un taux de naissance naturel (π) ainsi qu'un taux de décès naturel et/ou de suicide δ (ce qui ajoutera le terme +δ.S à R(t))
  • on ajoute à l'équation de l'évolution de Z le terme – α.S(t).Z(t) indiquant la tendance naturelle qu'on les individus sains à attaquer à la hache les individus infectés (ce qui est rarement le cas dans les infections plus classiques), ainsi que le terme + ζ.R(t), indiquant la tendance qu'on les zombies et individus morts à revenir à la vie sous forme de zombie.
  • on ajoute à l'équation de l'évolution de R le terme – ζ.R(t), correspondant à la faculté qu'on les morts à revenir à la vie, ainsi que le terme + α.S(t).Z(t) correspondant aux individus débarrasses de leur infection suite à un coup de hache bien placé.

On obtient alors le système d'équation suivant (les "(t)" sont sous-entendus) :

Modele_Munz

Testons ce modèle avec les coefficients π=0.001, δ = 0.001 (naissances et suicides négligeables), α=1 (humains sains moyennement violents), β=0.5 (zombies peu agressifs) et ζ=0.25 (résurrection des zombies non négligeable), et avec initialement seulement 5% d'humains. On obtient les courbes suivantes :

ModeleMunz
28 jours plus tard, l'humanité a quasiment disparu...

En fait, on peut démontrer que, quelles que soient les conditions initiales, le nombre de zombies tendra vers l'infini. Selon ce modèle, l'apocalypse zombie est inévitable...

Munz et son équipe proposent d'autres modèles dérivés de celui-ci, en envisageant un temps de latence entre la morsure et la transformation en zombie, ou en proposant la possibilité de placer les infectés en quarantaine. Ce modèle possède cependant une énorme faille : les zombies y sont immortels !

Pourtant, il est parfaitement connu qu'un coup de masse, d'arbalette, de fusil, de batte de base-ball ou de n'importe quel objet de tir ou de frappe dans le cortex préfrontal d'un zombie entraîne sa mort définitive. Il faut ajouter une classe au modèle, celui des zombies définitivement morts !

Apocalypse zombie, modèle de Witkowski 
En 2013, deux biologistes C. Witkowski et B. Blais proposent une alternative au modèle de Munz comprenant 4 classes :

  • S : individus sains
  • E : individus en passe de devenir zombie. Ces classes permet d'unifier les différentes formes de zombies selon les oeuvres : chez Romero, la classe E correspond aux morts ; chez Marc Forster, ce sont les 12 secondes d'incubation du virus, etc.
  • Z : zombies
  • R : zombie définitivement mort

Les interactions entre les différents groupes sont les suivantes :

  • Au contact de zombies, les individus sains passent temporairement dans le groupe E, au taux β.
  • Les individus du groupe E deviennent inexorablement des zombies, à un taux  ζ.
  • Les individus sains peuvent, en se suicidant, intégrer directement la classe R, au taux δ.
  • En visant la tête, les individus sains peuvent se débarasser définitivement des zombies, au taux α.

Le système d'équation est alors :

Modele_Witkowski

On peut alors démontrer que le scénario catastrophe du modèle précédent n'aura pas forcément lieu, dans le cas où α est supérieur à β (autrement dit, si les humains sont plus agressifs que les zombies)

Il ne reste plus qu'à déterminer les coefficients α, β, δ et ζ pour tenter quelques modélisations. Et pour cela, Witkowski et Blais ont fait une petite étude de cas, et ont visionné attentivement La Nuit des morts-vivants (1968, George A. Romero), film qui a donné la définition des morts-vivants, et Shaun of the Dead (2004, Edgar Wright), film où les morts-vivants correspondent parfaitement au stéréotype du zombie moderne.

Pour La Nuit des Morts-vivants, ils ont déterminé α=0.9, β=1.1, ζ=3.6 et δ négligeable. Pour Shaun of the dead,  α=0.49, β=0.59 ζ=2 et δ=0. Dans les deux cas, l'humanité finit par périr, contrairement à ce que la conclusion des films laisse à penser...

Modele_Witkowski
Nombre de vivants et de morts-vivants en fonction du temps dans les deux films, en suivant le modèle de Witkowski

Finalement, face à une épidémie de zombies, toutes les études aboutissent aux mêmes conclusions :
- l'humanité périra,
- quelques humains mieux entraînés que les autres ou en quarantaine survivront peut-être,
- les mathématiciens mourront très vite, trop occupés à déterminer les coefficients de leurs équations différentielles.


Sources :
Bayesian Analysis of Epidemics - Zombies, Influenza, and other Diseases, C. Witkowski et B. Blais
When zombies attack ! : mathématical modelling of an outbreak of zombie infection, P.Munz, I. Hudea, J. Imad et R.J. Smith
Modélisation mathématique, calcul scientifique et zombies, conférence à des lycéens de R. Turpault (il ne se base pas sur le modèle SIR, mais sur l'équation de Lokta-Volterra, puis sur l'équation de Boltzmann)

Image : Will you be ready

Posté par El Jj à 10:00 - Commentaires [1] - Permalien [#]
Tags : ,

26 octobre 2014

Deux minutes pour l'heptagone régulier

Nouvel épisode de "deux minutes pour" (qui, étonnamment, dure plus de 4 minutes...), où il est cette fois-ci question de découper des tartes aux litchis pour l'anniversaire de mathématiciens grecs avec un tétracontakaidigone régulier.

Et on peut retourner lire ce vieil article pour lire la construction de l'heptadécagone régulier.

[Edit] Et je rajoute la construction du 257-gone (dihectapentacontakaiheptagone (?) ) à la règle et au compas, signalé en commentaire par Plopilop.

Posté par El Jj à 10:00 - Commentaires [4] - Permalien [#]
Tags : , , , ,
19 octobre 2014

En soulevant le couvercle

D8, fossoyeur assumé de jeux télévisé, vient de déterrer "à prendre ou à laisser", plutôt connu entre 2004 et 2010 sous le nom de "jeu des boîtes d'Arthur". Le jeu est aujourd'hui présenté par Julien Courbet, mais il garde ses principes de base : ouvertures de boîtes, musiques de suspens, téléphone à cadran et candidats recalés de télé réalité.

Le principe du jeu est plutôt simple mais diablement efficace. 24 boîtes, contenant des sommes connues de 0.01 € à 100 000 € (jusqu'à 1 000 000 € dans les précédentes éditions de l'émission), sont confiées à des candidats qui ne connaissent par leur contenu. L'un des candidat est tiré au sort et aura le privilège d'ouvrir une par une les 23 autres boîtes, jusqu'à ce qu'il ne reste plus que la sienne. Le candidat gagne alors le contenu de sa boîte.
Là où le jeu passe du bingo traditionnel à une application de théorie des jeux, c'est que de nombreuses fois durant l'émission, le "banquier" appelle et propose un choix : échanger sa boîte avec un autre candidat, ou bien, accepter de vendre sa boîte au banquier.

La question que se pose n'importe quel candidat est alors la suivante : à quel moment faut-il échanger sa boîte ? à quel moment est-il préférable d'accepter la proposition pécuniaire du banquier ?

Paradoxe de Monty Hall

monty_hall
Le paradoxe de Monty Hall, par xkcd

Le problème de à prendre ou à laisser, à cause de cette possibilité d'échanger sa boîte, fait terriblement penser au paradoxe de Monty Hall (ou, dans son nom plus franchouillard, paradoxe du Bigdil). Pourtant, cela n'a rien à voir !

L'énoncé du problème de Monty Hall est le suivant :
Vous participez à un jeu télé, et vous êtes enfin arrivé en finale. Devant vous, trois portes A, B et C. Deux d'entre elles cachent une chèvre, la troisième cache une voiture. Bien sûr, vous jouez pour remporter la voiture et non la chèvre. Vous devez choisir une porte, et vous gagnerez ce que cache cette porte. Le choix de la porte se fera selon la procédure suivante :
- vous choisissez la porte de votre choix ;
- le présentateur ouvrira une porte que vous n'avez pas choisi et qui cache une chèvre (il connaît le lot attribué à chaque porte);
- vous avez la possibilité de changer de porte, et vous gagnez le contenu de la porte finalement retenue.

La question est la suivante : est-il préférable de changer de porte, ou bien, est-ce que cela ne change en rien les probabilités ?

Un raisonnement erroné consiste à dire que, au stade où il ne reste que deux portes, il y a une chance sur deux d'avoir la bonne porte, et que changer de choix ne change rien. Ce raisonnement est pourtant faux : en changeant de porte, on fait passer la probabilité de gagner la voiture de 33% à 67% !

Pour comprendre pourquoi les probabilités changent, il faut comprendre ce qu'il se passe quand l'animateur retire une chèvre : dans le cas où l'on se trompe dans le choix initial, l'animateur n'a pas le choix dans la chèvre qu'il devra retirer, et laissera nécessairement la voiture. Changer de choix assure alors de remporter la voiture. Cette situation arrive donc dans deux tiers des cas.
Si on choisit la voiture lors de son choix initial, l'animateur pourra retirer n'importe quelle autre porte, qui cachera forcément une chèvre. En changeant de choix, on tombera donc sur l'autre chèvre. Mais cette situation n'arrive que dans un tiers des cas (si la voiture a été choisie dès le début).
Finalement, en changeant de choix après la révélation de la chèvre par l'animateur, on est assuré de gagner la voiture avec une probabilité de 2/3. En fait, le choix de l'animateur apporte une information nouvelle que l'on peut utiliser pour renverser les probabilités de gagner.

Screen Shot 10-15-14 at 11

On peut se convaincre du bienfondé du raisonnement en plaçant dans une situation où 100 portes sont présentes (99 chèvres, une voiture), et où l'animateur retire 98 chèvres lors de l'étape 2. La probabilité de tomber sur la voiture lors du choix initial est particulièrement faible (1/100), le changement de porte sera donc plus que conseillé.

Changer de boîte chez Courbet
Mais dans à prendre ou à laisser, la situation est complètement différente. Contrairement au paradoxe de Monty Hall, la phase d'élimination des boîtes est faite au hasard, et non par un animateur qui connaît le contenu des boîtes et cherche à ménager le suspens. L'ouverture des boîtes n'apporte donc aucune nouvelle information, et il est impossible de l'utiliser pour modifier les probabilités.

La probabilité de détenir la boîte à 100 000 € est donc de 1 / 24, et aucun changement de boîte ne peut modifier cette probabilité !

« Oui, mais pour le candidat d'hier, il ne lui restait au final que deux boîtes possibles, un contenant 100 000 € et une autre contenant une ventouse. Dans ce cas, il a bien une chance sur 2 de gagner le gros lot ! »
Effectivement ! Dans ce cas (que l'on échange ou non sa boîte), la probabilité de gagner les 100 000 € est bien de 1/2 (et donc, échanger sa boîte n'apporte pas un supplément de probabilité)
Mais "ce cas" (où la boîte à 100 000 € n'est pas éliminé pendant les 22 premiers tours) ne se présentera qu'avec une probabilité de une chance sur 12*, ce qui, puisque (1/2) x (1/12) = (1/24), nous ramène bien au fait que l'on a toujours que une chance sur 24 de remporter les 100 000 €.

Bref : la possibilité d'échanger sa boîte dans à prendre ou à laisser est un non-choix total !  Il est presque aussi pertinent que le choix des numéros que l'on coche dans une grille de loto (bien que, pour le loto, le partage des gains au rang 1 implique que certains numéros peuvent rapporter plus que d'autre).

Bon, pour être un peu honnête, la possibilité d'échanger sa boîte est là pour garantir l'équité du jeu. Étant donné que le banquier connaît la répartition des différentes somme entre les boîtes, il pourra systématiquement proposer des sommes inférieures au contenu de la boîte, rendant le jeu injuste. Une meilleure solution serait que le banquier ne connaisse pas le contenu des boîtes, comme dans les versions étrangères du jeu.

Une proposition que l'on ne peut pas refuser
Mais il reste un choix qui garde un sens : les propositions du banquier !

Après que l'on a éliminé six premières boîtes, le banquier appelle et offre la possibilité de racheter la boîte. D'autres propositions seront faite après 11 boîtes, 15, 18, 20, 21 et 22 boîtes éliminées.

La somme qu'il propose est systématiquement inférieure à la moyenne des sommes restantes en jeu (sauf lorsque ces montants sont dérisoires, le banquier a tendance à proposer un geste commercial), et plus le nombre de boîtes diminue, plus la somme proposée par le banquier se rapproche de la moyenne des boîtes restantes en jeu.

Une stratégie optimale consiste à jouer tant que le banquier ne propose pas de somme supérieure à 10 000 (ce qui correspond au gain moyen des 24 boîtes). Mais comme le banquier ne propose jamais des sommes supérieure au gain moyen, appliquer cette stratégie revient à refuser systématiquement les propositions, rendant forcément le jeu moins intéressant.
Pour être un peu précis, l'élimination initiale de 6 boîtes fait varier le gain moyen de 1250 € à 13500 €, mais la stratégie optimale n'a pas plus de chance de porter ses fruits.

La question est donc de savoir à quel moment il faut savoir vendre sa boîte, et c'est à ce moment que la théorie des probabilité laisse sa place aux théories économiques.
Grossièrement, les dilemmes de à prendre ou à laisser peuvent être résumées par « préférez vous gagner 40 000 € ou avoir une chance sur 2 de gagner 100 000 € ?». Dans le deuxième cas, l'espérance de gain est de 50 000 €, et c'est donc ce choix qu'il serait logique de prendre. Mais dans la pratique, une personne sensée choisira les 40 000 € garantis, puisque 60 000 € supplémentaires ne nous rendront pas plus heureux, il n'est pas raisonnable de risquer de les perdre. C'est donc cette notion de satisfaction qu'il faut prendre en compte ("l'utilité"), et non les valeurs absolues des sommes engagées. C'est finalement cette utilité que l'on cherche à maximiser quand on joue à un tel jeu. 
Évidemment, la risquophilie est bénéfique pour le suspens de l'émission, et est donc encouragée ! Il a d'ailleurs été montré que les mécaniques mises en oeuvre par l'émission diminuent l'aversion au risque des candidats. C'est d'ailleurs pour cette raison que l'émission s'est pour la première fois arrêtée en 2010 : avec la crise, les candidats étaient devenus moins tolérant au risque...

Finalement, la meilleure stratégie consiste à se fixer une somme idéale satisfaisante, et à ne rien risquer pour la dépasser. D8, si vous me lisez, sachez que je suis prêt à venir dans l'émission pour y appliquer cette stratégie désespérément pragmatique !

Il existe cependant une véritable stratégie permettant à tous les candidats de gagner avec une bonne probabilité une somme autour de 10 000 € : il suffit que chaque jour, le candidat désigné n'accepte à aucun moment les offres du banquier, et garde sa boîte jusqu'au bout. En suivant cette stratégie, chaque candidat gagnera donc en moyenne 10 000 €,  mais c'est après plusieurs semaines de jeu que la stratégie se met en place : il suffit que l'ensemble des candidats se partagent leur gains. Le risque associé à cette stratégie est bien plus faible, puisqu'il invoque la loi des grands nombres ! Le seul hic, c'est qu'il peut être compliqué de convaincre Crystal, la gogo-danseuse recalée des Ch'tis à Mykonos qui vient de gagner 50 000 € de partager ses gains avec Marie-Joe, prof de lettres à la retraite, qui a seulement gagné 0.42 €.

Bon, de toutes façons, il y Question pour un champion à la même heure sur France 3. A choisir, je préfère regarder ma maman qui y participe bientôt répondre à des questions sur le cyclisme, plutôt qu'un pourfendeur d'huissier s'accoquiner avec une candidate qui n'en a que faire des théories économiques de la gestion du risque. C'est finalement dommage qu'un laboratoire de théorie des jeux appliqués se soit transformé en réunion tupperware de toutes les superstitions les plus délirantes...


 * D'un côté, on  1 chance sur 24 d'avoir la boîte à 100 000 €. On a donc une proba de 23/24 de ne pas l'avoir. Dans ce second cas, la probabilité de ne pas révéler la boîte à 100 000 € lors de la première ouverture est de 22/23. Si elle n'a pas été ouverte lors de la première révélation, la probabilité qu'elle ne le soit pas lors de la deuxième est de 21/22. etc. Au final, dans le cas où l'on ne possède pas soi-même la boîte à 100 000 €, la probabilité ne pas pas l'ouvrir avant qu'il n'en reste plus que deux est 23/24 × 22/23 × 21/22 × ... × 2/3 × 1/2 = 1/24. En ajoutant la probabilité de soi même détenir cette boîte, on retrouve bien cette probabilité de 1/12.


Sources :
Deal or No Deal? Decision Making under Risk in a Large-Payoff Game Show
T. Post, M. Van den Assem , G. Baltussen, R. Thaler

Images : une chèvre, une autre chèvre, une voiture 

Posté par El Jj à 10:00 - Commentaires [1] - Permalien [#]
Tags : , , ,
12 octobre 2014

Deux minutes pour les boeufs d'Hélios

Nouvel épisode de "deux minutes pour", avec cette fois-ci l'étonnant problème des boeufs d'Hélios. 

Sources :
Problème des bœufs d'Hélios - Gérard Villemin - pour le détail de la résolution par le calcul du système
Archimedes' cattle problem - Ilan Vardi - pour le détail de la résolution de l'équation de Pell-Fermat
The cattle problem - pour les précisions historiques et pour les 206 545 chiffres de la solution

Posté par El Jj à 10:00 - Commentaires [3] - Permalien [#]
Tags : , , , ,
28 septembre 2014

Deux minutes pour le théorème de Pythagore

Peut-on démontrer le théorème de Pythagore en moins de deux minutes ? Bien sûr, ce n'est pas difficile.

Mais peut-on le faire de 8 façons différentes ? C'est justement le sujet de la première vidéo de ma nouvelle chaîne Youtube !

Bonus
Il y a une autre démonstration du théorème de Pythagore que j'aurais voulu placer dans la vidéo, mais elle aurait gravement dépassé les 2 minutes... La démonstration de Arioni, basée sur la convergence de la série géométrique.

Pour cela, la première chose à remarquer, c'est que, dans un triangle rectangle, la hauteur issue de l'angle droit donne deux triangles semblables au premier (car ils ont forcément un angle en commun en plus de l'angle droit).

Du coup, sur la figure suivante, tous les triangles représentés sont semblables :

Arioni
ABC est un triangle rectangle en A, de côtés a, b et c.
Pour tout k, Ck+1 est le pied de la hauteur issue de Adu triangle CkAkB, 
et Ak+1 est le pied de la hauteur issue de Ck+1 du triangle Ck+1AkB

Tous les triangles bleus sont similaires, si bien que

Arioni_1

On a alors, pour tout k, 

Arioni_2

On regarde ensuite les triangles de part et d'autres des segments hk :

Arioni_3

On a alors, pour tout k,

Arioni_4

En remplaçant dans l'égalité des triangles bleus, on a :

Arioni_5

De plus, tous les triangles rouges sont similaires à ABC, donc

Arioni_6

Donc 

Arioni_7

Autrement dit, la suite c est géométrique, de raison c²/a²

La longueur c est égale à la série géométrique c0+c1+c2+...
Donc

Arioni_8

De plus, la similarité de ABC avec ABH0 implique que h0 = cb/a
La similarité de A1H0A avec ABC implique que c0 = h0.b/a
Donc c0 = c b²/a².

On remplace dans la série géométrique :

Arioni_9

Ce qui se simplifie en :

Arioni_10

Autrement dit :

a² = b² + c²

CQFD !


Sources :
Vous pouvez retrouver 103 (103 !) démonstrations du théorème de Pythagore sur cut the knot

Posté par El Jj à 10:00 - Commentaires [2] - Permalien [#]
Tags : , , ,
14 septembre 2014

Artur Avila, celui qui mélange

Dans le dernier épisode, j'avais entrepris d'écrire de petits articles pour décrire les travaux de la dernière fournée des médaillés Fields. Dès le premier article sur Manjul Bhargava, j'ai échoué, puisque l'article était trop long. Je vais tenter de me rattraper, en parlant aujourd'hui du plus brésilien de tous les médaillés Fields français (puisque c'est le seul qui soit franco-brésilien) : Artur Avila !

RTEmagicC_Artur_Avila
Artur Ávila Cordeiro de Melo

Artur Ávila est né le 29 juin 1979 à Rio de Janeiro, si bien qu'il a été médaillé Fields à moins de 36 ans (ce qui est plutôt rare). En même temps, vu qu'il a démarré sa thèse à 19 ans, il est normal qu'il obtienne la médaille Fields plus tôt que les autres. Cette médaille, il l'a remporté grâce à 

"ses profondes contributions à la théorie des systèmes dynamiques qui ont bouleversé le domaine, en utilisant la puissante idée de renormalisation comme principe unificateur"

Suite logistique
Ce qui intéresse Artur Avila, c'est de comprendre le comportement des systèmes dynamiques : le mouvement des planètes, la dynamique des populations, le mouvement des électrons... Ce qui caractérise un système dynamique, c'est que leur évolution est parfaitement déterministe : la connaissance exacte des conditions initiales permet toujours de savoir leur avenir. Mais si on ne connaît que vaguement les conditions initiales, la prédiction du futur du système est souvent compromise. Mais ce n'est pas une fatalité ! Commençons déjà par étudier le plus célèbre des systèmes dynamiques, issu d'une modélisation de la croissance de populations : la suite logistique.

Pour un nombre réel r∈ ]0,4], on définit la fonction logistique f:x ↦ r.x.(1-x). 
Puis, étant donné un nombre u0  ]0,1[, on va observer le comportement de la suite (un) définie par un+1 = f(un).

Malgré son apparence très simple, cette suite peut avoir des comportements très bizarres pour certaines valeurs de r et de u0.

Prenons un premier exemple, avec r = 2.8 et u0 = 0.2. Dans ce cas, la suite logistique est la suivante :
u0 = 0.2, u1 = f(u0) = 0.448, u2 = f(u1) = 0.692..., u3 = 0.596..., u4 = 0.674..., u5 = 0.615..., u6 = 0.662...
En itérant davantage, on constate que la suite finit par se stabiliser autour de 0.6428 (9/14). La suite converge !

On peut observer le comportement de ces suites à l'aide de ce que l'on appelle les diagrammes en "toile d'araignée" (ou diagrammes de Vershult). Pour cela, on dessine la fonction que l'on va itérer (ici, f), ainsi que la droite d'équation y=x, et on place le terme initial u0 sur l'axe horizontal. On va ensuite placer le point u1 en reliant verticalement u0 à la courbe de f, puis horizontalement la courbe f à la droite y=x. En répétant l'opération, on fabriquera la "toile d'araignée" qui représentera les différents termes de la suite.
La convergence d'une suite se traduit sur ce diagramme par la convergence des zig-zag.

Logistic_28 (2)
Diagramme en toile d'araignée de la suite logistique, pour r = 2.8 et u0 = 0.2
Les 500 premiers termes de (un) sont représentés (même si 99% d'entre eux sont concentrés autour de 9/14)

En fait, le choix du terme initial u0 n'a aucune incidence sur le devenir de cette suite de paramètre r=2.8 : elle finira toujours par converger vers 9/14.

Mais pour les autres valeurs de r ? Eh bien, ça dépend...

Déjà, il y a les valeurs r comprises entre 0 et 3 : c'est toujours la même chose qui se passe, la suite converge :

logistique_13logistique_2logistique_23
logistique_26logistique_295logistique_3
Pour r ∈ ]0,3], la suite converge, quelle que soit la valeur initiale u0.
Pour r=3, la convergence vers 2/3 est cependant particulièrement lente.

Mais pour les valeurs plus grandes que r=3, les choses se corsent. D'abord, gentiment, lorsque r est compris entre 3 et 3.449 : la suite ne se stabilise pas autour de une seule valeur, mais autour de 2 :

logistique_310logistique_320logistique_330logistique_342
Diagramme pour r=3.1, r=3.2, r=3.3 et r=3.42
Pour r ∈ ]3,1+√6], la suite se stabilise autour de 2 valeurs, quelle que soit (sauf exception) la valeur initiale u0.

Pour des valeurs encore plus grande de r, ça se complique davantage : la suite se stabilisera autour de 4 valeurs (r ∈]3.449, 3.544]), puis autour de 8 valeurs (r∈]3.544;3.564]), puis autour de 16 valeurs, etc., et ce, tant que r ≤ 3.57.

logistique_350logistique_356logistique_3565
Diagramme pour r=3.5, r=3.56, r=3.565
Pour ces valeurs r ≤ 3.57, la suite finira par se stabiliser autour de 2n valeurs

Mais pour les valeurs plus grandes que 3.57, le chaos arrive ! Il n'y a plus aucune valeur autour desquelles la suite va se stabiliser. De plus, si on change même très légèrement la valeur initiale u0, la trajectoire sera complètement différente. On peut alors dire que la suite a un comportement chaotique. Encore une fois, ce chaos est indépendant de la valeur initiale (sauf exceptions)

logistique_370logistique_380logistique_390logistique_400
Diagramme pour r=3.7, r=3.8, r=3.9 et r=4
Pour ces valeurs r ∈ [3.57;4], la suite est chaotique : elle ne se stabilisera autour d'aucune valeur

En fait, ceci n'est pas totalement vrai. A partir de r=3.57, on peut trouver parfois des valeurs r pour lesquelles la suite se stabilisera autour de 3 valeurs, autour de 6 valeurs, ou autour de n'importe quel nombre de valeurs choisies à l'avance. Par exemple, pour r=3.83, la suite se stabilise autour de 3 valeurs :

logistique_383
Diagramme pour r=3.83 : la suite se stabilise autour de 3 valeurs.

On peut résumer le comportement de la suite logistique par son diagramme de bifurcation : en abscisse, le paramètre r, et en ordonnée, ses valeurs d'adhérence :

800px-LogisticMap_BifurcationDiagram

Finalement, la suite peut présenter deux comportements, suivant la valeur r :
- ou bien elle est régulière : elle finit par se stabiliser autour d'une ou de plusieurs valeurs
- ou bien elle est chaotique

Dans le cas où la suite est chaotique, elle n'est cependant pas si imprévisible qu'on voudrait bien le croire. Même si on ne peut pas connaître la valeur de la suite après un grand nombre de valeurs, on peut tout de même prédire avec une certaine probabilité dans quel intervalle elle se trouvera. Par exemple, on peut vérifier que dans le cas r = 0.9, la suite passera plus de 20% de son temps dans l'intervalle [0.9;1], ou qu'elle sera deux fois plus souvent autour de 0.35 qu'autour de 0.7. Et ça, indépendemment du choix de u0 (sauf, comme toujours, cas particuliers). 
Autrement dit, quand on connaît la valeur r, on peut connaître la répartition des valeurs prises par la suite. Le système dynamique se comporte alors comme un objet aléatoire : on dit alors que la suite stochastiquement stable.

Existe-t-il des valeurs r pour laquelle la suite serait ni régulière, ni stochastiquement stable ? ... Eh bien, oui, mais ces exemples sont négligeables (les cycles attracteurs peuvent par exemple être des ensembles de Cantor...). C'est l'objet du théorème de Lyubich (2002), qui indique que presque toutes les suites logistiques sont régulières ou stochastiquement stable.

Mais ça, c'était juste pour le cas très particulier des suites logistiques. Qu'en est-il de tous les autres systèmes dynamiques ? Eh bien, c'est ça l'objet du travail de Artur Avila : il a démontré, avec Lyubich et Melo, que la plupart des systèmes dynamiques observent cette dualité régulier/stochastiquement stable !

Les échanges d'intervalles
Un autre problème qui a longtemps empêché Avila de dormir est celui du mélange des jeux de cartes (bon, avec un nombre infini et continu de cartes, mais l'idée est là).

Par exemple, pour mélanger un jeu de 32 cartes, on peut répéter plusieurs fois l'opération suivante : faire 4 tas de cartes A, B, C, D, puis les réassembler en mélangeant l'ordre des tas (par exemple, D, A, C, B). Quand on parle de système dynamique, il est nécessaire que l'opération soit toujours identique.

Disons que les tas A, B, C et D contiennent respectivement 7, 7, 7, et 11 cartes. En numérotant les cartes de 1 à 32, on a le découpage suivant :

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32

En permutant ces 4 tas selon le motif DACB, on obtient :

22 23 24 25 26 27 28 29 30 31 32 1 2 3 4 5 6 7 15 16 17 18 19 20 21 8 9 10 11 12 13 14

Et si on répète encore la même opération :

18 19 20 21 8 9 10 11 12 13 14 22 23 24 25 26 27 28 4 5 6 7 15 16 17 29 30 31 32 1 2 3
7 15 16 17 29 30 31 32 1 2 3 18 19 20 21 8 9 10 25 26 27 28 4 5 6 11 12 13 14 22 23 24
28 4 5 6 11 12 13 14 22 23 24 7 15 16 17 29 30 31 21 8 9 10 25 26 27 32 1 2 3 18 19 20
10 25 26 27 32 1 2 3 18 19 20 28 4 5 6 11 12 13 17 29 30 31 21 8 9 14 22 23 24 7 15 16
31 21 8 9 14 22 23 24 7 15 16 10 25 26 27 32 1 2 6 11 12 13 17 29 30 3 18 19 20 28 4 5
13 17 29 30 3 18 19 20 28 4 5 31 21 8 9 14 22 23 27 32 1 2 6 11 12 24 7 15 16 10 25 26
2 6 11 12 24 7 15 16 10 25 26 13 17 29 30 3 18 19 9 14 22 23 27 32 1 20 28 4 5 31 21 8
23 27 32 1 20 28 4 5 31 21 8 2 6 11 12 24 7 15 30 3 18 19 9 14 22 16 10 25 26 13 17 29

Après 10 répétitions, le jeu est plutôt mélangé, et c'est parfait pour une bataille ! 
Après un grand nombre n d'opérations, on dira que le jeu est mélangé si, dans n'importe quel petit groupe de carte, la proportion de carte d'un groupe donné est la même que dans le jeu complet.
Autrement dit, un jeu de carte est bien mélangé si, dans une main, on a toujours environ 50% de cartes rouges, 25 % de piques, 12.5% de carte as ou roi...

Il y a quand même un problème avec le mélange d'un jeu de 32 cartes, c'est qu'après un certain nombre de répétitions, on reviendra forcément à un jeu parfaitement trié. En effet, puisque chaque répétition donne une nouvelle permutation des 32 cartes, et qu'il n'existe *que* 32! (=32×31×30×...×1 = 3.2×1035) permutations différentes, on retombera tôt ou tard sur le jeu trié.
Cela signifie qu'il existe des grands nombres d'itérations n pour lesquelles le jeu n'est pas mélangé...

Cependant, un tel mélange par permutation peut facilement se généraliser à des intervalles :

MelangeIntervalles
Permutation DACB, itérée deux fois

On peut se poser la même question : est-ce que cette permutation est mélangeante ?
Si oui, cela signifierait que, après plusieurs itérations, la première moitié (ou n'importe quel sous-ensemble) de l'intervalle contiendrait exactement la même proportion de rouge (et des autres couleurs) que dans l'intervalle initial. Une telle perfection de mélange est impossible à obtenir, mais on peut l'exprimer en terme de limite : la limite de la proportion de rouge dans la première moitié de l'intervalle doit tendre vers la proportion initiale de rouge.
Malheureusement, une permutation mélangeante, ça n'existe pas, et c'est à Anatole Katok que l'on doit se résultat. Mais ce que Avila a montré, avec Giovanni Forni, c'est que la plupart des permutations d'intervalles sont faiblement mélangeantes : elles sont mélangentes à condition d'exclure un "petit" nombre de valeurs de n.

Ce résultat sur les intervalles peut s'appliquer sur les billards de forme quelconque, ce qui fournit de précieux résultats dans l'étude des mouvements des particules en physique statistique.

Le problème des 10 Martinis
Il existe des problèmes mathématiques côtés à un million de dollars (les fameux problèmes du prix du millénaire, comme l'hypothèse de Riemann ou le problème P=NP). Et il y en existe pour qui la récompense est à première vue moindre, comme le problème des dix martinis. Comme son nom l'indique, dix martinis seraient offerts en échange de la résolution du problème ; une proposition du mathématicien Mark Kac (proposer une ou plusieurs boissons alcoolisées en échange de la résolution d'un problème étant l'une des coutumes des mathématiciens de l'école de Lwów, en Pologne). A noter qu'il existe une variante plus "sèche" de ce problème, appelé problème des dix dry martini... Le problème des 10 martinis est donc le suivant :

Montrer que, pour tout λ ≠ 0, et pour tout α irrationnel, le spectre de l'opérateur presque-Mathieu OperateurMathieu
est un ensemble de Cantor

J'ai retranscrit l'énoncé pour la forme, je ne vais pas le détailler davantage. La seule chose qu'il faut dire, c'est que l'opérateur presque-Mathieu décrit l'évolution d'un électron dans un champ magnétique particulier. Il ne fait nul doute que les physiciens apprécient de connaître le spectre d'un tel opérateur. 

Artur Avila, ainsi que Raphaël Krikorian, Svetlana Jitomirskaya et David Damanik ont résolu ce problème des 10 martinis, ainsi que d'autres problèmes issus de la liste des problèmes de Simon, 15 problèmes issus de la théorie des opérateurs de Schrödinger à destination des mathématiciens du XXIe sicèle. L'histoire ne dit pas si ils ont gagné leur dix verres de vermouth.

L'opérateur presque-Mathieu est lié au papillon de Hofstadter, qui, avant d'écrire des livres (Godel, Escher, Bach), s'intéressait à la physique. Cette fractale issue de la physique représente la conductance de Hall (?) en fonction de l'énergie (??) et du flux magnétique (???). Autant dire que je n'ai pas compris exactement ce qu'est le papillon de Hofstadter, mais comme c'est joli, je ne vais pas me priver de le mettre ici pour conclure cet article...

Hofstadter's_butterfly
Le papillon de Hofstadter
Je devrais un jour faire un top 10 des utilisations du papillon en mathématiques...


Sources
The work of Artur Avila
La suite logistique et le chaos, Daniel Perrin
Weak mixing for interval exchange transformations and translation flows, Artur Avila et Giovanni Forni


Et si vous êtes quelqu'un de bien, votez pour moi aux Golden Blog Awards

Posté par El Jj à 10:00 - Commentaires [1] - Permalien [#]
Tags : , , , ,


Fin »