Processing math: 100%

2017年4月29日星期六

Rappel de probabilité (2) : convergence en loi - théorie générale sur l'espace métrique

La théorie de convergence sur l'espace de probabilité est peut-être plus compliquée que  nous avons pensé. Evidemment, on connait la définition de convergence p.s, de convergence en probabilité et de convergence en loi depuis on apprend la probabilité élémentaire - ou peut-être depuis on apprend l'analyse réelle. Mais ils ont des versions avancée. Par exemple, on peut poser des questions suivante:

-Est-ce que on peut parler de convergence en loi sur un espace abstrait ? Ou au moins, la convergence de processus aléatoire.
-Est-ce que la convergence  en loi a totalement rien à voir avec la convergence p.s ?
-Comment généraliser le nuage de Poisson ? 

Personnellement, c'est l'année dernière quand je lisait des articles sur la géométrie aléatoire, j'arrive de trouver que le contexte de ces terminologies est plus large. Heureusement, les géants ont déjà construit une base solide et assez générale pour nous. - Je crois les probabilistes comme Lévy; Meyer et Neveu comprennent les travaux aujourd'hui, même si le modèle est plus varié et sophistiqué.


Convergence en loi sur Rd

La définition de convergence en loi sur Rd est assez connue : 

Définition : (Convergence en loi Rd)
On dit μnμ si fCc(Rd), μn(f)μ(f).

Il existe plusieurs caractérisations de cette définition. 
Caractérisation 1 : Par le théorème de Lévy et fonction génératrice.
Caractérisation 2 : Dans R, la fonction de répartition satisfait Fn(x)F(x) pour tous les points de continuité de F.
Caractérisation 3 : Dans R, <ϵ, il A,t.qsupnμn(R[A,A])<ϵ, alors il existe une sou-suite μϕ(n)μ.


Convergence en loi sur l'espace métrique

Un première question est "est-ce que l'on peut généraliser ces résultats sur un espace plus abstrait ? " Comme on sait comment définir une fonction continuée bornée Cb((E,d),R) sur un espace métrique (en fait, un espace T4 suffit), et on rappelle la construction de mesure sur un espace métrique : c'est après la représentation de théorème de Riez et les fonctionnelles de Radon positives, c'est aussi possible de parler la convergence sur un espace abstrait.

La mesure sur celui a beaucoup de régularité AB(E),μ(A)=inf{μ(O),O ouvert ,AO}=sup{μ(F),F fermé ,FA}
On dit μnμ si fCc((E,d),R), μn(f)μ(f).

Cette définition est exactement parallèle que celle dans l'espace Rd. On énonce un théorème, assez générale et en fait, on l'utilise aussi dans la démonstration dans les résultats précédents.

Théorème ; (Définition équivalente)
  1. μnμ.
  2. O ouvert, lim infnμn(O)μ(O).
  3. F fermé, lim supnμn(F)μ(F).
  4. AB(E) si μ(A)=0, on a limnμn(A)=μ(A).
  5. f p.s μ bornée, limnμn(f)=μ(f).

Espace polonais et métrisation de M1(E)

Quand on entre le domaine plus générale, c'est-à-dire le cas de l'espace topologique, on a besoin de travailler sur un espace un peu compliqué mais satisfait quand-même des propriétés similaires que celui dans l'espace Rd. C'est l'espace polonais.
-
Définition : (Espace polonais)
Un espace (E,d) polonais est un espace métrique, séparable et complet.

L'intérêt de cet espace est qu'il donne plus description sur la convergence en loi. En fait, la mesure comme un sous ensemble de fonctionnelle, c'est nature d'étudier la topologie sur cet espace M1(E). En plus, le résultat suivant est vraiment important.

Proposition : (Topologie de M1(E))
Soit (E,d) un espace polonais,  alors on peut donner une distance sur M1(E) tel qu'elle induit la même topologie étroite sur M1(E). En plus, on peut réaliser que M1(E) est un espace polonais sous cette distance.


C'est miracle. Une fois, on a une distance sur l'espace, les études sur M1(E) est plus facile. La démonstration est assez intéressant. Grâce au théorème de Weierstrass-Stone, la fonction uniformément continuée est en fait séparable. Alors, on définit
dist(μ,ν)=n112n|μ(gn)ν(gn)|1
Cette distance réalise la même topologie et séparabilité. En revanche, la complétude, en fait, a rien à voir avec la topologie. Il y a des distances qui introduisent la même topologie mais avec différente complétude. La distance propre est plus compliquée qui s'appelle la distance de Lévy-Prokhorov.


Et puis, la convergence en lois de mesure est en effet un type de compacité sur M1(E). La notation de tension et le théorème de Prokhorov seront utiles dans cette situation. Finalement, on rappelle le dernier résultat - la représentation de Shorokhod

Théorème de Shorokhod :
Soit μnμ, alors il existe un espace (Ω,F,P) tel qu'il existe une suite de mesure νn (ν)qui ont la même mesure que μn(μ) mais νnν p.s .

On sens vraiment, ce théorème va tricher dans quelques démonstrations.

2017年4月22日星期六

Rappel de probabilité (1) : classe monotone et construction de mesure

Il y a toujours des techniques et des points subtiles dans la théorie de probabilité. Dans cet article, on collectionne des petites techniques utilisées suivantes dans la théorie de probabilité, la théorie de mesure et le processus stochastique.

Le premier article est consacré pour la construction de mesure et l'unicité grâce au théorème de classe monotone. En anglais, il s'appelle aussi le lemma de πsystème et λsystème.

Définition (Classe monotone)
MP(E) est dit une classe monotone si et seulement s'il satisfait les propriétés suivantes :

  1. EM
  2. Soit A,BM,AB, alors BAM
  3. Soit AnAn+1,AnM, alors nAnM 



Lemma (Classe monotone)

Soit CP(E) et C est stable sous intersections finies, alors M(C)=σ(C).
PF: On juste liste les idées clés dans la démonstration.

  1. Il suffit de montrer que M(C) est aussi stable sous intersections finies.
  2. On définit M1(C)={BM(C)|ABM(C)}  pour AC et vérifie que M1(C) est aussi une class monotone. Vu que M1(C)M(C), on obtient M1(C)=M(C).
  3. On adapte la même stratégie pour AM(C) et montre que M(C) est stable sous intersections finies et on conclut. 


Théorème (Unicité de mesure)

Soient μ,ν deux mesure sur (E,A) et CA stable sous intersections finies et σ(C)=A. Si deux mesures coincident sur C, une condition suivante assure que les deux sont identiques sur A.

  1. μ(E)=ν(E)<
  2. EnC,EnEn+1,E=nEn,μ(En)=ν(En)<

PF: La grande ligne est de montrer que l'ensemble G={AA|μ(A)=ν(A)}
est une classe monotone, qui implique que l'unicité peut s'extender sur A.   La première condition est en fait suffisant pour une mesure de probabilité et le deuxième généralise ce théorème dans le cas mesure infinie approximation d'une suite de mesure finie définie comme μn()=μ(En)



2017年4月20日星期四

SLE (2) : Property of locality

One of the interest to study SLEκ is that it simulates the critical behaviors of a lot of random models such as self-avoiding random walk, the interface of Ising and uniform spanning tree. Here, we give an example of the locality property of SLE6 and its connection of Ising model in critical case.

Site Ising model

We first introduce the Ising model. This is so called site Ising model that each site has 12 probability to be black or white. We suppose that the negative axis is black and the positive axis is white and a process starts from 0 who only expolres the  interface of the two. It has two properties:
  1. Conformal invariance. It is believed that after an conformal mapping, the process follow the same property.
  2. Domain Markov property. When the diameter of lattice goes to 0, the process should be independent to the one already explored since the trace is determined locally.
One has a third property called locality : that a process in domain has the same law before it goes out of the domain, since also the trace is determined locally.

The conformal invariance and domain Markov implies that its scaling limit should be a SLEκ.

SLE6 and locality

But why this SLEκ should be SLE6?

That is required by the property of locality. Generally, we can define the conformal  image of SLEκ in domain D,  but it doesn't follow the same law as a random process. For example, we define a mapping ϕ:DH, then the equation becomes t˜gt(z)=thcapt˜gt(z)˜Ut

Here ˜Ut is not necessarily a standard Brownian motion and κ=6 is the case to make it as a real one.

We skip the technique calculus but just talks about its sense. It means that before going out of the boundary, the image ϕ(Kt) follows also a SLE6 process. This one implies the property of locality. 


Cardy formula

The most interesting story about the SLE6 is its behavior one equilateral triangle. We first calculate one probability of SLE6 on H : P(τy<τ1)=F(y1+y) where F(z)=c1z01u23(1u)23du
which coincides with  the Schwartz-Christoffel formula in complex analysis and satisfies F(1+y)=1+e2πi/3F(y1+y) which  sends 0,1, to 0,1,eπi/3 respectively.

We construct an other conformal mapping Φ:H which sends 0,1,y to 0,1,eπi/3 respectively. We  can show in this case, Φ()=F(1+y). So we get the property that P(τy<τ1)=|Φ()Φ(1)||Φ(y)Φ(1)| 

Using the locality of SLE6, this interprets that a SLE6 from 0 to Φ() in , the first time to hit each side just has the probability of the length. A similar argument shows that the same process from 0 to 1 has the  uniform distribution for the first hit. 

More generally, two SLE6 in the same triangle, one from 0 to 1 and another from 0 to eπi/3, share the same law before until the first hit one the opposite side. 

2017年4月17日星期一

Hard sphere model (1) : Introduction

The hard sphere model starts from the very basic assumption of classical mechanics and attempts to prove the convergence from microscopic model to macroscopic model.

Notation and basic assumption

We starts from N particles following the rules of classical mechanics and each one can be designed zi=(xi,vi)Td×Rd,i=1,2,3,N. After one collision, the change of speed is expressed as
v=v((vv1)r)rv1=v1((v1v)r)r

The mechanics can be reversed once we change the direction of time and speed, in another word, this system is reversible. To avoid the  abuse of notation, we always define the evolution of system in a suitable subset of all configuration like
DNϵ={(z1,z2,zN),ij,|xixj|<ϵ}
We define the density of the configuration in a produit probability space on Td×Rd. Some analysis can deduce that : We can define all the configuration on the probability space except a null set.

M_{\beta}^{\otimes N}(V_N)

Boltzmann-Grad scaling and Boltzmann equation

For a single particle, its density has an invariant law following the Liouville equation tf(t,x)+vxf(t,x)=0 

We generalize this equation to N hard sphere model, then the Liouville equation is 

tfN(t,ZN)+Ni=1vixifN(t,ZN)=0 

Since we would like to study the particle chaotic phenomena, a nature idea is to calculate its invariant measure - we know the limit measure is always the invariant measure. In this case, the invariant measure is called Boltzmann measure which is 

MN,β=1ZN1DNϵ(ZN)MNβ(VN) 

this one is not exactly a Maxwell-Boltzmann distribution in cause of the exclusion condition. But some detailed analysis tells us that we can do "almost" factorization of the measure to the product of the probability.  

|(M(s)N,βMsβ)1Dsϵ|CsρMsβ

In the further blog, we will study the convergence in different context precisely. We will show that, the distribution is very near to the distribution of the solution of linear Boltzmann equation tf+vxf=αQ(f,f).

Entropy paradox

Entropy introduced by Shannon and Boltzmann is a genius idea to describe the disorder degree as H(t)=DNϵfN(t,ZN)logf(t,ZN)dZN. According to this definition, the entropy of the solution of hard sphere model is constant, but that of the solution of Boltzmann equation will increase. 

In our course, we list two models to explain this paradox. The two baby model like Kac ring model and Ehrenfest model are all reversible, so they have a period or Poincare recurrence result. However, the time to appear the chaos is faster than the period. That is also the case in hard sphere model : we will see the recurrence perhaps, but it takes long long long time and during this time, the chaos repeat again and again. So how do you regard it? A deterministic system or a random system? You got the answer.

2017年4月3日星期一

Gumbel distribution

A very short note for the Gumbel distribution.

Xi i.i.d and have distribution of Exp(1), then max1inXilogn(d)G
where G represents a Gumbel distribution.

The proof is easy. We just calculate the distribution of this random variable
P[max1inXilogn<y]=P[max1inXi<y+logn]=(1e(logn+y))neey
So we conclude the convergence in distribution.

2017年4月2日星期日

Percolation (1) : 2D Bernoulli percolation, critical point and transition of phase

Recently I attend the seminar talking about the percolation theory in IHES so I wrote some notes here.

Before starting, we have to notice that the terminology of percolation is adopted in different situations and generally in the contexts of graphs - it could be various graphs - like lattice Zd, random graphs, random maps etc. But the phenomena is a little universal that a path starts from 0 and goes to infinite faraway. In this series of talk, Hugo focuses on the situation of 2D Bernoulli percolation.

Definition and critical point

We give some definitions precisely. In the lattice graph Z2, each site has 4 neighbors and every edge has independently a probability p to be present (open) or a probability 1p to be absent (closed). Then there exits a critical point pc : when ppc, with probability 0 there exists a path from 0 to , while when p>pc, with probability θ(p) there exists a path from 0 to .

ppc,θ(p)=P[0]=0p>pc,θ(p)=P[0]>0

In 2D model, the critical point pc=1/2. Some simple argument supports this point. For example, if we draw the dual percolation between the face whose frontier is closed, we get a dual graph with probability 1p. If we suppose that the critical point is unique, then the transition of face happens at the same time in both the primal graph and the dual graph. So pc=1pc and pc=1/2.


Quantitative analysis 

We hope to get some stronger result, The following theorem is first obtained by Menshikov, Aizeman and Michael p<pc,Cp>0 s.t Pp[0Bn]exp(Cpn)p>pc,C>0 s.t Pp[0]C(ppc)

Here, we denote the ball of radius n by Bn and this theorem indeed, gives some numerical estimation of the speed of decrements. 

Proof 1 by (Menshikov, Aizeman, Michael) 

We note θn(p)=Pp[0Bn] and ϕp(S)=xS,yS,xypP[0Sx]. We can prove it by 5 steps.

  1.  We admit at first this important inequalityddpθn(p)1p(1p)[inf0SBnϕp(S)](1θn(p))
    then we define ˜pc=sup{p:S0,s.tϕp(S)<1}
    we can prove θ(P)1p(1˜pc)(p˜pc)
  2.  We choose SBk1 such that ϕp(S)<1 and proveθnk(p)(ϕp(S))n
  3. We conclude that ˜pc=pc
  4. Verify the identity ddpPp(X)=eE1p(1p)Cov(we,X)
  5. We put X=I0!Bn and we prove the important inequality.