2017年4月29日星期六

Rappel de probabilité (2) : convergence en loi - théorie générale sur l'espace métrique

La théorie de convergence sur l'espace de probabilité est peut-être plus compliquée que  nous avons pensé. Evidemment, on connait la définition de convergence p.s, de convergence en probabilité et de convergence en loi depuis on apprend la probabilité élémentaire - ou peut-être depuis on apprend l'analyse réelle. Mais ils ont des versions avancée. Par exemple, on peut poser des questions suivante:

-Est-ce que on peut parler de convergence en loi sur un espace abstrait ? Ou au moins, la convergence de processus aléatoire.
-Est-ce que la convergence  en loi a totalement rien à voir avec la convergence p.s ?
-Comment généraliser le nuage de Poisson ? 

Personnellement, c'est l'année dernière quand je lisait des articles sur la géométrie aléatoire, j'arrive de trouver que le contexte de ces terminologies est plus large. Heureusement, les géants ont déjà construit une base solide et assez générale pour nous. - Je crois les probabilistes comme Lévy; Meyer et Neveu comprennent les travaux aujourd'hui, même si le modèle est plus varié et sophistiqué.


Convergence en loi sur $\mathbb{R}^d$

La définition de convergence en loi sur $R^d$ est assez connue : 

Définition : (Convergence en loi $\mathbb{R}^d$)
On dit $\mu_n \Rightarrow \mu$ si $\forall f \in \mathcal{C}_c({\mathbb{R}^d})$, $\mu_n(f) \rightarrow \mu(f)$.

Il existe plusieurs caractérisations de cette définition. 
Caractérisation 1 : Par le théorème de Lévy et fonction génératrice.
Caractérisation 2 : Dans $\mathbb{R}$, la fonction de répartition satisfait $F_n(x) \rightarrow F(x)$ pour tous les points de continuité de $F$.
Caractérisation 3 : Dans $\mathbb{R}$, $\forall < \epsilon$, il $\exists A, t.q \sup_{n} \mu_n(\mathbb{R} \backslash [-A,A]) < \epsilon$, alors il existe une sou-suite $\mu_{\phi({n})} \Rightarrow \mu$.


Convergence en loi sur l'espace métrique

Un première question est "est-ce que l'on peut généraliser ces résultats sur un espace plus abstrait ? " Comme on sait comment définir une fonction continuée bornée $ \mathcal{C}_b((E,d),\mathbb{R})$ sur un espace métrique (en fait, un espace T4 suffit), et on rappelle la construction de mesure sur un espace métrique : c'est après la représentation de théorème de Riez et les fonctionnelles de Radon positives, c'est aussi possible de parler la convergence sur un espace abstrait.

La mesure sur celui a beaucoup de régularité $$\begin{eqnarray*}\forall A \in \mathcal{B}(E), \mu(A) &=& \inf \{\mu (O), O \text{ ouvert }, A \subset O\} \\ &=& \sup\{\mu (F), F \text{ fermé }, F \subset A\}\end{eqnarray*}$$
On dit $\mu_n \Rightarrow \mu$ si $\forall f \in \mathcal{C}_c((E,d),\mathbb{R})$, $\mu_n(f) \rightarrow \mu(f)$.

Cette définition est exactement parallèle que celle dans l'espace $\mathbb{R}^d$. On énonce un théorème, assez générale et en fait, on l'utilise aussi dans la démonstration dans les résultats précédents.

Théorème ; (Définition équivalente)
  1. $\mu_n \Rightarrow \mu$.
  2. $\forall O$ ouvert, $\liminf_{n \rightarrow \infty} \mu_n(O) \geq \mu(O)$.
  3. $\forall F$ fermé, $\limsup_{n \rightarrow \infty} \mu_n(F) \leq \mu(F)$.
  4. $\forall A \in \mathcal{B}(E) $ si $\mu(\partial A) = 0$, on a $\lim_{n \rightarrow \infty} \mu_n(A) = \mu(A)$.
  5. $\forall f \text{ p.s } \mu $ bornée, $\lim_{n \rightarrow \infty} \mu_n(f) = \mu(f)$.

Espace polonais et métrisation de $\mathcal{M}_1(E)$

Quand on entre le domaine plus générale, c'est-à-dire le cas de l'espace topologique, on a besoin de travailler sur un espace un peu compliqué mais satisfait quand-même des propriétés similaires que celui dans l'espace $\mathbb{R}^d$. C'est l'espace polonais.
-
Définition : (Espace polonais)
Un espace $(E,d)$ polonais est un espace métrique, séparable et complet.

L'intérêt de cet espace est qu'il donne plus description sur la convergence en loi. En fait, la mesure comme un sous ensemble de fonctionnelle, c'est nature d'étudier la topologie sur cet espace $\mathcal{M}_1(E)$. En plus, le résultat suivant est vraiment important.

Proposition : (Topologie de $\mathcal{M}_1(E)$)
Soit $(E,d)$ un espace polonais,  alors on peut donner une distance sur $\mathcal{M}_1(E)$ tel qu'elle induit la même topologie étroite sur $\mathcal{M}_1(E)$. En plus, on peut réaliser que $\mathcal{M}_1(E)$ est un espace polonais sous cette distance.


C'est miracle. Une fois, on a une distance sur l'espace, les études sur $\mathcal{M}_1(E)$ est plus facile. La démonstration est assez intéressant. Grâce au théorème de Weierstrass-Stone, la fonction uniformément continuée est en fait séparable. Alors, on définit
$$
dist(\mu, \nu) = \sum_{n \geq  1}\frac{1}{2^n}|\mu(g_n) - \nu(g_n)| \wedge 1
$$
Cette distance réalise la même topologie et séparabilité. En revanche, la complétude, en fait, a rien à voir avec la topologie. Il y a des distances qui introduisent la même topologie mais avec différente complétude. La distance propre est plus compliquée qui s'appelle la distance de Lévy-Prokhorov.


Et puis, la convergence en lois de mesure est en effet un type de compacité sur $\mathcal{M}_1(E)$. La notation de tension et le théorème de Prokhorov seront utiles dans cette situation. Finalement, on rappelle le dernier résultat - la représentation de Shorokhod

Théorème de Shorokhod :
Soit $\mu_n \Rightarrow \mu$, alors il existe un espace $(\Omega,  \mathcal{F}, \mathbb{P})$ tel qu'il existe une suite de mesure $\nu_n$ ($\nu$)qui ont la même mesure que $\mu_n$($\mu$) mais $\nu_n \rightarrow  \nu$ p.s .

On sens vraiment, ce théorème va tricher dans quelques démonstrations.

2017年4月22日星期六

Rappel de probabilité (1) : classe monotone et construction de mesure

Il y a toujours des techniques et des points subtiles dans la théorie de probabilité. Dans cet article, on collectionne des petites techniques utilisées suivantes dans la théorie de probabilité, la théorie de mesure et le processus stochastique.

Le premier article est consacré pour la construction de mesure et l'unicité grâce au théorème de classe monotone. En anglais, il s'appelle aussi le lemma de $\pi-$système et $\lambda-$système.

Définition (Classe monotone)
$\mathcal{M} \subset \mathcal{P}(E)$ est dit une classe monotone si et seulement s'il satisfait les propriétés suivantes :

  1. $E \subset \mathcal{M}$
  2. Soit $A,B \in \mathcal{M}, A \subset B$, alors $B \backslash A \in \mathcal{M}$
  3. Soit $A_n \subset A_{n+1} \cdots, A_n \in \mathcal{M}$, alors $\bigcup_n A_n \in \mathcal{M}$ 



Lemma (Classe monotone)

Soit $\mathcal{C} \subset \mathcal{P}(E)$ et $\mathcal{C}$ est stable sous intersections finies, alors $\mathcal{M}(\mathcal{C}) = \sigma(\mathcal{C})$.
PF: On juste liste les idées clés dans la démonstration.

  1. Il suffit de montrer que $\mathcal{M}(\mathcal{C})$ est aussi stable sous intersections finies.
  2. On définit $\mathcal{M}_1(\mathcal{C}) = \{B \in \mathcal{M}(\mathcal{C}) | A \cap B \in \mathcal{M}(\mathcal{C})\}$  pour $A \in  \mathcal{C}$ et vérifie que $\mathcal{M}_1(\mathcal{C})$ est aussi une class monotone. Vu que $\mathcal{M}_1(\mathcal{C}) \subset \mathcal{M}(\mathcal{C})$, on obtient $\mathcal{M}_1(\mathcal{C}) = \mathcal{M}(\mathcal{C})$.
  3. On adapte la même stratégie pour $A \in \mathcal{M}(\mathcal{C})$ et montre que $\mathcal{M}(\mathcal{C})$ est stable sous intersections finies et on conclut. 


Théorème (Unicité de mesure)

Soient $\mu, \nu$ deux mesure sur $(E, \mathcal{A})$ et $\mathcal{C} \subset \mathcal{A}$ stable sous intersections finies et $\sigma(\mathcal{C}) = \mathcal{A}$. Si deux mesures coincident sur $\mathcal{C}$, une condition suivante assure que les deux sont identiques sur $\mathcal{A}$.

  1. $\mu(E) = \nu(E) < \infty$
  2. $\exists E_n \in \mathcal{C}, E_n \in E_{n+1}, E = \bigcup_n E_n, \mu(E_n) = \nu(E_n) < \infty$

PF: La grande ligne est de montrer que l'ensemble $$\mathcal{G} = \{A \in \mathcal{A} | \mu(A) = \nu(A)\}$$
est une classe monotone, qui implique que l'unicité peut s'extender sur $\mathcal{A}$.   La première condition est en fait suffisant pour une mesure de probabilité et le deuxième généralise ce théorème dans le cas mesure infinie approximation d'une suite de mesure finie définie comme $$\mu_n(\cdot) = \mu(\cdot \cap E_n)$$



2017年4月20日星期四

SLE (2) : Property of locality

One of the interest to study $SLE_{\kappa}$ is that it simulates the critical behaviors of a lot of random models such as self-avoiding random walk, the interface of Ising and uniform spanning tree. Here, we give an example of the locality property of $SLE_{6}$ and its connection of Ising model in critical case.

Site Ising model

We first introduce the Ising model. This is so called site Ising model that each site has $\frac{1}{2}$ probability to be black or white. We suppose that the negative axis is black and the positive axis is white and a process starts from $0$ who only expolres the  interface of the two. It has two properties:
  1. Conformal invariance. It is believed that after an conformal mapping, the process follow the same property.
  2. Domain Markov property. When the diameter of lattice goes to $0$, the process should be independent to the one already explored since the trace is determined locally.
One has a third property called locality : that a process in domain has the same law before it goes out of the domain, since also the trace is determined locally.

The conformal invariance and domain Markov implies that its scaling limit should be a $SLE_{\kappa}$.

$SLE_6$ and locality

But why this $SLE_{\kappa}$ should be $SLE_{6}$?

That is required by the property of locality. Generally, we can define the conformal  image of $SLE_{\kappa}$ in domain $D$,  but it doesn't follow the same law as a random process. For example, we define a mapping $$ \phi : D \rightarrow \mathbb{H} $$, then the equation becomes $$\partial_t \tilde{g}_t (z) = \frac{\partial_t hcap}{\partial_t \tilde{g}_t (z) - \tilde{U}_t}$$

Here $\tilde{U}_t$ is not necessarily a standard Brownian motion and $\kappa = 6$ is the case to make it as a real one.

We skip the technique calculus but just talks about its sense. It means that before going out of the boundary, the image $\phi(K_t)$ follows also a $SLE_6$ process. This one implies the property of locality. 


Cardy formula

The most interesting story about the $SLE_6$ is its behavior one equilateral triangle. We first calculate one probability of $SLE_6$ on $\mathbb{H}$ : $\mathbb{P}(\tau_{-y} < \tau_{1}) = F(\frac{y}{1+y}) $ where $$F(z) = c^{-1}\int_0^z \frac{1}{u^{\frac{2}{3}} (1-u)^{\frac{2}{3}}} du$$
which coincides with  the Schwartz-Christoffel formula in complex analysis and satisfies $$F(1+y) = 1 + e^{2\pi i / 3} F(\frac{y}{1+y})$$ which  sends $0, 1, \infty$ to $0, 1, e^{\pi i /3}$ respectively.

We construct an other conformal mapping $\Phi : \mathbb{H} \rightarrow \triangle$ which sends $0, 1, -y$ to $0, 1, e^{\pi i /3}$ respectively. We  can show in this case, $\Phi(\infty) = F(1+y)$. So we get the property that $$\mathbb{P}(\tau_{-y} < \tau_{1}) = \frac{|\Phi(\infty) \Phi(1)|}{|\Phi(-y) \Phi(1)|}$$ 

Using the locality of $SLE_{6}$, this interprets that a $SLE_{6}$ from $0$ to $\Phi(\infty)$ in $\triangle$, the first time to hit each side just has the probability of the length. A similar argument shows that the same process from $0$ to $1$ has the  uniform distribution for the first hit. 

More generally, two $SLE_{6}$ in the same triangle, one from $0$ to $1$ and another from $0$ to $e^{\pi i/3}$, share the same law before until the first hit one the opposite side. 

2017年4月17日星期一

Hard sphere model (1) : Introduction

The hard sphere model starts from the very basic assumption of classical mechanics and attempts to prove the convergence from microscopic model to macroscopic model.

Notation and basic assumption

We starts from $N$ particles following the rules of classical mechanics and each one can be designed $z_i = (x_i, v_i) \in \mathbb{T}^d \times \mathbb{R}^d, i = 1, 2, 3, \cdots N$. After one collision, the change of speed is expressed as
$$
\begin{eqnarray*}
v' &=& v - ((v - v_1)  \cdot r) r \\
v'_1 &=& v_1 - ((v_1 - v) \cdot  r) r
\end{eqnarray*}
$$

The mechanics can be reversed once we change the direction of time and speed, in another word, this system is reversible. To avoid the  abuse of notation, we always define the evolution of system in a suitable subset of all configuration like
$$
D^N_{\epsilon} = \{(z_1, z_2, \cdots z_N), \forall i \neq j, |x_i - x_j| < \epsilon \}
$$
We define the density of the configuration in a produit probability space on $\mathbb{T}^d \times \mathbb{R}^d$. Some analysis can deduce that : We can define all the configuration on the probability space except a null set.

M_{\beta}^{\otimes N}(V_N)

Boltzmann-Grad scaling and Boltzmann equation

For a single particle, its density has an invariant law following the Liouville equation $$ \partial_t f(t,x) + v \cdot \partial_x f(t,x) = 0 $$ 

We generalize this equation to $N$ hard sphere model, then the Liouville equation is 

$$ \partial_t f_N(t,Z_N) + \sum_{i = 1}^N v_i \cdot \partial_{x_i} f_N(t,Z_N) = 0 $$ 

Since we would like to study the particle chaotic phenomena, a nature idea is to calculate its invariant measure - we know the limit measure is always the invariant measure. In this case, the invariant measure is called Boltzmann measure which is 

$$M_{N, \beta} = \frac{1}{\mathcal{Z}_N} \mathbb{1}_{D^{N}_{\epsilon}}(Z_N) M_{\beta}^{\otimes N}(V_N)$$ 

this one is not exactly a Maxwell-Boltzmann distribution in cause of the exclusion condition. But some detailed analysis tells us that we can do "almost" factorization of the measure to the product of the probability.  

$$|(M_{N, \beta}^{(s)} - M_{\beta}^{\otimes s}) \mathbb{1}_{D^s_{\epsilon}}| \leq C^s \rho M_{\beta}^{\otimes s}$$

In the further blog, we will study the convergence in different context precisely. We will show that, the distribution is very near to the distribution of the solution of linear Boltzmann equation $\partial_t f + v \cdot \nabla_x f = \alpha Q(f,f)$.

Entropy paradox

Entropy introduced by Shannon and Boltzmann is a genius idea to describe the disorder degree as $H(t) = \int_{D^N_{\epsilon}}  - f_N(t, Z_N) \log{f(t,Z_N)} dZ_N$. According to this definition, the entropy of the solution of hard sphere model is constant, but that of the solution of Boltzmann equation will increase. 

In our course, we list two models to explain this paradox. The two baby model like Kac ring model and Ehrenfest model are all reversible, so they have a period or Poincare recurrence result. However, the time to appear the chaos is faster than the period. That is also the case in hard sphere model : we will see the recurrence perhaps, but it takes long long long time and during this time, the chaos repeat again and again. So how do you regard it? A deterministic system or a random system? You got the answer.

2017年4月3日星期一

Gumbel distribution

A very short note for the Gumbel distribution.

$X_i$ i.i.d and have distribution of $\mathcal{Exp}(1)$, then $$\max_{1 \leq i \leq n}X_i - \log{n} \xrightarrow{(d)} G$$
where G represents a Gumbel distribution.

The proof is easy. We just calculate the distribution of this random variable
$$
\mathbb{P}[\max_{1 \leq i \leq n}X_i - \log{n} < y] = \mathbb{P}[\max_{1 \leq i \leq n}X_i  < y + \log{n}] = (1 - e^{- (\log{n} + y)})^n \rightarrow e^{-e^{-y}}
$$
So we conclude the convergence in distribution.

2017年4月2日星期日

Percolation (1) : 2D Bernoulli percolation, critical point and transition of phase

Recently I attend the seminar talking about the percolation theory in IHES so I wrote some notes here.

Before starting, we have to notice that the terminology of percolation is adopted in different situations and generally in the contexts of graphs - it could be various graphs - like lattice $Z^d$, random graphs, random maps etc. But the phenomena is a little universal that a path starts from $0$ and goes to infinite faraway. In this series of talk, Hugo focuses on the situation of 2D Bernoulli percolation.

Definition and critical point

We give some definitions precisely. In the lattice graph $Z^2$, each site has 4 neighbors and every edge has independently a probability $p$ to be present (open) or a probability $1-p$ to be absent (closed). Then there exits a critical point $p_c$ : when $p \leq p_c$, with probability $0$ there exists a path from 0 to $\infty$, while when $p > p_c$, with probability $\theta(p)$ there exists a path from $0$ to $\infty$.

$$
\begin{eqnarray*}
p \leq p_c &,& \theta(p) = \mathbb{P}[0 \leftrightarrow \infty] = 0 \\
p > p_c &,& \theta(p) = \mathbb{P}[0 \leftrightarrow \infty] > 0
\end{eqnarray*}
$$

In 2D model, the critical point $p_c = 1/2$. Some simple argument supports this point. For example, if we draw the dual percolation between the face whose frontier is closed, we get a dual graph with probability $1-p$. If we suppose that the critical point is unique, then the transition of face happens at the same time in both the primal graph and the dual graph. So $p_c = 1- p_c$ and $p_c = 1/2$.


Quantitative analysis 

We hope to get some stronger result, The following theorem is first obtained by Menshikov, Aizeman and Michael $$\begin{eqnarray*}\forall p < p_c, \exists C_p > 0 \text{ s.t } \mathbb{P}_p[ 0 \leftrightarrow \partial B_n] \leq \exp{(-C_p n)}\\ \forall p > p_c, \exists C > 0 \text{ s.t } \mathbb{P}_p[0 \leftrightarrow \infty] \geq C(p - p_c) \end{eqnarray*}$$

Here, we denote the ball of radius $n$ by $\partial B_n$ and this theorem indeed, gives some numerical estimation of the speed of decrements. 

Proof 1 by (Menshikov, Aizeman, Michael) 

We note $\theta_n(p) = \mathbb{P}_p [0 \leftrightarrow \partial B_n]$ and $$\phi_p (S) = \sum_{x \in S, y \notin S, x \sim y} p\mathbb{P}[0 \leftrightarrow^S x]$$. We can prove it by 5 steps.

  1.  We admit at first this important inequality$$ \frac{d}{dp} \theta_n(p) \geq \frac{1}{p(1-p)}[\inf_{0 \in S \subset B_n} \phi_p(S)](1 - \theta_n(p))$$
    then we define $$\tilde{p}_c = \sup \{p : \exists S \ni 0, \text{s.t} \phi_p(S) < 1\}$$
    we can prove $$\theta(P) \geq \frac{1}{p(1-\tilde{p}_c)}(p - \tilde{p}_c)$$
  2.  We choose $S \subset B_{k-1}$ such that $\phi_p (S) < 1$ and prove$$\theta_{nk}(p) \leq (\phi_p(S))^n$$
  3. We conclude that $\tilde{p}_c = p_c$
  4. Verify the identity $$\frac{d}{dp}\mathbb{P}_p(X) = \sum_{e \in E} \frac{1}{p(1-p)}Cov(w_e, X)$$
  5. We put $X = -\mathbb{I}_{0 ! \leftrightarrow \partial B_n}$ and we prove the important inequality.