Uma resposta expansiva

Rookie

Em algum momento do ano passado, recebi um email extremamente curioso. Um amigo de infância, que não via havia quase oito anos, mandou-me uma mensagem perguntando como eu estava, o que fazia, disse que havia terminado sua faculdade e, com a devida introdução, perguntou-me se o universo estava se expandindo ou se contraindo. Fascinado com a pergunta, por ser uma das mais interessantes da cosmologia, teci uma resposta, que reproduzo no post de hoje.

“Você me fez uma pergunta difícil, não espere uma resposta simples. Também não espere uma aula ou livro texto, essa não é minha especialidade e eu vou escrever as coisas divertidas que sei de cabeça sobre esse assunto. Você me perguntou um tema polêmico de astrofísica, e deu sorte, porque ele nem é tão especulativo assim. Há muita viagem sobre muita coisa na astrofísica e na cosmologia, essa não é uma dos piores, é, inclusive, uma das mais legais. E para você entender o que vou tentar explicar, preciso te contar um pouco sobre alguns assuntos necessários para entender o debate na física sobre a teoria do multiverso, big crunch, entre outras.

A astrofísica e a cosmologia têm uma grande questão em debate: a curvatura do espaço-tempo. Esse tema é menos viagem do que parece, é um termo matemático bem preciso e pode ser medido na nossa realidade. Vou dar um exemplo do que estou falando. Imagine-se uma formiga vivendo na terra. Você é muito pequeno, não tem a menor noção do que é a dimensão “altura”, para você existe apenas norte, sul, leste e oeste. Nesse seu universo, toda a geometria que você aprendeu no colégio funciona: duas paralelas não se encontram, a soma dos ângulos de um triângulo é sempre 180°, o quadrado da hipotenusa é a soma dos quadrados dos catetos, tudo funciona direitinho. Mas um dia, você estando no equador, decide viajar ao polo norte. Você vai, alcança-o e, lá chegando, decide virar 90°. Você desce e, em um momento, chega ao equador novamente. Nele, decide virar novamente 90°, seguindo a linha até atingir seu ponto inicial. Suponha que você tenha feito isso com um lápis nos pés, desenhando uma linha conforme andava. Você virou duas vezes e atingiu seu ponto de partida, isso implica que você, com o lápis, desenhou uma figura de três lados: um triângulo. No entanto, você nota que seu ângulo de chegada é de 90°, e você fez duas outras curvas de 90°, ora, a soma dos ângulos internos desse triângulo é de 270°! Coloquei uma figura para facilitar sua vida nessa viagem pelo planeta com o lápis.

O que há de errado, afinal? Estaria sua geometria errada? Não, a geometria que você conhece funciona muito bem para suas duas dimensões planas, mas você começa a notar os efeitos de o que chamamos de distorção na geometria. Note que não estamos falando da terceira dimensão, porque a formiga nem consegue imaginar o que é isso e ainda assim consegue medir os efeitos da distorção da sua geometria. Ela não mora em um plano, mas em um espaço que possui o que definimos, na matemática, como curvatura positiva. Uma curvatura negativa seria se ela morasse em um grande vale, nesse caso seus triângulos teriam a soma dos ângulos internos menor que 180°.

A física descobriu que esse pensamento todo não é uma frescura matemática. A presença de um corpo de grande massa, como uma estrela, é capaz de alterar a curvatura do espaço a sua volta, a presença de matéria afeta o espaço e até a maneira como o tempo passa a sua volta, é bem impressionante e matematicamente preciso, podemos calcular com exatidão o quanto o espaço é curvo e o quanto os relógios passam mais devagar perto de um corpo de grande massa. Na verdade, se o que queremos é precisão, até a massa da terra afeta os relógios. Não por menos, o GPS precisa fazer correções pela distorção do espaço tempo pela massa da terra para manter uma precisão razoável, sem elas ele erraria cinco metros a cada segundo.

E nós podemos pensar no que é chamada de curvatura global do universo. Já descobrimos que o universo está se expandindo, ou seja, que as galáxias estão se afastando mais e mais umas das outras. Sabemos também que essa expansão é acelerada, conseguimos até dizer o quanto (ainda que seja um mistério o que está causando essa aceleração). No entanto, não sabemos se essa aceleração está aumentando ou diminuindo, se o universo vai se expandir indefinidamente ou se a aceleração está diminuindo para dar espaço a uma contração que faria o universo voltar pouco a pouco ao que era antes, colapsando em um inverso do Big Bang. O que poderia nos dizer isso? A curvatura do espaço.

Há uma relação íntima entre a taxa de aceleração do universo e essa curvatura dele. Se descobríssemos se a curvatura é positiva ou negativa, saberíamos o futuro do universo; pois o mesmo mecanismo que causa a expansão do universo causa sua curvatura e, medindo um, poderíamos pedir o outro. O problema é que não conseguimos medir isso com exatidão. Aliás, até conseguimos, mas o valor que obtemos para a curvatura não é conclusivo. Há um parâmetro chamado $\Omega$ que, se maior que 1, teríamos um universo de curvatura positiva, se menor que 1, teríamos um de curvatura negativa. O valor que medimos atualmente (da última vez que vi esse valor, deve ter mudado agora) é $\Omega = 1,0002\pm 0,0003$, ou seja, tanto um valor maior que 1 quanto um valor menor que 1 estão dentro do erro experimental da medida. Não conseguimos decidir, e isso nos incomoda bastante!

Coloquei um gráfico que parece difícil, mas não é. Ele mostra como seria o destino dos possíveis universos segundo a curvatura deles. Note que quando a curvatura é positiva, o $\Omega$ é maior que 1, então a distância entre as galáxias, depois de um tempo, começaria a diminuir e, invariavelmente, tudo voltaria ao ponto central do Big Bang. Se a curvatura é positiva, a expansão seria indefinidamente acelerada.

E se $\Omega = 1$? Para entender o motivo de isso não ser tão razoável, precisamos entender o que é esse valor. Não apenas ele mede a curvatura do espaço, ele é também um indicador da densidade do espaço. Existe um valor, chamado densidade crítica, que define o comportamento do futuro do universo: se nosso universo é mais denso que essa densidade crítica, então $ \Omega >1$, se é menos, $\Omega <1$. Ora, dizer que é exatamente igual a 1 é dizer que a densidade do universo é ajustada como que por mágica para ser exatamente essa densidade crítica, isso não é razoável.

E sabemos que, por mais perto de 1 que esse $\Omega$ esteja, se ele for maior que 1, no longo prazo isso levaria a uma desaceleração da expansão e a uma contração. Ainda, por outras evidências, a melhor hipótese é a da expansão ilimitada.

Então, como resposta, tenho isso: não sabemos completamente. Inferimos, medidos e ficamos maravilhados com essa relação entre geometria, futuro e densidade do universo, mas ainda não podemos determinar com exatidão seu futuro. E essa é nossa missão como físicos: descobrir o destino último do universo, tendo apenas um planeta, nossos sentidos e nossa razão.”

Aniversários

Rookie

Hoje é meu aniversário, celebro vinte e quatro anos de vida. E essa data, além de me fazer sentir especial, costuma me lembrar de um problema fascinante de combinatória, que levou a um igualmente interessante estudo econômico. Como não achei referência ao estudo, nem lembro onde o li, repeti-o eu mesmo, na medida do possível. O problema é conhecido como paradoxo do aniversário, que de paradoxal não tem nada.

A pergunta é: quantas pessoas eu preciso colocar em uma sala para que a chance de haver naquela sala pessoas com o aniversário repetido seja maior que a chance de não haver pessoas com o aniversário repetido? Formulado de outra maneira, eu tenho $N$ pessoas em uma sala e uma probabilidade $P(N)$ de que essas pessoas possuam aniversário repetidos, qual o primeiro valor de $N$ para o qual $P(N)>0,5$?

E a resposta é um número surpreendentemente baixo: 23. A partir desse valor de pessoas, é mais provável encontrar pessoas com aniversários repetidos que não encontrar, a probabilidade de que duas pessoas tenham nascido no mesmo dia do ano passa a 50,7% para esse valor de $N$. A razão do número ser pequeno é o grande crescimento da função fatorial, usada para calcular o número de combinações possíveis para a comparação de cada par de pessoas. Ou seja, apesar de haver muitos dias no ano, o número de comparações possíveis entre o aniversário de 23 pessoas é suficientemente grande para tornar essa probabilidade maior que 50%.

Interessados nesse resultado, podemos testar os aniversários de partidas de futebol. Sendo 11 para cada lado e o juiz, teremos 23 pessoas a cada partida, e podemos comparar um número grande de partidas para perceber que há mais partidas com aniversários repetidos que partidas sem aniversários repetidos.

No entanto, o resultado não será o que esperamos. De fato, há muitas partidas com aniversários repetidos, mas um número muito maior que o esperado! As partidas com aniversários repetidos ocorrem em número muito maior que as que não possuem aniversários em comum, quando a diferença não deveria estar muito longe de 51% contra 49%. Esse fato foi-me apresentado há algum tempo, foi-me até dito que um estudo foi feito, jamais achei o estudo, fi-lo eu mesmo com a ajuda da Wikipédia e sua excelente página da escalação de cada seleção de futebol.

Pus-me a anotar os meses de nascimento dos jogadores de futebol das seguintes seleções: Brasil, Paraguai, Chile e Argentina. Tomei a escalação mais atual possível, para não haver privilégio de uma época ou outra. A razão de pegar apenas países do hemisfério sul ficará clara com os resultados.

Enquanto o Paraguai não apresenta uma distribuição de nascimento de seus jogadores ao decorrer do ano que chame a atenção, Brasil, Chile e Argentina impressionaram-me e comprovaram, em termos nada rigorosos, a teoria que eu havia ouvido a respeito do estudo. Organizei um histograma em três camadas, as barras menores são os nascimentos no mês, as intermediárias representam nascimentos em um trimestre e as grandes são os nascimentos no semestre. O resultado do Paraguai, analisados 83 jogares, foi:

Nada impressionante até aqui, os aniversários parecem razoavelmente bem distribuídos em todos os níveis e não consigo perceber uma tendência evidente. No entanto, a distribuição do Brasil já começa a apresentar um fenômeno interessante:

Temos na seleção brasileira, analisados os 69 últimos convocados de Mano Menezes, uma concentração clara de nascimentos no primeiro semestre, em especial uma forte ausência de nascidos no último trimestre do ano. Claro, isso pode ser uma improbabilidade realizada, não um indício de variável escondida. Se analisarmos com cuidado, podemos calcular a probabilidade de, jogando aniversários aleatoriamente no ano, ter essa diferença entre o primeiro e o segundo semestre; é improvável, mas nem de longe impossível.

No entanto, os resultados do Chile, analisados 77 jogadores, revelaram-se:

E essa diferença entre primeiro e segundo semestre já não pode mais ser explicada como uma anomalia estatística, há algo estranho nesse país que faz jogadores de futebol nascerem no começo do ano e não no final. Para confirmar a teoria, podemos avançar no estudo da seleção Argentina, analisando 92 jogadores:

Esse gráfico não pode, de maneira alguma, ser justificado como coincidência. A albiceleste possui o dobro de jogadores nascidos no primeiro semestre em relação ao segundo semestre. Entrementes, notamos que em todas as seleções dezembro é sistematicamente o pior mês, ou o segundo pior, no caso do Chile.

Podemos nos divertir calculando a probabilidade de obter uma configuração como a da Argentina se os aniversários fossem distribuídos de maneira uniforme no ano. Temos 92 jogadores e queremos saber a chance de, distribuindo aleatoriamente no ano, ter uma diferença de 30 nascimentos entre os dois semestres, sendo o primeiro semestre o favorecido. Calculando com cuidado, essa probabilidade não passa do valor 0,08%, extremamente baixa, ela precisa de uma explicação.

Antes que os astrólogos saiam em defesa de alguma correlação entre estrelas e seres humanos, comento a conclusão a que chegaram os estatísticos. Essa predominância de nascimentos em um semestre não ocorre em países europeus, curiosamente, analisei França e Inglaterra e os resultados não são nada impressionantes. Esses três países do sul, Brasil, Argentina e Chile, apresentam sistematicamente jogadores nascidos em um semestre, e a razão disso, muito provavelmente, é o ano letivo.

No mesmo argumento que usou Malcolm Gladwell em seu livro Outliers para explicar jogadores de hóquei, nesses países, as escolas de futebol organizam os alunos de acordo com o ano letivo, e os jogadores profissionais enfrentam peneiras desde cedo para seguir na carreira. Os nascidos no começo do ano são, por isso, os mais velhos de suas turmas e, ao enfrentam peneiras desde crianças, são também os mais fortes e mais rápidos. Os nascidos no primeiro trimestre são quase um ano mais velhos que os nascidos no último, e são selecionados em uma idade em que um ano é muito para o desenvolvimento corporal. Esse resultado é ausente nos times europeus porque as escolas de futebol não seguem um ano específico, algumas tomam o escolar como base e outras o ano de nascimento, não havendo consenso, há equilíbrio na distribuição.

Falta, claro, explicar o caso do Paraguai. Tendo em vista os outros países, o mais natural é supor, ou que o Paraguai é a anomalia estatística, ou que o sistema de escola de futebol e peneira desde muito cedo não é tão rigoroso no Paraguai.

Tudo o que eu acabo de fazer, aviso, consiste em estatística de péssima qualidade. Eu precisaria tomar vergonha na cara, analisar mais jogadores de mais times, informar-me sobre o sistema de avaliação do Paraguai e não me ater a essa tese com muito afinco, ela pode muito bem estar furada. Contudo, os 0,08% chamam a atenção, e confirmam que o estudo do paradoxo do aniversário não pode ser realizado com jogadores de futebol.

Claro que a hipótese feita, a distribuição igual de nascimentos ao redor do ano pela população normal, precisa ser justificada. Redireciono-os ao trabalho desse site, enquanto aponto ao curioso fato do grande número de nascimentos em setembro-agosto, provavelmente resultado das férias de natal, quando a chance de se estar em casa é alta e a programação da televisão cai de qualidade vertiginosamente.

Se o futebol sul-americano já apresenta esse fenômeno, podemos encontrá-lo de forma ainda mais acentuada em esportes cuja dependência da disposição física (e, logo, da idade) seja maior, o hóquei é um bom exemplo. Um grande estudo nesse aspecto foi realizado no Canadá em 1988 e os resultados do estudo são impressionantes, o mês de nascimento parece ter implicação direta no sucesso do jogador. Atualmente, parece que as ligas americanas e canadenses adaptaram um calendário diferente, mais próximo daquele europeu de futebol, e a diferença não é mais gritante.

E esses gráficos nos inspiram a questionar o quanto do sucesso de alguém em uma carreira é fruto de sucesso inicial, de ter se dado bem no começo, gostado, continuado, se esforçado e se dado ainda melhor, um círculo vicioso positivo vindo apenas do fato de ter sido bem sucedido no começo. Extrapolando, podemos nos perguntar se fazemos o que fazemos pelo sucesso inicial, e me pergunto quanto da matemática que faço não vem de uma primeira nota alta na matéria. As coisas talvez tivessem sido diferentes se eu tivesse errado mais questões, se minha professora fosse uma carrasca, se a ponta de meu lápis tivesse quebrado naquela primeira prova ou, quem sabe, se eu tivesse nascido em junho.

A pior forma de governo

Rookie

As eleições na França tiveram há pouco sua conclusão, com a vitória do socialista François Hollande, e logo as eleições americanas começarão. Eu conversava com um amigo francês a respeito, ele, em um não raro surto nacionalista, dizia ser raro encontrar um país com uma democracia tão funcional quanto a francesa, em que candidatos em igualdade de condições (mesmo tempo de propaganda eleitoral, por exemplo) são avaliados de forma justa e o escolhido é o favorito da população. Comparava esse sistema ao confuso método americano de eleições indiretas, que pode gerar aberrações estatísticas como a estranha eleição de Bush sem a maioria absoluta da população. Ainda, argumentei que o escrutínio francês não é perfeito, o método de eleição em dois turnos não é ideal. Ele perguntou qual seria, então; e a resposta é simples, e longe de intuitiva: nenhum método é justo.

Se Churchill disse que a democracia é a pior forma de governo, exceto todas as outras que já foram tentadas, o post de hoje é para convencê-los de que até em um caso bem simples a democracia não possui resposta fácil, a justiça nem sempre é evidente e uma eleição possui fatores que vão além de músicas contagiantes, propagandas elaboradas e discursos violentos.

Somos confrontados diversas vezes com situações em que uma eleição deve ser realizada, não damos a devida atenção ao método do escrutínio. Digo que não apenas ele amplifica ou ajuda um resultado, muitas vezes a forma de escrutínio determina o vencedor. Para não forçar meu argumento, vou listar os métodos mais tradicionais de escrutínio, todos baseados em sistemas existentes:

1º Método: eleições em um único turno. Inspirados em sistemas de democracia pequena, como a eleição para “chefe do grupo” ou para o diretório de estudantes de uma universidade, podemos apenas contar, em uma votação com uma opção apenas, quem tem mais votos e decidir que ele será o escolhido.

2º Método: eleições em dois turnos. Inspirados nas eleições francesas e brasileiras, podemos realizar uma primeira votação e, selecionados os dois melhores, podemos realizar um segundo turno e eleger vencedor o que obtiver então mais votos.

3º Método: atribuição de pontos. Inspirados nas eleições legislativas australianas, podemos atribuir pontos a suas preferências: 5 pontos ao favorito, 3 ao segundo favorito, 1 ao terceiro lugar e 0 ao que não querem de jeito nenhum. O candidato que ganhar mais pontos é eleito.

4º Método: contagem de confrontos. Inspirados nas eleições americanas, com um sistema um pouco diferente, podemos pensar em um sistema de “confronto” entre candidatos. Quantas vezes o A é preferido em relação ao B? E ao C? E ao D? Após todas essas comparações, ou confrontos, somamos o “placar” de cada candidato e o que tiver vencido mais confrontos é o eleito. Em outras palavras, é como simular todos os “segundos turnos” possíveis e eleger o candidato que vencer mais segundos turnos.

Todos esses métodos são usados em algum sistema democrático de comparação na vida real, não inventei nada. Ainda, digo a vocês que é impossível estabelecer um vencedor único, aliás, consigo situações em que é impossível encontrar um vencedor “justo” da eleição. Se você considera esses quatro métodos válidos, sigo contando a história de um país bem pequeno.

Apresento a vocês Pequenolândia, um país de dez habitantes que quer eleger seu presidente (não confundir com Pequenópolis, oficialmente cidade natal de Clark Kent). Quatro candidatos se apresentam, A, B, C e D. Cada cidadão possui para si uma ordem de prioridade na escolha dos candidatos, e eu apresento essa ordem em forma de tabela:

Eleitor 1 2 3 4 5 6 7 8 9 10
A A A A B B B C C D
D C D D C C C D D C
B D B B D D D B B B
C B C C A A A A A A

A constituição de Pequenolândia, contudo, não está escrita, eles precisam de um presidente para isso. Sem saber como realizar as votações, os habitantes de Pequenolândia se inspiram nas diferentes formas de classificação eleitoral pelo mundo, e, decididos a exercerem plenamente a democracia, realizam as eleições com os quatro métodos acima, e comparam resultados.

O primeiro método dá vitória ao A, preferido de quatro habitantes, vence os demais, cujas preferências são três, dois e um. O segundo método selecionaria o A e o B para um segundo turno, e podemos ver que o B vence o A na preferência dos eleitores que não votariam inicialmente neles, o que daria a vitória ao B em uma eleição a dois turnos.

Contando os pontos pelo terceiro método, teríamos o A com 20 pontos, o B com 21 pontos, o C com 25 pontos e o D com 24 pontos, sendo a vitória por pontos corridos claramente do candidato C. Se contarmos os confrontos, o A vence apenas 12 confrontos (4 vezes cada candidato), o B vence 15 (6 vezes o A, 6 vezes o C e 3 vezes o D), o C vence 16 (6 o A, 4 o B, 6 o D) e o candidato D vence 17 (6 o A, 7 o B e 4 o C) confrontos, sendo claro que a vitória pertence ao candidato D. Pequenolândia terá, como resultado de sua eleição, anarquia completa.

Esse pequeno exemplo ilustra como métodos reconhecidos e consagrados pelo uso na democracia não apenas geram resultados diferentes, eles determinam o vencedor. Cada método elegeu um candidato, e nenhum deles pode ser acusado de ser injusto, todos são usados em eleições, campeonatos e torneios.

Uma resposta otimista seria admitir que existe um método correto e justo, apenas que não é um desses que listei; mas os matemáticos já se encarregaram de arrasar esse otimismo com um sonoro não. O teorema da impossibilidade de Arrow afirma que quaisquer critérios justos que sejam escolhidos, com hipóteses matemáticas exatas de o que ele chama de justiça (todos os critérios acima satisfazem as hipóteses de Arrow), sempre é possível encontrar uma lista de preferências que eleja dois candidatos diferentes com métodos justos. De forma simplificada, nenhuma eleição é justa, Pequenolândia terá que escolher um método antes de escolher um presidente (diferentemente do Brasil em 1988). Em outras palavras, é impossível, de uma lista genérica de preferências, obter de forma inequívoca quem será o presidente.

Em um exemplo atual, e mais concreto, este artigo (agradecimentos a Guilherme Mazanti pelo link), infelizmente em francês, atesta um fato surpreendente. Nessas eleições francesas, o candidato François Bayrou, quinto colocado no primeiro turno, ganharia de qualquer oponente em um combate direito (4˚ método); se participasse, ele ganharia qualquer segundo turno! Ora, como pode um candidato preferido por toda a população a qualquer outra opção não apenas não ser o presidente, mas ser quinto lugar nas pesquisas? Eis um dos resultados impressionantes do teorema de Arrow, colocando em uma perspectiva diferente a afirmação de meu amigo, até que não deve ser tão difícil encontrar eleições mais justas que aquelas que não elegem o favorito da população frente a qualquer outra opção.

Ainda, quanto a meu amigo francês, ele pode ficar tranquilo. Diz-se que eleições justas são pleonasmo, pois se não fosse justa não seria eleição; Arrow nos garante, nada de pleonasmo, eleições justas são, na realidade, um paradoxo.

Propagating randomness

Hardcore

Ricardo: O post de hoje é em inglês, e de um convidado muito especial. Alexander Dobrinevski, autor do blog inordinatum.wordpress.com, é meu grande amigo bielo-russo que, após sua graduação na Universidade Ludwig-Maximilians de Munique, seguiu para dois anos de mestrado em estudos avançados em matemática na Universidade de Cambridge e deu-me o privilégio de sua companhia no Laboratório de Física Teórica da École Normale Supérieure, onde dividimos sala durante alguns meses de trabalho enquanto ele fazia seu doutorado e eu, o mestrado. Viciado em cafés, filmes não tão mainstream e transformadas de Laplace. O post de hoje é bem hardcore, vale aos especialistas da área, e a mim, que aprendi e aprendo bastante a cada vez que nos falamos.

Ricardo: This post will be in english, for we have a very special guest today. Alexander Dobrinevski, author of the blog inordinatum.wordpress.com, is a good friend of mine from Belarus. Having finished his graduation at LMU, he followed the Advanced Studies in Mathematics program from Cambridge University to end up his doctoral thesis at the École Normale, where I had the pleasure to share with him the office for a few months. He is addicted to coffee, exotic movies and Laplace transforms. Today’s post is also very hardcore, to the benefit of our dear specialist in the field, and to mine, I who have learned so much and still do every time I get to talk to this dearest friend of mine.


Introduction

I guess anybody doing statistical physics or probability theory has played around with Brownian Motion (by which I mean, here and in the following, the Wiener process, and not the physical phenomenon) at some time or another. It is used e.g. for modelling the price of a stock, the position of a particle diffusing in a gas or liquid, or the pinning force on an elastic interface in a disordered medium.

Being Markovian, time evolution of Brownian motion is completely determined by its propagator, i.e. the probability (density) to arrive at $x_1$ at time $ t_1$ starting from $ x_0$ at time $ t_0$. This is, of course, known to be a Gaussian. However, for practical applications, one often needs to restrict the Wiener process (in general, with drift) to a half-line or an interval, with some imposed boundary conditions (absorbing or reflecting). In the example of a stock price, these would describe call or put options on the stock. In this post I will derive, hopefully in a pedagogical way, the propagator of Brownian motion with drift and linear boundaries.

Propagators without drift

Let us first consider standard Brownian motion $ W(t)$ without drift. Without loss of generality, let us assume it starts at $W(0)=0$. It satisfies the Langevin equation

\[\dot{W}(t) = \xi(t)\]

where $ \xi(t)$ is Gaussian white noise with correlation

\[\overline{\xi(t)\xi(t’)} = 2\sigma \delta(t-t’).\]

With these conventions, the free propagator (i.e. the propagator without any boundaries) $ P(x,t)$ is given by the solution of the Fokker-Planck equation

\[ \partial_t P(x,t) = \sigma \partial_x^2 P(x,t)\]

with initial condition $ P(x,0) = \delta(x)$. This PDE, also known as the heat equation, is easily solved by taking a Fourier transform. The solution is given by

\[ P(x,t) = \frac{1}{\sqrt{4\pi\sigma t}}e^{-\frac{x^2}{4\sigma t}}.\]

Now, let us determine the propagator with an absorbing boundary at $ x=b > 0$. In the Fokker-Planck equation, this is equivalent to the boundary condition $ P(b,t)=0$, which makes applying Fourier transforms difficult. However, we can use the method of images to find the solution: $ P(b,t)=0$ is enforced automatically if we add a negative source at $ x=2b$ (the position of the original source, reflected at $ b$), i.e. take the initial condition $ P(x,0) = \delta(x)-\delta(x-2b)$. The final propagator with an absorbing boundary at $ x=b$ is thus

\[P^{(b)}(x,t) = \frac{1}{\sqrt{4\pi\sigma t}}\left[e^{-\frac{x^2}{4\sigma t}}-e^{-\frac{(x-2b)^2}{4\sigma t}}\right].\]

Similarly one can treat the case of two absorbing boundaries, one at $ x=b>0$, one at $ x=a<0$. One then needs an infinite series of images, and obtains the propagator as a series which can be rewritten in terms of Jacobi Theta functions.

Propagators with drift

Now let us generalize to the Brownian motion with drift $ \mu$. Then the Langevin equation for $ W(t)$ becomes

\[ \dot{W}(t) =\ mu + \xi(t).\]

The free propagator is obtained from the Fokker-Planck equation just as above:

\[P(x,t) = \frac{1}{\sqrt{4\pi\sigma t}}e^{-\frac{(x-\mu t)^2}{4\sigma t}}.\]

Let us now introduce again a constant absorbing boundary at $ x=b$. Applying the method of images is not so straightforward anymore. Due to the drift, a path which goes from $ x=0$ to the boundary $ x=b$ will not have the same weight as the reflected path which goes from $ x=2b$ to the boundary $ x=b$. However, for the case of constant drift considered here, the weights of Brownian paths with and without drift have a simple relationship. In my view, the easiest way to see it is using path integrals. The propagator is given by

\[ P(x_f,t) = \int_{x(0)=0}^{x(t)=x_f} \mathcal{D}[x]e^{-\int_0^t \mathrm{d}s, \frac{1}{4\sigma}\left(\dot{x}(s)-\mu\right)^2}\]

Now, expanding the “action” in the exponent, using the fact that our drift $ \mu$ is constant, and using our boundary conditions, this is equal to

\[ P(x_f,t) = e^{-\frac{\mu}{2\sigma}x_f+ \frac{\mu^2}{4\sigma}t}\int_{x(0)=0}^{x(t)=x} \mathcal{D}[x]e^{-\int_0^t \mathrm{d}s, \frac{1}{2\sigma}\left(\dot{x}(s)\right)^2}.\]

We thus get a simple weight depending on the final position, but the remaining path integral is taken over a drift-less Brownian motion, and there we know the solution already, both with and without the boundary! In mathematical literature, you will often find this manipulation under the name of the Cameron-Martin-Girsanov theorem, but I find the path integral explanation much clearer for somebody coming from physics. Note that in the case where the drift $ \mu$ is a function of time, we cannot pull the weight out of the path integral, because it involves the whole trajectory and not just the final point. This shows why non-constant drift with absorbing boundaries is a much more complicated problem (although the free propagator is still trivial to write down!).

The final formula for the propagator of the Brownian motion with drift $ \mu$ and an absorbing boundary at $ x=b$ (also known as Bachelier-Levy formula) is thus

\[P^{(b,mu)}(x,t) = \frac{1}{\sqrt{4\pi\sigma t}}e^{-\frac{mu}{2\sigma}x+ \frac{mu^2}{4\sigma}t}\left[e^{-\frac{x^2}{4\sigma t}}-e^{-\frac{(x-2b)^2}{4\sigma t}}\right]\]

This is now all that is required to compute things like first-passage times, survival probabilities, etc. The generalization to two absorbing boundaries follows from the solution in the driftless case by multiplying with the same weight as here.

I hope you see that with the right tools, obtaining these propagators is nothing miraculous. If you have any questions or comments, I’d be glad to hear them! If people are interested, at some point I may write a continuation of this blog post, possibly on generalizations of the methods discussed here to Ornstein-Uhlenbeck processes, Bessel Processes, or more complicated boundaries.

Have fun, and thanks for reading!

Ricardo: This post will be in english, for we have a very special guest today. Alexander Dobrinevski, author of the blog inordinatum.wordpress.com, is a good friend of mine from Belarus. Having finished his graduation at LMU, he followed the Advanced Studies in Mathematics program from Cambridge University to end up his doctoral thesis at the École Normale, where I had the pleasure to share with him the office for a few months. He is addicted to coffee, exotic movies and Laplace transforms. Today’s post is also very hardcore, to the benefit of our dear specialist in the field, and to mine, I who have learned so much and still do every time I get to talk to this dearest friend of mine.


Introduction

I guess anybody doing statistical physics or probability theory has played around with Brownian Motion (by which I mean, here and in the following, the Wiener process, and not the physical phenomenon) at some time or another. It is used e.g. for modelling the price of a stock, the position of a particle diffusing in a gas or liquid, or the pinning force on an elastic interface in a disordered medium.

Being Markovian, time evolution of Brownian motion is completely determined by its propagator, i.e. the probability (density) to arrive at $x_1$ at time $ t_1$ starting from $ x_0$ at time $ t_0$. This is, of course, known to be a Gaussian. However, for practical applications, one often needs to restrict the Wiener process (in general, with drift) to a half-line or an interval, with some imposed boundary conditions (absorbing or reflecting). In the example of a stock price, these would describe call or put options on the stock. In this post I will derive, hopefully in a pedagogical way, the propagator of Brownian motion with drift and linear boundaries.

Propagators without drift

Let us first consider standard Brownian motion $ W(t)$ without drift. Without loss of generality, let us assume it starts at $W(0)=0$. It satisfies the Langevin equation

\[\dot{W}(t) = \xi(t)\]

where $ \xi(t)$ is Gaussian white noise with correlation

\[\overline{\xi(t)\xi(t’)} = 2\sigma \delta(t-t’).\]

With these conventions, the free propagator (i.e. the propagator without any boundaries) $ P(x,t)$ is given by the solution of the Fokker-Planck equation

\[ \partial_t P(x,t) = \sigma \partial_x^2 P(x,t)\]

with initial condition $ P(x,0) = \delta(x)$. This PDE, also known as the heat equation, is easily solved by taking a Fourier transform. The solution is given by

\[ P(x,t) = \frac{1}{\sqrt{4\pi\sigma t}}e^{-\frac{x^2}{4\sigma t}}.\]

Now, let us determine the propagator with an absorbing boundary at $ x=b > 0$. In the Fokker-Planck equation, this is equivalent to the boundary condition $ P(b,t)=0$, which makes applying Fourier transforms difficult. However, we can use the method of images to find the solution: $ P(b,t)=0$ is enforced automatically if we add a negative source at $ x=2b$ (the position of the original source, reflected at $ b$), i.e. take the initial condition $ P(x,0) = \delta(x)-\delta(x-2b)$. The final propagator with an absorbing boundary at $ x=b$ is thus

\[P^{(b)}(x,t) = \frac{1}{\sqrt{4\pi\sigma t}}\left[e^{-\frac{x^2}{4\sigma t}}-e^{-\frac{(x-2b)^2}{4\sigma t}}\right].\]

Similarly one can treat the case of two absorbing boundaries, one at $ x=b>0$, one at $ x=a<0$. One then needs an infinite series of images, and obtains the propagator as a series which can be rewritten in terms of Jacobi Theta functions.

Propagators with drift

Now let us generalize to the Brownian motion with drift $ \mu$. Then the Langevin equation for $ W(t)$ becomes

\[ \dot{W}(t) =\ mu + \xi(t).\]

The free propagator is obtained from the Fokker-Planck equation just as above:

\[P(x,t) = \frac{1}{\sqrt{4\pi\sigma t}}e^{-\frac{(x-\mu t)^2}{4\sigma t}}.\]

Let us now introduce again a constant absorbing boundary at $ x=b$. Applying the method of images is not so straightforward anymore. Due to the drift, a path which goes from $ x=0$ to the boundary $ x=b$ will not have the same weight as the reflected path which goes from $ x=2b$ to the boundary $ x=b$. However, for the case of constant drift considered here, the weights of Brownian paths with and without drift have a simple relationship. In my view, the easiest way to see it is using path integrals. The propagator is given by

\[ P(x_f,t) = \int_{x(0)=0}^{x(t)=x_f} \mathcal{D}[x]e^{-\int_0^t \mathrm{d}s, \frac{1}{4\sigma}\left(\dot{x}(s)-\mu\right)^2}\]

Now, expanding the “action” in the exponent, using the fact that our drift $ \mu$ is constant, and using our boundary conditions, this is equal to

\[ P(x_f,t) = e^{-\frac{\mu}{2\sigma}x_f+ \frac{\mu^2}{4\sigma}t}\int_{x(0)=0}^{x(t)=x} \mathcal{D}[x]e^{-\int_0^t \mathrm{d}s, \frac{1}{2\sigma}\left(\dot{x}(s)\right)^2}.\]

We thus get a simple weight depending on the final position, but the remaining path integral is taken over a drift-less Brownian motion, and there we know the solution already, both with and without the boundary! In mathematical literature, you will often find this manipulation under the name of the Cameron-Martin-Girsanov theorem, but I find the path integral explanation much clearer for somebody coming from physics. Note that in the case where the drift $ \mu$ is a function of time, we cannot pull the weight out of the path integral, because it involves the whole trajectory and not just the final point. This shows why non-constant drift with absorbing boundaries is a much more complicated problem (although the free propagator is still trivial to write down!).

The final formula for the propagator of the Brownian motion with drift $ \mu$ and an absorbing boundary at $ x=b$ (also known as Bachelier-Levy formula) is thus

\[P^{(b,mu)}(x,t) = \frac{1}{\sqrt{4\pi\sigma t}}e^{-\frac{mu}{2\sigma}x+ \frac{mu^2}{4\sigma}t}\left[e^{-\frac{x^2}{4\sigma t}}-e^{-\frac{(x-2b)^2}{4\sigma t}}\right]\]

This is now all that is required to compute things like first-passage times, survival probabilities, etc. The generalization to two absorbing boundaries follows from the solution in the driftless case by multiplying with the same weight as here.

I hope you see that with the right tools, obtaining these propagators is nothing miraculous. If you have any questions or comments, I’d be glad to hear them! If people are interested, at some point I may write a continuation of this blog post, possibly on generalizations of the methods discussed here to Ornstein-Uhlenbeck processes, Bessel Processes, or more complicated boundaries.

Have fun, and thanks for reading!

Introduction

Quiconque ayant déjà pratiqué la physique statistique ou les probabilités a forcément eu affaire au mouvement Brownien (j’entends par là le processus de Wiener, et pas le phénomène physique). On l’utilise, par exemple, pour modéliser l’évolution des prix, la position des particules dans un liquide ou un gaz, ou la force d’ancrage sur l’interface élastique d’un milieu désordonné.

L’évolution temporelle du mouvement brownien est markovienne, et donc entièrement déterminée par son propagateur, c’est-à-dire la (densité de) probabilité d’atteindre $x_1$ à la date $ t_1$ en partant de $ x_0$ à la date $ t_0$. Il est bien connu que ce propagateur est gaussien. Cependant, pour des applications pratiques, il est souvent nécessaire de restreindre le processus de Wiener à une demi-droite ou un intervalle, avec des conditions aux bords imposées (absorption ou réflexion). Dans l’exemple du prix d’un stock, ces dernières décriront les options d’achat et de vente. Dans cet article, je vais obtenir le propagateur du mouvement brownien avec dérive et conditions aux bords linéaires, avec une approche que j’espère pédagogique.

Propagateurs sans dérive

Considérons d’abord le mouvement brownien standard $ W(t)$ sans dérive. Sans perte de généralité, supposons $W(0)=0$. $W$ vérifie l’équation de Langevin :

\[\dot{W}(t) = \xi(t)\]

où $ \xi(t)$ est un bruit blanc gaussien avec des corrélations

\[\overline{\xi(t)\xi(t’)} = 2\sigma \delta(t-t’).\]

Avec ces conventions, le propagateur libre (c’est-à-dire sans conditions aux bords) $ P(x,t)$ est donné par la solution de l’équation de Fokker-Planck

\[ \partial_t P(x,t) = \sigma \partial_x^2 P(x,t)\]

avec la condition initiale $ P(x,0) = \delta(x)$. Cette équation aux dérivées partielles, également connue sous le nom d’équation de la chaleur, se résout facilement en prenant une transformée de Fourier. On trouve

\[ P(x,t) = \frac{1}{\sqrt{4\pi\sigma t}}e^{-\frac{x^2}{4\sigma t}}.\]

Maintenant, intéressons-nous au propagateur avec une frontière absorbante en $ x=b > 0$. Dans l’équation de Fokker-Planck, ceci se traduit par $ P(b,t)=0$, ce qui rend plus difficile la transformation de Fourier. Cependant, on peut utiliser la méthode des images pour trouver la position : $P(b,t)=0$ est automatique en ajoutant une source négative en $ x=2b$ (symétrique de la source initiale par rapport à la frontière en $ b$). Cela revient à prendre la condition initiale $ P(x,0) = \delta(x)-\delta(x-2b)$. Finalement, le propagateur avec frontière absorbante en  $x=b$ est

\[P^{(b)}(x,t) = \frac{1}{\sqrt{4\pi\sigma t}}\left[e^{-\frac{x^2}{4\sigma t}}-e^{-\frac{(x-2b)^2}{4\sigma t}}\right].\]

On traite le cas de deux frontières absorbantes en $ x=b>0$ et $ x=a<0$ de la même façon, mais il faut maintenant une infinité d’images, et le propagateur s’écrit sous forme d’une série qui peut être exprimée en termes des fonctions $\vartheta$ de Jacobi.

Propagateurs avec dérive

Généralisons maintenant au mouvement brownien avec une dérive $ \mu$. L’équation de Langevin pour $ W(t)$ devient

\[ \dot{W}(t) =\ mu + \xi(t).\]

Comme ci-dessus, le propagateur libre se déduit de l’équation de Fokker-Planck :

\[P(x,t) = \frac{1}{\sqrt{4\pi\sigma t}}e^{-\frac{(x-\mu t)^2}{4\sigma t}}.\]

Introduisons maintenant une frontière absorbante en $ x=b$. La méthode des images n’est plus évidente à appliquer ! A cause de la dérive, le poids d’une trajectoire partant de $ x=0$ vers la frontière en $ x=b$ ne sera pas le même que celui de son image, de $ x=2b$ à $ x=b$. Cependant, dans le cas d’une dérive constante, une relation simple lie les poids avec et sans dérive. Il me semble que la façon la plus simple de s’en rendre compte est l’utilisation des intégrales de chemin. Le propagateur est donné par

\[ P(x_f,t) = \int_{x(0)=0}^{x(t)=x_f} \mathcal{D}[x]e^{-\int_0^t \mathrm{d}s, \frac{1}{4\sigma}\left(\dot{x}(s)-\mu\right)^2}\]

En développant maintenant “l’action” dans l’exponentielle, et en utilisant le fait que $ \mu$est constant, ainsi que les conditions aux bords, on trouve

\[ P(x_f,t) = e^{-\frac{\mu}{2\sigma}x_f+ \frac{\mu^2}{4\sigma}t}\int_{x(0)=0}^{x(t)=x} \mathcal{D}[x]e^{-\int_0^t \mathrm{d}s, \frac{1}{2\sigma}\left(\dot{x}(s)\right)^2}.\]

On obtient alors un poids qui ne dépend que de la position finale (hors de l’intégrale), et l’intégrale restante ne présente plus de dérive, ce qui signifie que nous connaissons déjà la solution, avec ou sans frontières ! Dans la littérature mathématique, vous trouverez fréquemment cette manipulation sous le nom de “Théorème de Cameron-Martin-Girsanov“, mais je trouve que l’approche via l’intégrale de chemin est beaucoup plus claire pour un physicien. Notons que si la dérive $ \mu$ dépend du temps, on ne peut pas sortir le poids de l’intégrale de chemin, car il dépend de toute la trajectoire, et pas seulement du point final. C’est pourquoi il s’agit d’un problème bien plus difficile, bien que le propagateur libre soit toujours trivial à écrire !

La formule finale pour le propagateur du mouvement brownien avec dérive $ \mu$ et une frontière absorbante en $ x=b$ (connu sous le nom de “formule de Bachelier-Levy”) est donc

\[P^{(b,mu)}(x,t) = \frac{1}{\sqrt{4\pi\sigma t}}e^{-\frac{mu}{2\sigma}x+ \frac{mu^2}{4\sigma}t}\left[e^{-\frac{x^2}{4\sigma t}}-e^{-\frac{(x-2b)^2}{4\sigma t}}\right]. \]

C’est tout ce dont nous avons besoin pour calculer des choses comme des temps de premier passage, des probabilités de survie, etc. La généralisation à deux frontières absorbantes peut être déduite de la solution sans dérive, en multipliant par le même poids.

J’espère vous avoir fait sentir qu’avec les bons outils, obtenir ces propagateurs n’a rien de miraculeux. Si vous avez des questions ou des commentaires, je serai ravi de les entendre ! Pour approfondir, diverses voies sont envisageables, comme des généralisations des méthodes exposées ici aux processus de Ornstein-Uhlenbeck, de Bessel, ou encore des conditions aux bords plus compliquées.

Merci de m’avoir lu !

O melhor remédio

Rookie

No post anterior sobre motores moleculares, comentei um aparente paradoxo estatístico com aplicações fascinantes na biofísica. Esse tipo de fenômeno, contra-intuitivo e profundamente aplicado, não é tão raro quanto se imagina. Se o paradoxo de Parrondo é meu favorito, dedico o post de hoje a meu segundo paradoxo aparente favorito, que começa em uma manhã repleta de problemas.

Você acorda sentindo dores nas costas, que aumentam em ondas, até se tornarem as piores que você já experimentou se não deu a luz a uma criança ou teve uma parada cardíaca. Você é levado às pressas ao hospital, onde o médico prontamente diagnostica um caso clássico de pedra do rim, e você se arrepende de todo aquele sal grosso que adora na picanha. Felizmente há cura, e o médico logo iniciará o tratamento, mas, antes, precisa de seu consentimento para saber qual procedimento tomará. Ele apresenta as opções, enquanto você agoniza de dor.

Há dois tratamentos possíveis, o A e o B. Um estudo foi realizado para testar a eficácia dos tratamentos e determinar qual é o melhor e você, como bom amante das exatas, pede para ver os dados dos estudos. Ele é dividido em casos de pedras grandes e pedras pequenas, sendo o número total de casos o mesmo testado no tratamento A e B, para que não haja tendências.

No caso das pedras grandes, o tratamento A é mais eficaz que o B. Ele curou 190 dos 260 testados (73%) enquanto o B curou apenas 50 dos 80 casos testados (62,5%). Sendo 73%>62,5%, o médico recomenda, caso você tenha uma pedra grande, aceitar o tratamento A.

No caso das pedras pequenas, o tratamento A também é mais eficaz que o B. Ele curou 80 dos 90 casos testados (88,8%) enquanto o B curou apenas 230 dos 270 testados (81,2%). Como 88,8%>81,2%, o médico recomenda, caso você tenha uma pedra pequena, aceitar o tratamento A. Ainda, ele pergunta qual tratamento você escolhe.

A questão parece estúpida, pois o tratamento A é mais eficaz que o B em todos os casos. No entanto, você, em um lampejo de lucidez em meio à dor, nota algo. Em ambos os tratamentos, 350 casos foram testados. O A curou (190+80=) 270 casos de seus 350, enquanto o B curou… (50+230=) 280. Sem sombra de dúvida, o médico deveria recomendar o mais eficaz dos tratamentos, que seria, sem hesitação, o tratamento B.

Consternado, você pode pensar que o tratamento B é melhor caso você não saiba seu tipo de pedra, e o A caso saiba; mas rapidamente percebe que esse raciocínio é profundamente desonesto. Você pode apenas ter uma pedra grande ou pequena e, na sua lógica, se souber que tem a grande, tomará o A; se souber que tem a pequena, também tomará o A. Seu conhecimento da pedra em nada influenciará sua decisão, e você ainda sabe que o B curou mais que o A nos dois casos juntos, o problema persiste.

Eis o famoso paradoxo de Simpson, uma armadilha clássica na teoria de probabilidades que atinge até os mais preparados. Temos uma tendência instintiva a achar que medidas que beneficiam todos os grupos envolvidos serão benéficas ao coletivo, isso não é necessariamente verdade. Esse paradoxo aparece de diversas formas nas análises estatísticas, como, por exemplo, a comparação entre Chicago e Illinois nas matérias de matemática, com uma análise mais profunda nos grupos étnicos e sociais. Chicago foi melhor que Illinois em todos os grupos étnicos analisados (brancos, negros, hispânicos), mas ao final Chicago ficou muito aquém de Illinois nos resultados. Isso aconteceu apenas porque a distribuição racial das regiões diferia bastante, criando esse aparente paradoxo.

A razão desse paradoxo, esse aparente contrassenso, é a diferença no tamanho das amostras. No caso da pedra no rim, podemos ver que pacientes com pedras pequenas tendem a sistematicamente receber o tratamento B, enquanto pacientes de pedras grandes tendem a receber o tratamento A. Mas, mais importante que a diferença no tamanho das amostras, temos que o fator “pedra grande” ou “pedra pequena” influencia muito mais a taxa de cura que o tratamento usado. O paradoxo de Simpson ocorrendo é um excelente indício de que há uma variável escondida, algum fator determinante ao dividir o estudo em grupos e que, somados os grupos, desaparece.

Não podemos dizer que o estudo apresentado a você no hospital possui “estatística que não presta”, mas devemos tomar cuidado na análise. O paradoxo de Simpson é uma das melhores maneiras de enganar alguém com estatísticas, então não se deixe levar por estatísticos malandros; o todo é mais que a soma das partes, frações às vezes enganam e, escolhendo o tratamento A ou B, sempre beba bastante água.

Mas, já que apresentei a situação, deixo a pergunta: e você? Qual tratamento escolheria?