O problema da diretora do colégio

Geek

Venho por meio deste compartilhar um problema deveras interessante que requereu algumas horas do meu dia para a programação. Escrevi-o há algum tempo a um amigo cursando ciência da computação que, sendo garoto de programa, certamente saberia apreciar o que fiz, e sou carente desse tipo de apreciação. O problema que me foi proposto em meu curso de física estatística foi o da diretora do colégio.

Aconteceu uma vez comigo, recebi, acho que na sexta série, um papel para escrever os nomes dos coleguinhas com que gostaria de estar ano seguinte. Escrevi os dois nomes que queria (era uma criança sozinha e com poucos amigos), entreguei e no ano seguinte estava na sala deles. Ainda, as salas não mudaram muito, o que é razoável, já que as pessoas tendiam a querer ficar com quem já estavam, achei que a diretora havia atendido aos pedidos individualmente, mas hoje penso que não. Vamos tentar entender a razão de, se a diretora fosse realmente levar aqueles papéis a sério, ela teria que aprender um pouco mais de física e informática.

Imagine-se uma diretora de colégio, responsável por preparar as classes para o próximo ano letivo. Como você é boazinha, decide deixar os alunos escolherem com quem eles querem ficar no próximo ano, então dá a possibilidade de eles escreverem em um papel nomes dos coleguinhas que mais querem encontrar no ano seguinte. Mas sendo uma diretora justa, você pergunta aos professores quais alunos seria melhor que não ficassem na mesma turma, uma “lista negra” de duplas que seria melhor que ficassem separados. Com essas duas informações: a preferência dos alunos e a lista negra dos professores, como determinar qual distribuição ideal de alunos?

Esse não é um problema fácil. Podemos pensar em tratar o problema brutalmente: listar todas as possibilidades e verificar qual satisfaz melhor às condições das listas, tanto a de preferência quanto a de exclusão, mas isso, com um número pequeno de alunos, logo atinge limites astronômicos. O número de configurações possíveis de sala será $2^{\text{numero de alunos}}$, com 100 alunos você teria algo perto de $10^{30}$ configurações. Meu processador i5 só aguenta algo perto de 10MIPS, o que me dá o direito de realizar $10^7$ instruções por segundo e eu precisaria de pelo menos $10^{23}$ segundos para fazer qualquer coisa com essas configurações, isso é mais que a idade do universo. Essa conta provavelmente está bem errada, mas acredito no argumento de que, para listar todos os casos possíveis, terei que investir mais que uma tarde em cálculos. Precisamos pensar em um jeito mais malandro.

Primeiro, vamos pensar no quadro teórico do problema e como implementar de maneira adequada. Eu quero um jeito prático de saber quantas condições uma configuração de alunos satisfaz e quantas ele viola. Vou atribuir pesos iguais à preferência dos alunos e à lista dos professores, poderiam ser diferentes, mas sou preguiçoso. Seja n o número de alunos. Tomo um vetor $S_n$ com $n$ coordenadas que podem valer 1 ou -1. Se $S_i=1$, então o aluno $i$ está na sala A. Se $S_i=-1$, o aluno $i$ está na sala B.

Em seguida, defino a matriz $J_{ij}$, que é $n\times n$. Ela contém a seguinte informação: $J_{ij} = 1$ se o aluno $i$ quer ficar com o aluno $j$. $J_{ij} = -1$ se não é legal que o aluno $i$ fique com o aluno $j$ e $J_{ij}=0$ se eles são indiferentes entre si. Eu poderia ter privilegiado a opinião dos professores atribuindo um peso muito negativo ao invés de -1, mas vamos dar uma chance as alunos e atribuir pesos iguais às preferências dos alunos e dos professores. Isso vai servir para calcular o quanto de “felicidade” a configuração gera. Se dois alunos estão na mesma sala e queriam estar na mesma sala, a felicidade aumenta. Se eles não podem estar na mesma sala e estão em salas separadas, a felicidade aumenta. Se estão em salas diferentes e queriam estar juntos, ela diminui. Mas como computar isso? Basta calcular: $J_{ij}\cdot S_i\cdot S_j$.

Se eles estão na mesma sala, o produto $ S_i\cdot S_j$ será 1 e, se querem estar na mesma sala, $J_{ij}$ será 1, então o resultado será 1. Se não podem e estão na mesma sala, o resultado será -1. Se não estão na mesma sala, o produto $S_i\cdot S_j$ é -1. Deu para entender que esse produto representa bem a “felicidade” gerada pelo estudo de um par de alunos. Precisamos, então somar $J_{ij}\cdot S_i\cdot S_j$ para todos os $i$’s e $ j$’s e isso dará a felicidade da configuração.

Mais uma vez, isso exige produtos e somas com $2^n$ configurações possíveis, é absolutamente impossível resolver esse problema na força bruta para mais de 50 alunos. Para tal, precisamos de um método mais eficiente, e eu escolho Monte Carlo.

O método de Monte Carlo é um dos mais poderosos e usados na física estatística para resolver esse tipo de problema impossível. Tomamos uma configuração inicial de classes aleatória (um vetor $S$ aleatório) e procedemos da seguinte forma:

  • Trocamos um aluno de sala (tiramos $i$ aleatório e fazemos $S_i\to -S_i$)
  • Checamos a felicidade da nova configuração.
  • Se aumentou, ele fica nessa sala nova.
  • Se diminuiu, ele volta para a primeira sala.

Você ficaria impressionado em saber que, com 50 alunos, eu consigo a configuração certa de $S$ em menos de 1000 iterações. Claro, tomei um $J$ agradável o suficiente para que eu soubesse qual a configuração certa e esse $J$ em particular provavelmente facilitou minha vida. Tomei a sala em panelinha: metade dela quer ficar entre si e não pode ficar com a outra metade. Eu esperava um S da forma $(1,1,\ldots ,1,-1,-1,\ldots ,-1)$, e o tenho rapidamente com esse algoritmo.

Sabendo um pouco mais de física, eu poderia te contar que os átomos possuem uma propriedade chamada spin, que pode apontar para cima (1) ou para baixo (-1). Em uma rede cristalina, os spins interagem e são capazes de definir muita coisa, como, por exemplo, se a rede será um imã ou não. O que acontece é que os spins sempre atingem uma configuração que minimiza a energia da rede, e essa energia é calculada se o material é antiferromagnético (os spins gostam de ficam em direções opostas) ou ferromagnético (eles preferem se alinhar). Em algumas redes, você até mistura esses dois tipos e calcular a magnetização total (o conjunto de todos os spins) pode parecer um inferno.

Mas a energia total é calculada da seguinte forma: você multiplica os spins para saber se estão alinhados ou não, se estão, o produto será positivo, se estão invertidos, o produto será negativo. E então você multiplica pelo fator $J_{ij}$, que vale 1 se o material é ferromagnético ou -1 se é antiferromagnético (ou 0 se os spins estão longe e não interagem). A energia total será a soma para todos os i’s e j’s de $J_{ij}\cdot S_i\cdot S_j$ onde $S_i$ é o spin da partícula $i$. A magnetização do sistema será a configuração de spins que minimiza essa energia. Ora, é difícil não ver que a magnetização de um material misto entre dia e ferromagnetismo é o exato mesmo problema que uma diretora de escola enfrenta ao escolher quais alunos ficarão em qual sala.

Esse método, Monte Carlo, parece quase milagroso, mas possui um problema grave. Não é o caso da matriz $J$ que escolhi, que é extremamente agradável, mas com algum outro $ J$ eu poderia ter um sério problema. Eu poderia atingir uma configuração em que trocar qualquer aluno de sala causaria uma queda na felicidade, mas que, se eu trocasse dois ou três, poderia ter um ganho. Esse tipo de situação é um “mínimo local” da felicidade, um defeito sério em Monte Carlo, que não pode escapar de um mínimo local e atingir a verdadeira configuração ideal de salas, pois ele só aceita ganhos reais e imediatos. Como podemos nos livrar disso? Ah, precisamos de uma adaptação de Monte Carlo, chamada “Algoritmo de Metrópolis”, mas isso fica para outro dia, a diretora da minha sétima série, pelo que escrevi, já terá bastante trabalho pela frente.

O segundo bissexto

Rookie

Os que nascem hoje envelhecem menos que os outros. Comemorando apenas aniversário uma vez a cada quatro anos, os nascidos no vinte e nove de fevereiro são agraciados com problemas em preencher formulários online o resto de suas vidas, mas são privilegiados, nasceram em um dia especial, resultado de a rotação da terra em torno do Sol possuir alguns quebrados depois do 365 dias.

Esses quebrados são corrigidos com esse dia, mas até os quebrados possuem quebrados e esse ajuste não é perfeito. Precisamos pular um ano bissexto a cada 100 anos, e o fazemos, mas nem esse ajuste é ideal; podemos pular apenas os anos bissextos múltiplos de 100 que não são múltiplos de 400 (o que explica o ano 2000 ter sido um bissexto tão especial, a exceção da exceção). Isso deixa as coisas mais acertadas, só começaremos a perceber os efeitos dos quebrados dos quebrados em muitos milênios.

Enquanto o 29 de fevereiro é bem famoso, seu equivalente menor, o segundo bissexto, ou segundo adicional, não é muito conhecido. Diversos anos no último século contaram com o segundo adicional, suas contagens de ano novo estavam quase sempre adiantadas. Os grandes relógios atômicos do mundo que regem a contagem padrão das horas na terra estão cientes desse fato, há um conselho que define quando um ano terá um segundo extra e, quando isso acontece, o relógio do dia 31 de dezembro ou 30 de junho mostra, durante um segundo, a marca 23:59:60 antes de ir ao 00:00:00. Se não acredita, veja este relógio atômico:

[youtube=http://www.youtube.com/watch?v=34wDgYEOUJU]

Enquanto é fácil entender o 29/02, ele resulta do fato de a rotação da Terra em torno do seu próprio eixo e sua rotação em torno do Sol não serem múltiplos perfeitos, o segundo bissexto é mais difícil. Nós definimos o segundo como bem entendemos, não poderíamos ter definido um segundo que coincide exatamente com um divisor inteiro do dia terrestre, e não precisar acrescentar segundos, já que o ano possuiria um número exato de segundos, sem quebrados? Poderíamos, e fizemos isso, no século XIX. Mas o dia, desde então, se tornou mais longo. Vamos entender a razão disso.

Você deve ter visto a Lua diversas vezes à noite. Quando eu era menor, eu e minha mãe conversávamos sobre o que víamos “desenhado” na Lua. Ela via um coelho, há quem veja São Jorge e um dragão, eu via um rosto triste. E em todas essas conversas, eu jamais havia reparado: eu via sempre a mesma coisa na Lua. Mas se a Terra gira, em torno de si e do Sol, como a Lua conspira para sempre ter a mesma face virada para nós?

The Dark Side of the Moon não é apenas um excelente album do Pink Floyd, é como é chamado o lado oculto da Lua. O nome engana, esse lado da Lua recebe a mesma quantidade de luz solar que o outro lado, mas nunca o vemos da Terra. O período de rotação da Lua em torno de si mesma é exatamente o mesmo de sua rotação em torno da Terra, por isso ela sempre aparece com o mesmo rosto em nossas noites. Isso acontece pelas chamadas forças de maré, a força gravitacional da Terra afeta a Lua de tal forma que, por mandar gases e líquidos de um lado para o outro, a rotação da Lua acabou desacelerando e atingindo uma configuração estável. Se a Lua está sempre com o mesmo lado virado para a Terra, não há mudanças entre “maré alta” e “maré baixa” nela, então a rotação não perde mais velocidade. Se perdesse mais, essa variação recomeçaria, essa configuração de “lado oculto” e “lado visível” é a mais estável que a Lua consegue encontrar.

Longe dos filmes B de ficção científica, a rotação da Terra está, aos poucos, perdendo velocidade pelo mesmo motivo da Lua: o Sol causa suas forças de maré e pouco a pouco nossa rotação diurna vai se ajustando à rotação anual. Em muitos bilhões de anos, a Terra terá essas rotações coincidentes, teremos um lado constantemente exposto ao Sol e outro oculto, dia perpétuo e noite perpétua.

A Lua gira em torno da Terra há menos tempo (ou ao menos o mesmo tempo) que a Terra gira em torno do Sol, mas esse “acoplamento de maré” aconteceu muito antes na Lua que na Terra porque a distância Terra-Lua é bem menor que a Terra-Sol e o tamanho da Lua é bem menor, as forças de maré surtem mais efeito nela. No século XIX, os físicos definiram o segundo. Agora, para compensar o ganho de 2 milissegundos (0,002 segundos) de nosso dia por século (sendo cada ano 365 dias, se cada um deles fica 2ms mais longo, isso equivale a um ano 0,73s mais longo), inserimos o segundo bissexto. O último ocorreu no Reveillon de 2008 e o próximo será dia 30 de junho deste ano.

Enquanto isso pode não parecer muito, é interessante notar que os dinossauros, tendo vivido há 180 milhões de anos, possuíam dias uma hora mais curtos, a rotação da Terra era mais rápida. Em muitos milhões de anos, teremos dias cada vez mais longos, nossos descendentes, se existirem, poderão dormir 12 horas e ainda trabalhar outras 16. Eu, decididamente, nasci na época errada.

O gás de Coulomb-Dyson

Hardcore

Esses dias trombei com um assunto bonito, uma parte do estudo de matrizes aleatórias que realmente achei interessante. Claro, trabalho com matrizes aleatórias, então é um pouco normal eu encontrar coisas bonitas aqui e ali, mas dificilmente algo tão bonito quanto o que achei outro dia em um desses livros de teoria espectral. Aviso, esse post é nível hardcore e provavelmente o mais intenso que já postei até agora, recomendo discrição. Se você não é um físico ou matemático, não vai pescar muita coisa do texto, não aconselho sua leitura.

As matrizes aleatórias servem para bastante coisa. Diversos modelos envolvendo um operador com perturbação aleatória e fora de nosso controle podem ser colocado em um formato de matriz aleatória, a transmissão de dados de um conjunto de antenas a outro com ruído pode ser modelizado por uma equação linear com uma matriz aleatória também, muita coisa entra nessa categoria e em cada um desses estudos a pergunta é recorrente: jogando entradas aleatórias em uma matriz, com uma densidade de probabilidade $ P(x)$ para as entradas, qual será a densidade de probabilidade de seus autovalores?

Porque, no fundo, é nisso que estamos interessados. Na quântica eles serão as medidas possíveis, nas equações diferenciais lineares eles nos darão a estabilidade do sistema, autovalores são a alma das matrizes. Mas se encontrar os autovalores de uma matriz $ n \times n$ bem definidas já não é tarefa tão fácil, resolver polinômios sempre dá preguiça, é difícil não sofrer só ao pensar como será com matrizes cuja única informação é a probabilidade de obter suas entradas entre dois valores.

Primeiro vamos estabelecer o que eu quero dizer com “probabilidade de uma matriz”. De forma civilizada, eu precisaria temperar esse texto com alguns detalhes da medida usada, do espaço em questão, mas isso é um blog e não um artigo; essa história está mais bem contada neste excelente artigo sobre matrizes aleatórias, ainda nas primeiras páginas. Tomemos um exemplo fácil, um vetor $ (x,y)$. Falar de sua densidade de probabilidade, é falar de uma função $ P(x,y)$ tal que, para descobrir a chance de encontrar esse vetor com as coordenadas $ 0\leq x \leq 3$ e $ 0 \leq y \leq 2$ será o resultado da integral $ \int_0^2 dy \int_0^3dx P(x,y)$, simples assim. Se $ x$ e $ y$ são independentes, certamente teremos $ P(x,y)=P(x)P(y)$, mas isso não será necessariamente verdade. Falar de densidade de probabilidade de uma matriz é falar da densidade conjunta de suas entradas, ou seja, sua j.p.d.f. (joint probability density function). Eu usaria o termo em português, mas não gosto de abreviar função densidade de probabilidade.

É claro que nem as matrizes nem as probabilidades podem ser quaisquer, problemas gerais demais não levam a lugar nenhum. Vou me restringir ao caso real, tudo pode ser generalizado para complexo com as devidas trocas. Listo dois tipos de matrizes cujo estudo das probabilidades é interessante: matrizes cujas probabilidades das entradas são independentes e matrizes que possuem a probabilidade invariante por conjugação.

Essa última propriedade é mais sutil, mas é simples. Dizer que a j.p.d.f. de uma matriz $ M$ é invariante por conjugação é dizer que, para toda $ U$ não singular, teremos que $ P(M)=P(UMU^{-1})=P(M’)$, ou seja, a chance de obter um elemento da classe de conjugação de $ M$ é a mesma chance de se obter $ M$.

E essa propriedade serve para uma manobra bem útil. Se a j.p.d.f. é invariante por conjugação, e se eu consigo diagonalizar a matriz, a probabilidade da matriz será a mesma probabilidade de sua forma diagonal, com seus autovalores como entradas, o que me permite de maneira fácil obter a distribuição de probabilidade de seus autovalores. Por vários motivos, físicos e matemáticos, gostamos de estudar matrizes simétricas, ou hermitianas se complexas. Isso vai garantir a diagonalização por matrizes unitárias e a existência de um alegre conjunto de autovalores bem reais.

Teorema: O único grupo de matrizes aleatórias invariantes por conjugação unitária e cujas entradas possuem p.d.f. independentes é o grupo das matrizes gaussianas, cujas entradas possuem como p.d.f. uma distribuição normal.

Nem arrisco tentar demonstrar isso, tomaria este post e mais outros três. Esse teorema nos inspira a aprofundar nosso estudo das matrizes gaussianas. Como elas são invariantes por conjugação unitária (estamos ainda com matrizes simétricas se reais e hermitianas se complexas, então elas são diagonalizáveis por uma matriz unitária), podemos escrever que $ P(M) = P(D)$, onde $ D$ é sua forma diagonalizada. Para que isso seja possível, vamos nos restringir às matrizes gaussianas simétricas (hermitianas se são complexas). Como em $ P(M)$ as probabilidades das entradas individuais são independentes, nosso instinto nos diz que em $ P(D)$ as coisas serão parecidas, que os autovalores terão probabilidades independentes, e não poderíamos estar mais errados. Porque escrever $ P(D)$ é escrever $ P(\lambda_1,\lambda_2,ldots,\lambda_n)$, uma probabilidade que depende dos autovalores, isso é uma mudança de variável e, como a probabilidade sempre se dá integrando essa densidade de probabilidade, precisamos levar em conta o jacobiano dessa transformação que, para nosso desespero, acopla todos os autovalores. Tal probabilidade já é conhecida há algum tempo, a j.p.d.f. dos autovalores da matriz gaussiana:

\[P(\lambda_1,ldots,\lambda_n) = C_k e^{-\beta \sum_k \lambda_k^2} \prod_{j<k}|\lambda_k-\lambda_j|^\beta \]

E o último termo da direita, a parte do jacobiano relativa aos autovalores, não é ninguém menos que o determinante de Vandemonde. O $ \beta$ é um valor referente ao tipo da matriz gaussiana, vale 1 se ela é real, 2 se é complexa e 4 se estamos nos quatérnions. E agora vem a parte bonita: Dyson (nisso fui corrigido, disseram ser Wigner, deixo a polêmica) percebeu que essa j.p.d.f. poderia ser colocada de uma forma mais familiar, bastava apenas jogarmos o determinante de Vandermonde para o expoente como $ \prod_{j<k}|\lambda_k-\lambda_j|^\beta = e^{\beta \sum_{j<k} \log |\lambda_k-\lambda_j|}$, teremos que a probabilidade será um múltiplo de uma grande exponencial. Chamar aquele número de $ \beta$ é extremamente sugestivo. Um leitor atento já deve ter percebido, contemplamos um peso de Boltzmann, em uma analogia perfeita a uma j.p.d.f. do sistema canônico:

\[P(\lambda_1,ldots,\lambda_n) = C_k e^{-\beta\left(\sum_k\lambda_k^2-sum_{j<k}\log |\lambda_k-\lambda_j|\right)} = \frac{1}{Z}e^{-\beta H}.\]

A magia dessa interpretação é poder importar todas as ferramentas da física estatística para resolver esse intrincado problema de álgebra linear. Se imaginarmos que cada autovalor representa a posição de um elétron confinado a uma linha (que representará o eixo real), atraídos ao centro por um potencial harmônico (o termo em $ \sum_k\lambda_k^2$ ) e submetidos à repulsão coulombiana mútua (que em sua forma bidimensional é $ \log |x_i-x_j|$), teremos um sistema físico cujas posições dos elétrons são equivalentes às posições dos autovalores da matriz gaussiana. E, caramba!, isso é muito bonito.

A analogia não é apenas formal, podemos extrair diversas propriedades dessa distribuição com técnicas do ensemble canônico (meu orientador, aliás, fez a carreira dele nisso). E este é um de meus exemplos favoritos de física ajudando matemática, ainda que, se fôssemos contar pontos nisso, a competição seria injusta, estaríamos perdendo por uma boa margem.

Lagartixas

Rookie

Lagartixas são demais.

Em uma prova minha de mestrado, elas foram o tema. Nada de biologia, o professor nos conduzia através de um artigo muito interessante que tentava desvendar esse impressionante mistério de como as lagartixas sobem paredes. Como disse a cantora infantil Mariane: se você pensa que sabe tudo, lagartixa sabe mais, ela sobe na parede, coisa que você não faz. E o artigo se propunha a estudar como, afinal, ela consegue isso?

Insetos sobem e descem paredes em qualquer direção, para qualquer lado, sem nem precisar de muito esforço. De maneira surpreendente, os insetos não ficam na parede pela mesma razão; a mosca e a aranha (decerto, não um inseto, mas algo parecido) possuem mecanismos de fixação completamente diferentes, fisicamente diferentes, isso é bem impressionante. Você provavelmente assistiu ao filme “Homem-Aranha”, deve ter visto aqueles pequenos ganchos crescendo na palma da mão de Peter Parker e caído na armadilha de pensar que aranhas usam de fato pequenos ganchos curvados para baixo para escalar paredes. Ora, se assim fosse, elas até conseguiriam subir, mas como explicar o fato de elas também conseguirem descer de ponta-cabeça? Você precisaria inverter o sentido dos ganchos para impedir o pobre artrópode de cair, essa teoria é furada, aranhas não sobem paredes como alpinistas. A aranha sobe a parede como a lagartixa; a mosca, de um outro modo. Apenas recentemente o modo da lagartixa foi determinado, em uma série de experimentos que, aos físicos, não deve ter sido das mais convencionais.

Vamos conversar primeiro sobre a mosca. Vocês devem saber que esse inseto deixa um rastro por onde passa. Este líquido é a base da fixação da mosca na parede ou teto, o que chamamos de “força de capilaridade”. A água, maior parte desse líquido, possui uma grande força de coesão interna, moléculas de água atraem-se mutuamente com bastante força. Tanto elas se atraem que a água é capaz de vencer a força da gravidade em materiais hidrofílicos (que atraem água) como o papel-enxuga. Se você não acredita em mim, faça o seguinte: encha um copo com água, coloque outro vazio ao lado, faça um rolinho com papel-enxuga e mergulhe uma ponta na água, enquanto a outra você deixa no copo vazio, e eu garanto que, no dia seguinte, haverá a mesma quantidade de água nos dois copos. E se você ainda não acredita em mim, acredite nesse asiático:

[youtube=http://www.youtube.com/watch?v=DmobAKBHqng]

Esse fenômeno é mais complicado e mais legal que isso, merece um post apenas para si e o terá. A mosca lança esse líquido e o usa como “ponte” entre sua pata e a parede. A água funcionará como cola, mas é somente água. Ela é atraída pela pata, é atraída pela parede e gosta de ficar junta, logo, a mosca consegue subir superfície deixando pequenas pegadas líquidas no caminho.

A lagartixa não! Para estudar como ela sobe a parede, eles precisaram realizar testes com diversos materiais e, por fim, concluíram que esse pequeno lagarto sobe a parede com forças de Van der Waals, em especial a chamada força de London. Forças de Van der Waals são pequenas interações entre as partículas, bem mais fracas que aquelas interações entre próton e elétron. Elas são interações “residuais”, que sobraram, resultado de átomos e moléculas serem grandes agregados de partículas positivas e negativas. É um pouco difícil entender o que é essa força, vou tentar explicar. As moléculas da pata da lagartixa, que são gigantescos conjuntos de átomos chamados $\beta$-keratina, possuem um número equivalente grande de elétrons. Quando a pata encosta na parede, ambos são neutros, não se atraem eletricamente, mas essa proximidade induz uma polarização das moléculas, ou seja, é como se, por ficarem próximas, a pata e a parede se tornassem imãs e começassem a se atrair. Vou colocar uma imagem bem precária para explicar, mas não achei melhor:

A proximidade induz a polarização, os pontinhos são os elétrons.

Esse fenômeno é um pouco mais complicado do que parece, por causa da mecânica quântica (Aos que conhecem alguma coisa, digo que esse efeito só é visto da segunda ordem da perturbação do hamiltoniano acoplado das partículas, quem não tem ideia do que acabei de dizer, ignore o parênteses). Alguns desses pequenos “imãs” serão em um sentido, outros em outro, então a lagartixa e a parede ficarão, na média, neutras, mas compostas de diversos pequenos microimãs que sustentam a lagartixa na parede!

A aranha possui o mesmo esquema. Aqueles não são ganchos, são superfícies com essas características. No caso da lagartixa, a pata é toda enrugada para aumentar a superfície de contato e aumentar essa força sem precisar ter uma pata gigantesca. Curiosamente, pela alta polarixabilidade da β-keratina, a lagartixa consegue forçar esse fenômeno em quase toda superfície. As moscas não conseguem subir em superfícies que não atraem água, como o silício, mas a lagartixa consegue tranquilamente.

Experimentos com lagartixas em material hidrofóbico.

Desse artigo, vale destacar as frases: “To measure only a single toe, we restrained the geckos by hand, and held the other toes in a flexed position. We excluded any trial in which the gecko struggled or moved its toe.“. Foi experimentando com materiais hidrofóbicos (que não atraem água) que os físicos definiram o método de fixação das lagartixas. Mas, se você quisesse construir uma luva do homem-aranha para você, precisa de uma densidade de “ganchos” quatro mil vezes maior que a da lagartixa, o que é impraticável. Ainda, fica o sonho de um dia colarmos nossas prateleiras na parede com forças de Van der Waals, ou de, com alguns ganchos crescendo nas mãos, virarmos o Homem-Aranha.

O famigerado laplaciano

Geek

O terceiro semestre de cálculo na faculdade é inesquecível. Se o seu curso foi parecido com o meu, você atravessou integrais duplas, triplas, de linha e de superfície, teoremas de Gauss, de Green e de Stokes, todas aquelas parametrizações e todas aquelas integrais. Não são poucas as áreas na física que usam esses conceitos, em especial a mecânica dos fluidos e o eletromagnetismo. As aplicações são tantas que, muitas vezes, as demonstrações dos teoremas e representações dos elementos dessa teoria deveriam ser tão naturais para nós quanto ver água descendo o ralo, mas nosso professor de matemática dificilmente está interessado em água descendo o ralo e acaba sacando da manga exemplos não tão intuitivos; meu professor de sistemas dinâmicos, por exemplo, achava a teoria mais clara quando a aplicava a teoria dos números, o que era para ser uma explicação do pêndulo duplo acabava virando o estudo da função “menor inteiro” para provar algum teorema de Fermat.

Todas essas operações têm uma interpretação física bem clara e bonita, mas o laplaciano, esse incompreendido, sempre escapa aos professores de cálculo. Tentar explicá-lo como “o divergente do gradiente” é dar um nó nos conceitos. Você precisa imaginar a taxa de dispersão de um campo que aponta para a direção de maior crescimento, isso me dá dor de cabeça apenas em tentar e não me traz nenhuma ideia clara e física do que é $ \nabla^2 T$.

Nessa hora, vale mais voltar às raízes do cálculo e tentar atacá-lo com métodos finitos, ou seja, fingir que a derivada é apenas um quociente da forma $ \frac{\Delta T}{\Delta x}$. Isso é bem feio e eu jamais faria isso em uma demonstração séria, mas é a técnica padrão para uma resolução numérica da equação de Poisson ou de Laplace, então pode nos ajudar. Se eu decompuser o espaço em intervalos de $ \Delta x_i$ e tomá-los iguais e no valor da unidade, a derivada discretizada torna-se $ x_{i+1}- x_i$. A segunda derivada será apenas tomar esse valor e subtrair ao da derivada do ponto anterior, ou seja, $ x_{i+1}- x_i – x_i + x_{i-1} = x_{i+1} + x_{i-1} – 2x_i$. Esse é um método finito bem adequado para calcular numericamente a segunda derivada. Em uma dimensão, ela coincide com o laplaciano.

Se o meu campo fosse em duas dimensões, eu poderia representar a discretização do meu campo com dois índices, cada ponto seria da forma $ x_{i,j}$. A segunda derivada em uma direção seria a expressão acima variando o $ i$ e na outra direção seria a variação em $ j$. O laplaciano, soma das segundas derivadas cartesianas, seria: $ x_{i+1,j} + x_{i-1,j} + x_{i,j+1} + x_{i,j-1} – 4x_{i,j}$.

Se essa expressão ainda não lhe diz nada, experimente dividir por 4. Você terá:

\[\frac{1}{4}\nabla^2X\approx \frac{x_{i+1,j}+x_{i-1,j}+x_{i,j+1}+x_{i,j-1}}{4} – x_{i,j}\].

Agora parece mais claro. O laplaciano é proporcional à diferença entre o valor em um ponto e a média de seus vizinhos. Isso nos leva à ideia de concentração, se o laplaciano for muito negativo em um ponto, podemos entender que o valor do campo nesse ponto é muito maior que a média de seus vizinhos, ou seja, sua vizinhança apresenta um descrescimento alto em alguma direção que está puxando a média para baixo.

Encontramos essa ideia na física em diversas circunstâncias. Uma onda, por exemplo, é um sistema que representa “coesão” entre seus elementos, puxe uma ponta de uma corda para cima e para baixo e esse puxão irá se propagar pela corda. O que acontece nesses sistemas coesos é que cada elemento é fortemente puxado por seus vizinhos e supomos que todos os vizinhos puxam igualmente, ou seja, o elemento sobe se a média dos vizinhos estiver acima dele e desce se a média dos vizinhos estiver abaixo dele. Não somente isso, a força com que ele é puxado deve ser proporcional a essa diferença. E com força eu digo aceleração, já que nem todas as ondas são mecânicas e o conceito de força não se aplicaria tanto a elas. Em outras palavras: a aceleração do elemento será proporcional à diferença entre sua altura e a altura média de seus vizinhos. Não por menos, a equação de onda deve ser:

\[\frac{d^2X}{dt^2}+k^2\nabla^2X=0\]

E isso explica a equação de onda ser o que é. Todo sistema coeso deve obedecer a esse sistema, toda perturbação sua propagar-se-á de acordo com essa equação, desde que cada elemento seja puxado ou empurrado por seus vizinhos igualmente.

Folheando um livro de física-matemática, você pode se deparar com teoremas como “As soluções da equação de Laplace não possuem máximo ou mínimo locais no interior de seu domínio, apenas nas bordas.”. Pensando um pouco, isso é bem evidente. Se $ \nabla^2 X = 0$, que é a equação de Laplace, então todo ponto deve ser a média de seus vizinhos, pois a diferença entre eles é sempre nula. Ora, nenhuma média pode ser maior ou menor que nenhuma de suas parcelas, então um ponto de uma solução da equação de Laplace não pode mesmo ser nem mínimo, nem máximo.

E, com isso, fica bem mais fácil entender algumas propriedades e algumas fórmulas que contêm esse triângulo ao quadrado. Em cálculo de várias variáveis, as melhores analogias costumam estar na mecânica dos fluidos ou no eletromagnetismo, não hesite em procurar.