No dia 12 de março, uma quinta-feira, um grupo de cientistas apresentou à cúpula do governo britânico um estudo, baseado num modelo matemático desenvolvido pelo Imperial College, com previsões dramáticas a respeito da evolução dos casos de Covid-19 no Reino Unido. De acordo com as simulações, morreriam algo como 510 mil pessoas se a epidemia seguisse seu curso normal. Mesmo com ações de mitigação comuns nesse tipo de epidemia, haveria 250 mil mortes.
A equipe científica, especialistas de diversas instituições sob a liderança do epidemiologista Neil Ferguson, recomendava, para evitar o colapso do sistema de saúde do país, uma estratégia que o estudo chamou de supressão: isolamento radical e suspensão de toda atividade não essencial, como fora feito no epicentro da epidemia, a província chinesa de Hubei (leia mais aqui). As diferentes simulações da supressão reduziam a previsão de mortes a uma faixa que variava de 9 mil a 98 mil.
Depois da recomendação, o governo do premiê Boris Johnson deu uma guinada em sua estratégia, que antes buscava isolar apenas os grupos sob maior risco de morrer se contraíssem o novo coronavírus. Em vez de deixar o vírus circular para que, aos poucos, a parcela imune da população reduzisse a velocidade de contágio, Boris decretou na semana seguinte um “lockdown” que ainda persiste entre os britânicos.
Menos de duas semanas depois, no dia 25 de março, o mesmo Neil Ferguson prestou um depoimento à distância ao Parlamento britânico em que afirmou esperar que o número de mortos no Reino Unido chegaria perto de 20 mil. A imprensa não tardou a cobrar-lhe coerência. Como era possível o mesmo cientista fazer previsões tão distintas com apenas poucos dias de distância?
Leia mais artigos de Hélio Gurovitz
No dia seguinte, 26 de março, a equipe de Ferguson revelou as simulações globais do modelo. Pelas previsões, as mortes no Brasil chegariam a 1,1 milhão num cenário em que a epidemia corresse livre. Ficariam em torno de 627 mil com medidas de distanciamento social leves. Cairiam a 530 mil com isolamento só dos idosos. Apenas a tal supressão seria capaz de reduzi-las a 44 mil.
Diante de cenários tão díspares, que tipo de conclusão dá para extrair de tais números? Que dizer dos modelos usados pelo governo americano, em que o cenário otimista prevê entre 100 mil e 230 mil mortos? Ou daqueles usados pelos governos da Holanda ou Nova Zelândia para justificar suas estratégias de combate à Covid-19?
A resposta é um bordão entre os matemáticos e estatísticos que fazem essas contas: modelos devem ser levados a sério, mas não ao pé da letra. Isso significa que, ao contrário do que sugerem manchetes elaboradas com base nos números que produzem, eles não existem para prever exatamente quantos pegarão a doença ou morrerão. Existem para que seja possível comparar o impacto de diferentes ações e decidir a melhor política a adotar – exatamente como fez o Reino Unido.
Sem modelos, as discussões ficam restritas ao achismo. Não são diferentes dos debates inócuos das redes sociais. Mas o fato de melhorarem o debate não implica que sejam oráculos. Eles são programados com premissas e hipóteses que variam de acordo com o tempo e a sociedade. A única forma de discutir com os resultados de um modelo é apresentar outro, com premissas e hipóteses melhores.
A maioria das simulações feitas para a Covid-19, entre elas a do Imperial College, deriva do modelo clássico, elaborado pelo britânico Ronald Ross e publicado em 1910, com base em suas pesquisas a respeito da malária. O modelo de Ross divide a população em três grupos que variam ao longo do tempo: suscetíveis, infectados e recuperados (por isso, é conhecido pela sigla SIR).
No primeiro grupo, são contados aqueles que ainda podem contrair a doença. No segundo, os que estão com a doença. No terceiro, aqueles que já se curaram ou morreram. Tal modelo foi depois expandido para incluir também um quarto grupo, os expostos ao patógeno causador da doença. A versão com os quatro grupos é chamada SEIR.
“Modelos matemáticos como o de Ross têm com frequência uma reputação de ser opacos ou complicados”, escreve o matemático e epidemiologista Adam Kucharski em seu livro mais recente, The rules of contagion (As regras do contágio). “Na essência, um modelo é apenas uma simplificação do mundo, projetada para nos ajudar a enxergar o que poderia acontecer em determinada situação.”
+ Eurípedes Alcântara: O sal da Terra
O objetivo de atribuir quantidades não é fazer previsões exatas, mas qualificar a discussão. Uma boa implementação do modelo SEIR está disponível no Shiny Apps do programador Gabriel Goh. Variando um pouco os parâmetros, é possível perceber a enorme diferença que uma única variável pode fazer, seja ela o número de dias que um paciente transmite a doença, quanto tempo fica no hospital ou o impacto do distanciamento social na velocidade de contágio (indicador conhecido como número de reprodução ou pela sigla R – leia mais a respeito aqui).
Grandes variações são intrínsecas à modelagem matemática, ainda mais numa situação em que a infecção cresce no início em ritmo exponencial e só cai na medida em que diminui o número de suscetíveis. “Modelar um processo exponencial produz necessariamente uma grande quantidade de resultados”, escreve na Atlantic a pesquisadora Zeynep Tufecki, da Universidade da Carolina do Norte. “A disseminação da doença depende de quando exatamente os casos param de dobrar. Poucos dias podem fazer uma diferença enorme.”
Além da qualidade dos dados que alimentam as simulações – necessariamente imperfeita para uma pandemia em evolução e para uma doença sobre a qual se sabe ainda pouco –, o modelo depende de testes e aprimoramentos para se tornar mais confiável. Pedir que garantam certeza, diz Tufecki, é um erro. “A epidemiologia nos fornece algo mais importante: a capacidade de identificar e calibrar nossas ações com o objetivo de determinar o que acontece no futuro.”
Quando a previsão catastrófica de um modelo não corresponde à realidade no futuro, não é necessariamente por ter havido erro. Ao contrário, é provável que modelo tenha servido de alerta às autoridades para agirem de modo a evitar a catástrofe. É esse, no fundo, o maior acerto a que um modelo matemático pode aspirar. Nenhum modelo acerta tanto quanto quando erra por ter se revelado pessimista demais e ter servido para evitar o pior.
Fonte: “G1”, 06/04/2020