Se uma formiga é transportada de sua colônia para outra da mesma espécie em outro lugar, ela será vista como inimiga ou integrada à colônia?

Leia minha resposta original no Quora.

As formigas dependem muito de odores e feromônios, então uma formiga com um cheiro diferente será vista como um inimigo invasor.

Mesmo formigas da mesma espécie podem ter odores diferentes. Apesar disso, há as chamadas megacolônias, com várias rainhas diferentes e que convivem em sociedade. Também há algumas formigas com os mesmos odores, mas outros traços distintivos — como os feromônios — faz com que elas se ataquem.

Uma formiga solitária provavelmente andará por aí até morrer, incapaz de reencontrar seu lar. Um grupo de formigas transportado para outra colônia causará o início de uma grande guerra. Se você tiver uma pitada de sadismo científico, pode fazer esse teste!

Como será a destruição da Terra quando o Sol se expandir?

Leia minha resposta original no Quora.

A cada 1 bilhão de anos que se passa, o Sol fica 10% mais brilhante, em média. Mesmo essa alteração já pode significar o fim da vida na Terra. É o suficiente para começar a evaporar a água dos oceanos e rios, o que fará com que o vapor fique preso na atmosfera e aumente o efeito estufa.

Com isso, tudo ficará mais quente, o que evaporará mais água e piorará o efeito. É extremamente provável que a Terra acabe ficando como Vênus com o tempo.

Com 4 bilhões de anos, o Sol estará acima de 40% mais brilhante, e toda a água já terá sido evaporada e partida em hidrogênio e oxigênio, que escaparão da atmosfera. A Terra vai, aos poucos, se tornar uma rocha estéril e insuportavelmente quente.

Até 5 bilhões de anos no futuro, o Sol se tornará uma gigante vermelha, quando terminar de consumir o hidrogênio que existe na estrela (ele consome 600 milhões de toneladas de hidrogênio por segundo!).

Ele começará a perder suas camadas externas, e perderá um pouco da sua força gravitacional. Marte e os planetas mais distantes devem escapar, mas a Terra provavelmente será engolida. E, mesmo que escape também, o calor imenso será completamente insuportável para a vida, a Terra será uma massa frita.

Quando acabar o combustível, o Sol começará a pulsar, perdendo as camadas exteriores até que reste somente um núcleo denso e quente. Ao fim do processo, ele se tornará uma anã branca, que esfriará até não restar nada.

O gel antisséptico realmente mata 99,9% dos germes? Como podem provar isso?

Leia minha resposta original no Quora.

Resposta curta: eles usam o produto em uma superfície coberta de bactérias, e menos que 1 entre 10.000 células sobrevivem. Portanto, podem dizer que o gel é 99,99% eficaz. Simples assim.

Resposta longa: primeiro, é importante apontar que “mata 99,99% das bactérias” não significa que ele mata todas as 99,99% das espécies de bactérias conhecidas, nem nada do tipo. Isso é apenas o número de células presentes em uma superfície. Então, o produto não está dizendo nada específico sobre o tipo de bactéria contra a qual ele é eficaz — não é que eles sabem de uma espécie em particular que não morre enquanto as outras sim. O gel antisséptico tem uma ação ampla, e não vão muito longe quanto a alvos específicos como um antibiótico. Seus ingredientes ativos são vários tipos de álcool… que geralmente matam os seres vivos por desnaturar as proteínas.

O 99,99% é apenas devido à metodologia para testar esses produtos. Eles estão dizendo que, depois da administração do gel, menos de 1 célula em 10.000 permanecem — isso é muito bom!

Se você quisesse uma eficiência de 100%, com todas as bactérias mortas, você poderia tentar colocar a mão em um alvejante, ou um lança-chamas… mas nem um nem o outro vai deixar sua mão em bom estado. Por isso, o álcool-gel é um bom meio do caminho entre a eficácia e a saúde da sua pele.

Precisamos abrir a caixa preta dos algoritmos

Por alguns anos da década de 80, candidatos à Faculdade de Medicina do Hospital St. George em Londres foram selecionados por um método high-tech. Um programa de computador, um dos primeiros do tipo, fazia a primeira avaliação de seus currículos, fazendo a seleção inicial de cerca de 2.000 candidatos a cada ano. O programa analisava os históricos de contratações para entender as características de candidaturas bem sucedidas, e era ajustado até que suas decisões batessem com as feitas pela equipe de admissões.

Mas o programa aprendeu a procurar por mais que boas notas e sinais de excelência acadêmica. Quatro anos depois dele ser implementado, dois médicos do hospital descobriram que o programa tendia a rejeitar candidatas do sexo feminino e aqueles com nomes que não soavam europeus, independentemente do mérito acadêmico. Cerca de 60 candidatos a cada ano podem ter perdido uma entrevista simplesmente por causa do gênero ou da etnia, descobriram os médicos. O programa havia incorporado o gênero e parcialidades raciais nos dados utilizados para treiná-lo — essencialmente, foi ensinado que mulheres e estrangeiros não serviam para ser médicos.

Três décadas depois, estamos enfrentando um problema parecido, mas os programas com parcialidades internalizadas agora estão mais espalhados e fazem decisões muito mais importantes. Algoritmos de inteligência artificial que utilizam do aprendizado de máquina agora são usados por todos os lados, de instituições governamentais a sistemas de saúde, auxiliando na tomada de decisões ao fornecer previsões baseadas em dados históricos. Ao aprender padrões com os dados, eles também absorvem parcialidades, e as perpetuam. O Google, por exemplo, mostrou mais anúncios de vagas que pagam menos a mulheres do que homens, a entrega no mesmo dia da Amazon ignorava bairros com predominância negra, e o software de vários tipos de câmera digital tinha dificuldade em reconhecer os rostos de usuários que não eram brancos. Em um dos exemplos mais surpreendentes, foi descoberto que um algoritmo chamado COMPAS, usado por agências policiais em vários estados dos EUA para avaliar o risco de reincidência de um réu, estava selecionando erroneamente indivíduos negros quase duas vezes mais que brancos, de acordo com uma investigação da ProPublica.

É difícil descobrir quando um algoritmo é parcial ou justo, até mesmo para especialistas da computação. Um motivo é que os detalhes por trás da criação de um algoritmo são frequentemente considerados informação confidencial, e intimamente guardados por seus donos. Em casos mais avançados, os algoritmos são tão complexos que até mesmo seus criadores não sabem como ele funciona, exatamente. Esse é o problema da inteligência artificial chamado de caixa preta — nossa falta de habilidade de observar o interior de um algoritmo e entender como ele chega a uma decisão. Se isso não for solucionado, pode devastar nossas sociedades ao garantir que a discriminação histórica, que muitos se esforçaram para deixar para trás, seja codificada no nosso futuro.

Essas preocupações, sussurradas entre comunidades menores da ciência da computação por alguns anos, estão agora entrando no palco do ramo. Nos últimos dois anos, a área da computação viu um aumento enorme no número de publicações sobre justiça na inteligência artificial. Com essa consciência, também há um crescente sentimento de responsabilidade. “Há coisas que simplesmente não deveríamos criar?” pergunta Kate Crawford, pesquisadora da Microsoft e co-fundadora do AI Now Institute na Universidade de Nova York, em um discurso recente.

“O aprendizado de máquina finalmente entrou no palco principal. Agora estamos tentando usá-lo para centenas de propósitos diferentes no mundo real,” diz Rich Caruana, pesquisador-sênior da Microsoft. “É possível que as pessoas implementem algoritmos danosos que podem se acumular e causar um grande impacto na sociedade no longo termo… Agora é como se, de repente, todos estejam cientes de que esse é um importante novo capítulo em nosso campo.”

Montagem por Tag Hartman-Simkins; Getty Images

O algoritmo me fez fazer isso

Temos usado algoritmos há muito tempo, mas o problema da caixa preta é, de certa forma, sem precedentes. Algoritmos mais antigos eram mais simples e transparentes. Muitos deles ainda são usados — por exemplo, a pontuação de crédito do Serasa. Para cada novo uso, a regulamentação seguiu.

“As pessoas têm usado algoritmos de pontuação de crédito por décadas, mas nessas áreas houveram regulamentos robustos que se desenvolveram junto a esses algoritmos de previsão,” diz Caruana. Esses regulamentos garantem que os algoritmos de previsão forneçam uma explicação para cada pontuação: você foi reprovado porque seus balanços de empréstimo estão muito altos, ou porque sua renda é muito baixa.

Os regulamentos que previnem que empresas de pontuação de crédito usem algoritmos injustos não estão presentes em outras áreas, como o meio legal e a publicidade. Você pode não saber por que foi negado um empréstimo ou perdeu uma oportunidade de emprego, porque ninguém força o dono do algoritmo a explicar como ele funciona. “Mas sabemos que [pelos algoritmos] serem treinados com dados do mundo real, eles têm que ser parciais — porque o mundo real é parcial,” diz Caruana.

Considere o idioma, por exemplo — uma das fontes mais óbvias da parcialidade. Quando algoritmos aprendem de texto redigido, eles fazem algumas associações entre palavras que aparecem juntas com mais frequência. Aprendem, por exemplo, que “homem está para programador assim como mulher está para dona de casa.” Quando esse algoritmo recebe a tarefa de encontrar o currículo certo para uma vaga de programador, ele tenderá a escolher mais candidatos homens que mulheres.

Problemas como esse são relativamente fáceis de corrigir, mas muitas empresas simplesmente não se dão ao trabalho de fazer isso. Ao contrário, escondem essas inconsistências atrás do escudo da informação proprietária. Sem acesso aos detalhes de um algoritmo, em muitos casos até mesmo especialistas não conseguem determinar se a parcialidade existe ou não.

Por conta dos algoritmos serem tão secretos e fora da jurisdição da regulamentação, é praticamente impossível que a população faça uma ação contra os criadores. Aqueles que tentaram não chegaram muito longe. Em 2016, o supremo tribunal do Wisconsin negou o pedido de um homem de avaliar a estrutura interna do COMPAS. O homem, Eric L. Loomis, foi sentenciado a seis anos de prisão parcialmente porque o COMPAS o considerou de “alto risco.” Loomis diz que seu direito a julgamento imparcial foi violado pela confiança do juiz em um algoritmo opaco. Uma apelação final para levar o caso à Suprema Corte americana fracassou em junho de 2017. Em outro caso, dois professores de Direito passaram um ano sondando os estados para entender como eles pontuam no sistema criminal. A única coisa que a investigação confirmou é que essa informação é muito bem escondida por trás de contratos de confidencialidade.

Mas empresas reservadas podem não aproveitar dessa liberdade eternamente. Em março, a União Europeia decretará leis que exigirão que empresas expliquem aos clientes que perguntarem como seus algoritmos funcionam e tomam decisões.

Os EUA não tem legislação do tipo em discussão. Mas há sinais de que a maré possa estar mudando em direção à fiscalização regulatória. Em dezembro de 2017, o Conselho da cidade de Nova York assinou uma lei que estabelece uma força-tarefa que estudará algoritmos usados por agências municipais e explorará formas de tornar compreensíveis os processos de tomada de decisão ao público.

Forênsica da Caixa Preta

Com reguladores se envolvendo ou não, uma mudança cultural no desenvolvimento e implementação de algoritmos pode reduzir a onipresença de algoritmos parciais. Ao passo que mais companhias e programadores se comprometerem a tornar seus algoritmos transparentes e explicáveis, alguns esperam que as empresas que não o fazem serão acusadas e perderão o apoio do público.

Recentemente, o crescimento do poder computacional possibilitou a criação de algoritmos que são tanto precisos quanto explicáveis — um desafio técnico que desenvolvedores tiveram dificuldades em superar historicamente. Estudos recentes mostram que é possível criar modelos explicáveis que preveem se criminosos serão reincidentes de forma tão precisa quanto as versões caixa preta como o COMPAS.

“A pesquisa está lá — sabemos como criar modelos que não são caixas pretas,” diz Cynthia Rudin, professora-associada de ciência da computação e de engenharia elétrica e de computação da Universidade Duke. “Mas há alguma dificuldade em fazer que esse trabalho seja percebido. Se as agências governamentais pararem de pagar por modelos caixa preta, ajudaria. Se os juízes recusarem o uso de modelos caixa preta para sentenças, também ajudaria.”

Outros estão trabalhando para encontrar formas de testar a imparcialidade de algoritmos criando um sistema de checagem antes de lançar o algoritmo ao mundo, da mesma forma que novos remédios precisam passar por testes clínicos.

“O que está acontecendo agora é que os modelos estão sendo feitos muito rapidamente e então são implementados. Não há checagem adequada durante o processo ou requerimentos para avaliá-los no mundo real por um período de testes,” diz Sarah Tan, doutoranda em Estatística na Universidade Cornell.

O ideal seria que desenvolvedores limpassem parcialidades conhecidas — como aquelas de gênero, idade e etnia — dos dados de treinamento, e fizessem simulações internas para encontrar outros problemas dos algoritmos que possam acabar surgindo.

Enquanto isso, antes de chegar ao ponto em que todos os algoritmos são rigorosamente testados antes do lançamento, há formas de identificar quais possam sofrer de parcialidade.

Em um estudo recente, Tan, Caruana e seus colegas descreveram uma nova forma de entender o que pode estar acontecendo sob o capô de algoritmos caixa preta. A equipe criou um modelo que imita um algoritmo caixa preta como o COMPAS ao treiná-lo com a pontuação de risco de reincidência que o COMPAS emitia. Também criaram outro modelo que treinaram nos dados do mundo real que mostram se aquela reincidência prevista realmente aconteceu. As comparações entre os dois modelos permitiram que os pesquisadores avaliassem a precisão da pontuação prevista sem dissecar o algoritmo. As diferenças nos resultados dos dois modelos podem revelar quais variáveis, como etnia ou idade, podem ter tido mais importância em um modelo ou outro. Suas descobertas estão alinhadas ao que o ProPublica e outros pesquisadores encontraram — que o COMPAS é parcial contra indivíduos negros.

Poderiam haver grandes benefícios em corrigir essas parcialidades. Algoritmos, se criados de forma adequada, têm o poder de apagar antigas parcialidades na justiça criminal, policiamento e muitas outras áreas da sociedade.

“Se trabalharmos nisso e conseguirmos reduzir a parcialidade, poderemos ter um círculo virtuoso de retorno, onde os algoritmos podem lentamente nos ajudar a nos tornarmos menos parciais como sociedade,” diz Caruana.

Traduzido do site Futurism.

Molécula sintética poderia resolver o problema de superbactérias

Resumo:

Na luta contra superbactérias, pesquisadores descobriram uma forma de prevenir que genes que carregam resistência a antibióticos se espalhem. A equipe já está trabalhando em desenvolver inibidores para serem usados em um cenário clínico.

Prevenção da transferência

A resistência a antibióticos em bactérias, que inclui tanto as comuns quanto as chamadas superbactérias, é um problema sério e mundialmente conhecido. Na verdade, a Organização das Nações Unidas elevaram a questão a nível crítico há quase um ano, e a Organização Mundial de Saúde (OMS) alerta que o problema está se agravando rapidamente.

Há inúmeras possíveis respostas à resistência a antibióticos, e pesquisadores da Universidade de Montreal (UdeM) no Canadá podem ter encontrado mais uma solução em potencial. Em um estudo publicado na revista Scientific Reports no início de Novembro, essa equipe de pesquisadores do departamento de Bioquímica e Medicina Molecular da UdeM exploraram um método que poderia bloquear a transferência de genes resistentes aos antibióticos.

Os pesquisadores focaram em impedir um mecanismo que permite que genes resistentes a antibióticos sejam codificados nos plasmídeos — fragmentos de DNA que podem carregar genes que codificam as proteínas que tornam a bactéria resistente. Concretamente, encontraram os pontos de ligação exatos para essas proteínas, que são essenciais na transferência de plasmídeos. Isso permitiu que eles desenvolvessem moléculas químicas mais potentes que reduzem a transferência de plasmídeos carregando genes resistentes aos antibióticos.

“A ideia é ser capaz de encontrar o ‘ponto fraco’ em uma proteína, torná-lo alvo e ‘cutucá-lo’ para que a proteína não possa funcionar,” diz Christian Baron, vice-reitor da área de pesquisa e desenvolvimento da faculdade de Medicina da UdeM, em um comunicado de imprensa. “Outros plasmídeos têm proteínas parecidas, alguns tem proteínas diferentes, mas acho que o valor do nosso estudo no TraE é que, sabendo a estrutura molecular dessas proteínas, podemos criar métodos para impedir seu funcionamento.”

Uma proteína mortal

Os efeitos de bactérias resistentes a antibióticos são bem auto-explicativos. Antibióticos continuam sendo uma peça vital da medicina moderna, e quando se tornarem ineficazes, o que nos restará serão superbactérias causadoras de doenças que são muito mais difíceis de tratar e controlar. Antibióticos também são usados como tratamento profilático durante cirurgias e terapias contra o câncer.

De acordo com um relatório de uma comissão especial criada no Reino Unido em 2014 e chamada Revisão da Resistência Antimicrobial, bactérias resistentes à remédios poderiam ceifar a vida de cerca de 10 milhões de pessoas até 2050. Não é muito difícil imaginar, já que bactérias resistentes aos antibióticos infectam 2 milhões de pessoas por ano somente nos EUA, de acordo com o Centro de Controle e Prevenção de Doenças (CDC), e ao menos 23.000 desses casos são fatais. Adicionalmente, a OMS relata que há cerca de 480.000 casos de tuberculose com resistência a múltiplas drogas no mundo a cada ano.

Em resumo, a resistência a antibióticos é um problema que precisamos resolver o mais cedo possível, começando por agora. Felizmente, há diversos grupos trabalhando nessa questão, e com uma variedade de estratégias. Alguns estão usando a edição genética do CRISPR para desenvolver nanorrobôs sintéticos que focam especificamente em bactérias resistentes, e há esforços sendo feitos para criar “super-enzimas” que batalhem com as superbactérias. Enquanto isso outras pessoas, como os pesquisadores da UdeM, estão focados em compreender melhor o funcionamento das bactérias para desenvolver métodos que as deixem mais suscetíveis aos antibióticos.

O CDC já investiu mais de US$ 14 milhões (R$ 45 milhões) para financiar pesquisas sobre a resistência a antibióticos, e em breve devemos ver esses esforços se tornando frutíferos. Isso levará tempo, obviamente, mas poderia ajudar a acelerar o passo da criação de novos remédios. Como Baron disse, “as pessoas devem ter esperança. A ciência trará novas ideias e novas soluções para este problema. Há uma grande mobilização acontecendo no mundo agora a respeito dessa questão. Não diria que me sinto a salvo, mas é nítido que estamos tendo progresso.”

Traduzido do site Futurism.

Cientistas querem criar um universo… e na verdade poderiam

Resumo

Cientistas estão discutindo seriamente a possibilidade de criar um novo universo no laboratório. É uma discussão na maior parte filosófica, mas cada vez mais cientistas concordam que poderia ser possível algum dia.

Físicos não são frequentemente repreendidos por usarem um humor mais ácido em seus textos acadêmicos, mas em 1991 foi exatamente isso que aconteceu ao cosmólogo Andrei Linde na Universidade de Stanford. Ele havia enviado um artigo-resumo entitulado “Conceito Básico da Criação de um Universo” (tradução livre) à revista Nuclear Physics B. Nesta dissertação, ele apontou para a possibilidade de criar um universo em laboratório: um novo cosmos inteiro que poderia um dia evoluir suas próprias estrelas, planetas e vida inteligente. Perto do fim do texto, Linde fez uma sugestão aparentemente irreverente de que nosso próprio universo poderia ter sido montado por um “físico hacker” alienígena. A mesa que julgou a tese fez objeção à sua “piada de mal gosto”; pessoas religiosas poderiam se ofender que cientistas tivessem o objetivo de roubar o feito de criador do universo das mãos de Deus, preocuparam-se. Linde mudou o título da tese e o resumo, mas manteve-se firme em apontar que nosso universo poderia ter sido feito por um cientista alienígena. “Não tenho tanta certeza de que isso seja só uma piada,” ele me disse.

Um quarto de século depois e a noção de criar um universo – ou “cosmogênese”, como eu chamo – parece menos cômica que nunca. Viajei pelo mundo conversando com físicos que levam o conceito a sério, e que até mesmo projetaram diretrizes rasas de como a humanidade poderia um dia chegar lá. A mesa de Linde poderia estar certa em se preocupar, mas estavam fazendo as perguntas erradas. A questão não é quem se ofenderia com a cosmogênese, mas o que aconteceria se fosse realmente possível. Como iríamos lidar com as implicações teológicas? Que responsabilidades morais viriam com humanos falhos assumindo o papel de criadores cósmicos?

Físicos teóricos se agarraram por anos com perguntas parecidas, como parte de suas considerações sobre como nosso universo começou. Nos anos 80, o cosmólogo Alex Vilenkin da Universidade de Tufts, em Massachusetts, desenvolveu um mecanismo através do qual as leis da mecânica quântica poderiam ter gerado um universo em expansão de um estado em que não havia tempo, nem espaço e nem matéria. Há um princípio estabelecido na teoria quântica de que pares de partículas podem surgir temporariamente de um espaço vazio de forma espontânea. Vilenkin foi ainda além dessa noção, argumentando que regras quânticas também poderiam permitir que uma bolha minúscula do próprio espaço estourasse na existência a partir do nada, com o ímpeto de então inflar-se a escalas astronômicas. Nosso cosmos poderia, portanto, ter sido arrotado à existência através, somente, das leis da Física. Para Vilenkin, este resultado pôs um fim à questão do que veio antes do Big Bang: nada. Muitos cosmólogos estão em paz com a ideia de um universo sem um evento inicial, divino ou de qualquer outra origem.

Do outro lado do espectro filosófico, conheci Don Page, um físico e cristão evangélico da Universidade de Alberta, no Canadá, conhecido por sua colaboração primordial com Stephen Hawking no estudo da natureza dos buracos negros. Para Page, o ponto pertinente é que Deus criou o universo ex nihilo – do nada absoluto. Contrastando com isso, o tipo de cosmogênese envisionado por Linde precisaria que físicos cozinhassem seu cosmos em um laboratório altamente tecnológico, usando um primo muito mais poderoso do Grande Colisor de Hádrons próximo a Genebra. Também seria necessária uma partícula seminal chamada “monópolo” (que existe hipoteticamente de acordo com alguns modelos da Física, mas ainda precisa ser encontrada).

A ideia é que se pudéssemos concentrar energia suficiente a um monópolo, ele começaria a inchar. Ao invés de crescer em tamanho dentro do nosso universo, o monópolo em expansão encurvaria o espaço-tempo dentro do acelerador para criar um minúsculo buraco de minhoca que levaria a uma região separada do espaço. De dentro de nosso laboratório, poderíamos ver só a entrada do buraco; pareceria ser, para nós, um mini-buraco negro, tão pequeno que seria totalmente inofensivo. Mas se pudéssemos viajar através dele, passaríamos por um portal até um universo recém-nascido em rápida expansão que nós mesmos haveríamos criado (um vídeo ilustrando este processo fornece alguns dados a mais).

Não temos motivos para acreditar que os hackers mais avançados da Física poderiam criar um cosmos a partir de absolutamente nada, argumenta Page. O conceito de Linde da cosmogênese, audaz como for, ainda é fundamentalmente técnico. Page, portanto, vê pouca ameaça à sua fé. Nesta primeira questão, afinal, a cosmogênese não necessariamente alienaria os pontos de vista teológicos existentes.

Figura artística ilustrando o conceito de um universo “bolha” alternativo onde nosso universo (esquerda) não é o único. Alguns cientistas acreditam que universos-bolha podem surgir a qualquer momento, e ocasionalmente cutucam o nosso. NASA/JPL-Caltech/R. Hurt (IPAC)

Considerando o problema por outra ótica, comecei a me perguntar: quais são as implicações de humanos ao menos considerarem a possibilidade de um dia criar um universo que seria habitado por vida inteligente? Como discuto em meu livro A Big Bang in a Little Room (2017) (“Um Big Bang em um Pequeno Cômodo”, tradução livre), teorias atuais sugerem que, ao passo que criarmos um novo universo, teríamos pouca capacidade de controlar sua evolução ou potencial sofrimento de qualquer um de seus residentes. Isso não faria de nós deuses irresponsáveis e negligentes? Propus a questão a Eduardo Guendelman, físico na Universidade Ben Gurion de Israel, e que foi um dos arquitetos do modelo da cosmogênese nos anos 80. Hoje, Guendelman está focado em pesquisas que poderiam trazer a criação de mini-universos a conceitos práticos. Me surpreendi ao constatar que as questões morais não causavam desconforto algum a ele. Guendelman compara cientistas que ponderam suas responsabilidades ao criar um mini-universo com pais tentando decidir se vão ou não ter filhos, sabendo que inevitavelmente os introduzirão a uma vida cheia de dor, assim como alegria.

Outros físicos ficam mais preocupados. Nobuyuki Sakai da Universidade Yamaguchi, Japão, um dos teóricos que propôs que um monópolo poderia servir como semente de um mini-universo, admite que a cosmogênese é uma questão nebulosa com a qual deveríamos nos “preocupar” como sociedade no futuro. Mas se absteve de quaisquer preocupações éticas hoje. Embora ele esteja fazendo cálculos que poderiam permitir a cosmogênese, aponta que serão décadas até que um experimento de tal tipo possa realmente ser feito. Preocupações éticas podem esperar.

Muitos dos físicos que contatei ficaram relutantes em desenvolver questões tão potencialmente filosóficas. Então me dirigi a um filósofo, Anders Sandberg da Universidade de Oxford, que contempla as implicações morais de criar vida consciente artificial em simulações de computador. Ele argumenta que a proliferação da vida inteligente, independente da forma, pode ser vista como algo que tem valor inerente a ela. Nesse caso a cosmogênse pode ser, na verdade, uma obrigação moral.

Revendo as inúmeras conversas que tive com cientistas e filósofos sobre estas questões, concluí que os editores da Nuclear Physics B fizeram um desserviço tanto à Física quanto à Teologia. Seu pequeno ato de censura só serviu para pausar uma discussão importante. O verdadeiro perigo está em fomentar um ar de hostilidade entre os dois lados, deixando cientistas com medo de falar honestamente sobre as consequências éticas e religiosas de seus trabalhos por preocuparem-se com a repreensão profissional ou com a ridicularização.

Não criaremos mini-universos tão cedo, mas cientistas em todas as áreas de pesquisa devem se sentir capazes de articular livremente as implicações de seus trabalhos sem medo de ofender. A cosmogênese é um exemplo extremo que testa esse princípio. Questões éticas paralelas estão em pauta nas propostas de mais curto-prazo de criar inteligências artificiais ou desenvolver novos tipos de armas, por exemplo. Como Sandberg coloca, embora seja compreensível que cientistas se acanhem perante a filosofia, com medo de serem considerados estranhos por irem além de suas zonas de conforto, o resultado indesejado é que muitos ficam quietos sobre coisas que realmente importam.

Ao deixar o escritório de Linde em Stanford, depois de passarmos o dia papeando sobre a natureza de Deus, o cosmos e mini-universos, ele apontou para minhas anotações e comentou, pesarosamente: “Se você quiser destruir minha reputação, acho que tem material o suficiente.” Este sentimento foi ecoado por certo número de cientistas que conheci, tendo eles se identificado como ateus, agnósticos, religiosos ou nenhum dos três. A ironia é que se eles se sentissem permitidos a compartilhar seus pensamentos uns com os outros tão abertamente quanto se sentiram comigo, saberiam que não estavam sós entre seus colegas ao ponderar sobre algumas das grandes questões do nosso ser.

Zeeya Merali

Traduzido por Cláudio Ribeiro. Texto original retirado do site Aeon.

O que aconteceu de bom em 2015?

Guerras, terrorismo, ataques, bombas, mortes, preconceito, protestos, radicais, extremistas, corrupção, pobreza, intolerância, fascismo, desastres naturais e o aquecimento global. Eu ainda devo ter esquecido de muita coisa que tivemos que superar em 2015 para seguir em frente. E às vezes isso dá aquela sensação enorme de que tivemos um ano perdido, que nada avançou e de que a humanidade está sucumbindo ao caos. Mas muita coisa boa aconteceu também. Que tal sairmos desse ano satisfeitos com progresso? Vamos recapitular:

Que tal este ano, afinal?

Entre outras tantas centenas e centenas de notícias boas que recebemos este ano, sem contar as pessoais (novos nascimentos nas nossas famílias, casamentos e conquistas de parentes e amigos), acho que pelo menos um pouco de mudança no foco pode nos ajudar a tirar aquele gostinho ruim da boca. Talvez é nossa mídia que tenha que ser ampliada.

Feliz 2016!