O ponto sem volta
Stephen Hawking teme que seja questão de tempo até que a humanidade seja forçada a abandonar a Terra em busca de um novo lar. O famoso físico teórico já chegou a dizer que achava que a sobrevivência da humanidade depende da nossa habilidade de nos tornarmos uma espécie multi-planetária. Hawking reiterou — e na verdade, enfatizou — este ponto em uma entrevista recente com a WIRED, na qual ele argumenta que a humanidade chegou a “um ponto sem volta.”
Hawking disse que a necessidade de encontrar um segundo lar planetário para os humanos surge tanto graças às preocupações acerca da crescente população quanto pela ameaça iminente do desenvolvimento de inteligências artificiais (IA). Ele alertou que IAs em breve se tornarão super-inteligentes — potencialmente o suficiente para substituir a humanidade.
“O gênio saiu da lâmpada. Temo que IAs possam substituir humanos completamente,” disse Hawking à WIRED.
Certamente não é a primeira vez que Hawking faz um alerta tão grave. Em uma entrevista feita em março com o The New York Times, ele disse que um apocalipse das IAs é iminente, e a criação de “alguma forma de governo mundial” seria necessária para controlar a tecnologia. Hawking também alertou sobre o impacto que as IAs teriam nos trabalhos da classe média, e fez um apelo para que o desenvolvimento de agentes com IA para uso militar fosse banido por completo.
Uma nova forma de vida
Nos últimos anos, o desenvolvimento de IA se tornou um tópico amplamente dividido: alguns estudiosos deram argumentos parecidos aos de Hawking, incluindo o fundador e CEO da Tesla e da SpaceX, Elon Musk, e o co-fundador da Microsoft, Bill Gates. Tanto Musk quanto Gates veem potencial para o desenvolvimento de AIs acabar sendo a causa do fim da humanidade. Por outro lado, um grande número de estudiosos postularam que tais avisos são indução a um medo desnecessário, o que pode ser baseado em cenários exagerados de tomada de poder de IAs superinteligentes, e temem que tais previsões podem distorcer a percepção pública do que realmente é uma inteligência artificial.
Do ponto de vista de Hawking, os medos são válidos. “Se as pessoas criam vírus de computador, alguém vai criar uma IA que melhora e se replica sozinha,” disse ele na entrevista com a WIRED. “Será uma nova forma de vida mais eficiente que humanos.”
Hawking, pelo visto, estava se referindo ao desenvolvimento de uma IA que é inteligente o suficiente para pensar como, ou até melhor, que os humanos — um evento que já foi batizado de singularidade tecnológica. Em termos de quando isso acontecerá (se acontecer), Hawking não ofereceu, exatamente, uma previsão. Poderíamos supor que chegará em algum ponto do prazo máximo de 100 anos de sobrevivência humana na Terra estimados por Hawking. Outros, como o CEO da Softbank Masayoshi Son e o engenheiro-chefe do Google Ray Kurzweil, fazem uma previsão ainda mais imediatista — dentro dos próximos 30 anos.
Ainda estamos a milhas de distância de criar IAs realmente inteligentes, e ainda não sabemos exatamente o que a singularidade traria. Seria o arauto da destruição da humanidade ou a catapultaria a uma nova era onde humanos e máquinas coexistem? De toda forma, o potencial da IA para coisas boas e ruins pede por precauções necessárias.
Texto traduzido do site Futurism.