Estabilidade econômica deveria ser pre-requisito para ter filhos?

Leia minha resposta original no Quora.

Como seriam punidos os casais que engravidassem por acidente ou ignorando a lei? Aborto? Adoção forçada? Multas (que piorariam a situação)?

Como seriam definidos os valores? Propriedades? Salários? Um salário conjunto de São Paulo seria equivalente ao de João Pessoa?

E se a lei passasse a ser abusada para que minorias étnicas fossem subjugadas? Como seria o controle?

Como a renda é definida? Se os pais não têm, mas os avós sim, vale ou não vale? Tendo amigos no cartório, na justiça ou na política, algumas exigências seriam ignoradas?

A renda define a quantidade de filhos?

Várias perguntas, poucas respostas… Eu tenho só um palpite: não seria mais barato ensinar a Educação Sexual nas escolas, prevenindo filhos indesejados, casamentos indesejados, doenças sexualmente transmissíveis (que custam caro ao governo também) e garantindo o maior sucesso acadêmico e profissional dos jovens?

O aborto não é permitido ou visto com bons olhos em algumas religiões, mas será que permiti-lo para aqueles que NÃO seguem essas religiões não poderia ajudar a garantir o futuro de alguns brasileiros e brasileiras?

Vejo soluções melhores do que confiar no governo para ditar quantos filhos as pessoas podem ter, e sob quais condições.

Quais são os países que as pessoas costumam não gostar?

Leia minha resposta original no Quora.

Bangladesh tem uma população quase da do tamanho do Brasil, e que segue crescendo sem o maior controle em um espaço que é fração do tamanho do nosso país. Existe congestionamento, drogas, esgoto e uma completa falta de infraestrutura que faz os pelos dos braços ficarem em pé. Uma tristeza, mesmo, generalizado. Só o turista aventuroso gostaria de ir.

Iêmen

O Iêmen é um dos países mais lindos do mundo, pelas suas construções históricas e um povo muito receptivo, mas está lacrado em uma região péssima e impossibilitado de receber recursos, importar ou exportar. Estão sendo esganados, e por isso o crime cresce, a fome aumenta e tudo está definhando. Se acha que damos pouca atenção aos venezuelanos, imagina este povo…!

Níger

O Níger tem o pior IDH do mundo: só 0,354. Gangues, milícia, descontrole total do governo, conflitos étnicos, religiosos, falta de produção, educação, estruturas básicas. É o que deu errado da nova civilização. Talvez fossem mais felizes ainda em tribos. É o foco da comunidade mundial, hoje, tentar ajudar este país a ter um pouquinho de progresso.

Tem muito mais! Somália, Haiti, Samoa

Até a Rússia, e o Brasil, dependendo de onde você for, não vão ser suas melhores férias.

Precisamos abrir a caixa preta dos algoritmos

Por alguns anos da década de 80, candidatos à Faculdade de Medicina do Hospital St. George em Londres foram selecionados por um método high-tech. Um programa de computador, um dos primeiros do tipo, fazia a primeira avaliação de seus currículos, fazendo a seleção inicial de cerca de 2.000 candidatos a cada ano. O programa analisava os históricos de contratações para entender as características de candidaturas bem sucedidas, e era ajustado até que suas decisões batessem com as feitas pela equipe de admissões.

Mas o programa aprendeu a procurar por mais que boas notas e sinais de excelência acadêmica. Quatro anos depois dele ser implementado, dois médicos do hospital descobriram que o programa tendia a rejeitar candidatas do sexo feminino e aqueles com nomes que não soavam europeus, independentemente do mérito acadêmico. Cerca de 60 candidatos a cada ano podem ter perdido uma entrevista simplesmente por causa do gênero ou da etnia, descobriram os médicos. O programa havia incorporado o gênero e parcialidades raciais nos dados utilizados para treiná-lo — essencialmente, foi ensinado que mulheres e estrangeiros não serviam para ser médicos.

Três décadas depois, estamos enfrentando um problema parecido, mas os programas com parcialidades internalizadas agora estão mais espalhados e fazem decisões muito mais importantes. Algoritmos de inteligência artificial que utilizam do aprendizado de máquina agora são usados por todos os lados, de instituições governamentais a sistemas de saúde, auxiliando na tomada de decisões ao fornecer previsões baseadas em dados históricos. Ao aprender padrões com os dados, eles também absorvem parcialidades, e as perpetuam. O Google, por exemplo, mostrou mais anúncios de vagas que pagam menos a mulheres do que homens, a entrega no mesmo dia da Amazon ignorava bairros com predominância negra, e o software de vários tipos de câmera digital tinha dificuldade em reconhecer os rostos de usuários que não eram brancos. Em um dos exemplos mais surpreendentes, foi descoberto que um algoritmo chamado COMPAS, usado por agências policiais em vários estados dos EUA para avaliar o risco de reincidência de um réu, estava selecionando erroneamente indivíduos negros quase duas vezes mais que brancos, de acordo com uma investigação da ProPublica.

É difícil descobrir quando um algoritmo é parcial ou justo, até mesmo para especialistas da computação. Um motivo é que os detalhes por trás da criação de um algoritmo são frequentemente considerados informação confidencial, e intimamente guardados por seus donos. Em casos mais avançados, os algoritmos são tão complexos que até mesmo seus criadores não sabem como ele funciona, exatamente. Esse é o problema da inteligência artificial chamado de caixa preta — nossa falta de habilidade de observar o interior de um algoritmo e entender como ele chega a uma decisão. Se isso não for solucionado, pode devastar nossas sociedades ao garantir que a discriminação histórica, que muitos se esforçaram para deixar para trás, seja codificada no nosso futuro.

Essas preocupações, sussurradas entre comunidades menores da ciência da computação por alguns anos, estão agora entrando no palco do ramo. Nos últimos dois anos, a área da computação viu um aumento enorme no número de publicações sobre justiça na inteligência artificial. Com essa consciência, também há um crescente sentimento de responsabilidade. “Há coisas que simplesmente não deveríamos criar?” pergunta Kate Crawford, pesquisadora da Microsoft e co-fundadora do AI Now Institute na Universidade de Nova York, em um discurso recente.

“O aprendizado de máquina finalmente entrou no palco principal. Agora estamos tentando usá-lo para centenas de propósitos diferentes no mundo real,” diz Rich Caruana, pesquisador-sênior da Microsoft. “É possível que as pessoas implementem algoritmos danosos que podem se acumular e causar um grande impacto na sociedade no longo termo… Agora é como se, de repente, todos estejam cientes de que esse é um importante novo capítulo em nosso campo.”

Montagem por Tag Hartman-Simkins; Getty Images

O algoritmo me fez fazer isso

Temos usado algoritmos há muito tempo, mas o problema da caixa preta é, de certa forma, sem precedentes. Algoritmos mais antigos eram mais simples e transparentes. Muitos deles ainda são usados — por exemplo, a pontuação de crédito do Serasa. Para cada novo uso, a regulamentação seguiu.

“As pessoas têm usado algoritmos de pontuação de crédito por décadas, mas nessas áreas houveram regulamentos robustos que se desenvolveram junto a esses algoritmos de previsão,” diz Caruana. Esses regulamentos garantem que os algoritmos de previsão forneçam uma explicação para cada pontuação: você foi reprovado porque seus balanços de empréstimo estão muito altos, ou porque sua renda é muito baixa.

Os regulamentos que previnem que empresas de pontuação de crédito usem algoritmos injustos não estão presentes em outras áreas, como o meio legal e a publicidade. Você pode não saber por que foi negado um empréstimo ou perdeu uma oportunidade de emprego, porque ninguém força o dono do algoritmo a explicar como ele funciona. “Mas sabemos que [pelos algoritmos] serem treinados com dados do mundo real, eles têm que ser parciais — porque o mundo real é parcial,” diz Caruana.

Considere o idioma, por exemplo — uma das fontes mais óbvias da parcialidade. Quando algoritmos aprendem de texto redigido, eles fazem algumas associações entre palavras que aparecem juntas com mais frequência. Aprendem, por exemplo, que “homem está para programador assim como mulher está para dona de casa.” Quando esse algoritmo recebe a tarefa de encontrar o currículo certo para uma vaga de programador, ele tenderá a escolher mais candidatos homens que mulheres.

Problemas como esse são relativamente fáceis de corrigir, mas muitas empresas simplesmente não se dão ao trabalho de fazer isso. Ao contrário, escondem essas inconsistências atrás do escudo da informação proprietária. Sem acesso aos detalhes de um algoritmo, em muitos casos até mesmo especialistas não conseguem determinar se a parcialidade existe ou não.

Por conta dos algoritmos serem tão secretos e fora da jurisdição da regulamentação, é praticamente impossível que a população faça uma ação contra os criadores. Aqueles que tentaram não chegaram muito longe. Em 2016, o supremo tribunal do Wisconsin negou o pedido de um homem de avaliar a estrutura interna do COMPAS. O homem, Eric L. Loomis, foi sentenciado a seis anos de prisão parcialmente porque o COMPAS o considerou de “alto risco.” Loomis diz que seu direito a julgamento imparcial foi violado pela confiança do juiz em um algoritmo opaco. Uma apelação final para levar o caso à Suprema Corte americana fracassou em junho de 2017. Em outro caso, dois professores de Direito passaram um ano sondando os estados para entender como eles pontuam no sistema criminal. A única coisa que a investigação confirmou é que essa informação é muito bem escondida por trás de contratos de confidencialidade.

Mas empresas reservadas podem não aproveitar dessa liberdade eternamente. Em março, a União Europeia decretará leis que exigirão que empresas expliquem aos clientes que perguntarem como seus algoritmos funcionam e tomam decisões.

Os EUA não tem legislação do tipo em discussão. Mas há sinais de que a maré possa estar mudando em direção à fiscalização regulatória. Em dezembro de 2017, o Conselho da cidade de Nova York assinou uma lei que estabelece uma força-tarefa que estudará algoritmos usados por agências municipais e explorará formas de tornar compreensíveis os processos de tomada de decisão ao público.

Forênsica da Caixa Preta

Com reguladores se envolvendo ou não, uma mudança cultural no desenvolvimento e implementação de algoritmos pode reduzir a onipresença de algoritmos parciais. Ao passo que mais companhias e programadores se comprometerem a tornar seus algoritmos transparentes e explicáveis, alguns esperam que as empresas que não o fazem serão acusadas e perderão o apoio do público.

Recentemente, o crescimento do poder computacional possibilitou a criação de algoritmos que são tanto precisos quanto explicáveis — um desafio técnico que desenvolvedores tiveram dificuldades em superar historicamente. Estudos recentes mostram que é possível criar modelos explicáveis que preveem se criminosos serão reincidentes de forma tão precisa quanto as versões caixa preta como o COMPAS.

“A pesquisa está lá — sabemos como criar modelos que não são caixas pretas,” diz Cynthia Rudin, professora-associada de ciência da computação e de engenharia elétrica e de computação da Universidade Duke. “Mas há alguma dificuldade em fazer que esse trabalho seja percebido. Se as agências governamentais pararem de pagar por modelos caixa preta, ajudaria. Se os juízes recusarem o uso de modelos caixa preta para sentenças, também ajudaria.”

Outros estão trabalhando para encontrar formas de testar a imparcialidade de algoritmos criando um sistema de checagem antes de lançar o algoritmo ao mundo, da mesma forma que novos remédios precisam passar por testes clínicos.

“O que está acontecendo agora é que os modelos estão sendo feitos muito rapidamente e então são implementados. Não há checagem adequada durante o processo ou requerimentos para avaliá-los no mundo real por um período de testes,” diz Sarah Tan, doutoranda em Estatística na Universidade Cornell.

O ideal seria que desenvolvedores limpassem parcialidades conhecidas — como aquelas de gênero, idade e etnia — dos dados de treinamento, e fizessem simulações internas para encontrar outros problemas dos algoritmos que possam acabar surgindo.

Enquanto isso, antes de chegar ao ponto em que todos os algoritmos são rigorosamente testados antes do lançamento, há formas de identificar quais possam sofrer de parcialidade.

Em um estudo recente, Tan, Caruana e seus colegas descreveram uma nova forma de entender o que pode estar acontecendo sob o capô de algoritmos caixa preta. A equipe criou um modelo que imita um algoritmo caixa preta como o COMPAS ao treiná-lo com a pontuação de risco de reincidência que o COMPAS emitia. Também criaram outro modelo que treinaram nos dados do mundo real que mostram se aquela reincidência prevista realmente aconteceu. As comparações entre os dois modelos permitiram que os pesquisadores avaliassem a precisão da pontuação prevista sem dissecar o algoritmo. As diferenças nos resultados dos dois modelos podem revelar quais variáveis, como etnia ou idade, podem ter tido mais importância em um modelo ou outro. Suas descobertas estão alinhadas ao que o ProPublica e outros pesquisadores encontraram — que o COMPAS é parcial contra indivíduos negros.

Poderiam haver grandes benefícios em corrigir essas parcialidades. Algoritmos, se criados de forma adequada, têm o poder de apagar antigas parcialidades na justiça criminal, policiamento e muitas outras áreas da sociedade.

“Se trabalharmos nisso e conseguirmos reduzir a parcialidade, poderemos ter um círculo virtuoso de retorno, onde os algoritmos podem lentamente nos ajudar a nos tornarmos menos parciais como sociedade,” diz Caruana.

Traduzido do site Futurism.

A internet alterou os significados de “Verdade” e “Confiança”

Quando crianças, sempre nos dizem para evitar estranhos. Hoje, no entanto, nos sentimos confortáveis em entrar no carro deles pelo Uber ou 99pop, ou de ficar na casa deles pelo Airbnb. Ao passo que nosso entusiasmo em confiar no próximo cresceu, ele diminuiu em relação às instituições, de bancos a governos à mídia. Por que isso está acontecendo, e o que tem a ver com a onipresença da tecnologia?

Esse é o assunto de um novo livro chamando Who Can You Trust? How Technology Brought Us Together – and Why It Could Drive Us Apart (“Em quem você pode confiar? Como a tecnologia nos uniu – e por que ela pode nos afastar”, em tradução livre), publicado em 14 de novembro pela PublicAffairs. Sua autora, Rachel Botsman, é uma palestrante visitante da Escola Saïd de Administração da Universidade de Oxford, e uma das maiores experts em confiança do mundo. Ela recentemente conversou com o site Futurism sobre o que aprendeu a respeito da confiança, por que essa mudança é diferente de outras no passado, e como evitaremos um futuro distópico.

E entrevista foi editada levemente em busca de maior claridade e brevidade.

Pergunta: De onde veio a inspiração para o livro? Você começa falando da crise financeira de 2008, mas tenho a sensação de que essa foi só a ponta do iceberg em termos da desconfiança em instituições.

Rachel Botsman: Em 2009, publiquei meu primeiro livro, What’s Mine is Yours (“O que é meu é seu”, tradução livre), sobre a economia do compartilhamento. A parte que sempre me fascinou foi como a tecnologia possibilitava a confiança entre completos desconhecidos na internet para fazer ideias que deveriam ser consideradas arriscadas, como compartilhar uma casa ou uma carona, se tornassem difundidas. E então imergi na busca por compreender como a confiança na era digital realmente funciona. Através dessa pesquisa, descobri que meu interesse era muito mais amplo – queria entender como colocamos nossa fé nas coisas, o que influencia onde colocamos essa fé, e o que acontece quando nossa confiança é enfraquecida em sistemas como o financeiro ou o político. Então, comecei a me perguntar se a atual crise de confiança em instituições e a alta da tecnologia facilitando a mesma entre estranhos estavam conectadas de alguma forma.

Isso levou ao que considero ser a ideia central desse livro: que a confiança está indo de instituições para indivíduos. Senti que isso era um livro importante e atual porque já estamos vendo as consequências profundas dessa mudança de confiança, da influência na eleição presidencial americana ao Brexit no Reino Unido, de algoritmos aos bots.

P: A confiança está sendo perdida ou simplesmente trocando de lugar?

R: Não gosto dessa narrativa de que a confiança está em crise. Na verdade, é perigosa porque só serve para amplificar o ciclo de desconfiança. Confiança é como energia – não é destruída, muda de forma. Você precisa de confiança na sociedade para as pessoas colaborarem, fazerem transações – até mesmo para sair de casa. Uma sociedade não pode sobreviver, e definitivamente não pode prosperar sem confiança. Por um longe tempo na história, a confiança fluiu para cima até os CEOs, estudiosos, acadêmicos, economistas e reguladores. Agora isso está sendo invertido – a confiança está fluindo para os lados, entre indivíduos, “amigos,” colegas e estranhos. Há muita confiança por aí, só está sendo depositada em locais e pessoas diferentes.

Também é falso dizer que precisamos de mais confiança. Claro, podemos ter confiança demais nas pessoas erradas, nas coisas erradas. Podemos ceder nossa confiança facilmente demais.

Confiança é como energia – não é destruída, muda de forma. – Rachel Botsman

P: Instituições, claramente, são feitas de pessoas, e por isso é meio engraçado que estamos menos dispostos a confiar nessas instituições. Onde esse desacerto acontece?

R: Acho que é uma questão de escala, uma sensação de que organizações e instituições além de uma determinada escala perdem sua humanidade. Também é um problema quando as pessoas dentro da organização sentem como se estivessem servindo ao sistema ao invés das pessoas. Um grande problema de confiança se instala quando o sistema se torna tão grande que não há como as intenções da organização, não importa o quão bons sejam seus empregados ou a cultura, estarem alinhadas aos usuários ou consumidores. Você vê isso na indústria bancária — mesmo que um banco em particular seja generoso, tenha uma boa cultura de trabalho e empregados competentes, é muito difícil que consumidores olhem para aquele banco com lucros inimagináveis e digam, “Ah, vejo que suas intenções estão alinhadas às minhas.”

P: Tomei nota de suas menções de programas de TV, romances e filmes distópicos. Há algo sobre esse momento que faça a distopia parecer particularmente relevante?

R: Você precisa ver minhas recomendações do Netflix! Estamos atualmente vivenciando um vácuo de confiança que surge quando nossa confiança em fatos e na verdade é continuamente questionada. Um vácuo de confiança é criado, e isso é perigoso. O vácuo é preenchido por pessoas com planos próprios, vendendo a si mesmos com maestria como anti-estabelecimento, e dizendo seja qual for a mentira que agrade às sensibilidades anti-elitistas atualmente sentidas pelas pessoas. O crescimento do “anti-político” — de Nigel Farage a Donald Trump — é um indicador de que a maior mudança de confiança vista em uma geração está acontecendo. Em um vácuo, nos tornamos mais suscetíveis e vulneráveis a teorias da conspiração, a vozes diferentes que sabem como falar com os sentimentos das pessoas ao invés de fatos, a essa nova e tóxica forma de transparência. Aqueles que coçam a cabeça porque o mais qualificado candidato da história perdeu [uma eleição] estão ignorando uma crescente desconfiança das elites, a inversão da influência e um crescimento ceticismo a respeito de tudo — da validade das notícias a uma profunda suspeita de sistemas políticos estabelecidos. Acho que as pessoas estão tentando entender a distopia que estamos vivendo.

P: O que torna esse momento diferente de outros momentos de desconfiança que tivemos no passado?

R: É claro, no passado tivemos grandes crises de confiança, como Watergate ou o escândalo do Estudo de Tuskegee. No entanto, há duas coisas que estão acontecendo que tornam este momento único. Para começar, há uma queda histórica de confiança em todas as grandes instituições, incluindo caridades e organizações religiosas. Se tornou sistêmico que as pessoas estejam perdendo a fé no estabelecimento e na elite. É como um vírus que está se espalhando, e rapidamente.

O segundo ponto óbvio é que a tecnologia amplifica nossos medos, frequentemente sem base alguma. As redes sociais “armam” a desinformação ao criar incêndios digitais que espalham ódio e ansiedade em relação às instituições. Também é muito mais difícil manter más ações escondidas ou encobrir ações com teatros de Relações Públicas. Tome como exemplo o fenômeno Weinstein que está acontecendo agora — isso ilustra a rapidez com que um incidente se torna uma crise social e, então, um movimento.

P: Conte-me um pouco sobre o sistema de crédito social chinês. Antes de ler o trecho daquele capítulo do seu livro no Wired UK, eu nunca tinha ouvido falar disso. Qual a sua opinião geral?
Nota do tradutor: há um texto bem compreensivo do The New York Times sobre esse assunto traduzido aqui no site. Clique aqui para ler.

R: O governo chinês tem suas pontuações sociais de cidadãos (SCS) que são voluntárias agora, mas serão obrigatórias após 2020. E há empresas na China, como a Tencent e a Alibaba, que têm seus próprios mecanismos de pontuação, mas são diferentes da forma que vemos as pontuações de crédito. Há uma distinção importante entre sistemas de pontuação do governo e de empresas.

O ponto interessante a se observar é como o governo posicionou a pontuação de cidadãos — a base lógica econômica por trás dela, como os mecanismos de recompensas foram a primeira parte apresentada, e então as penas que seguirão depois. Por exemplo, mais cedo este ano, mais de 6 milhões de chineses foram banidos de pegar voos. Além disso, a pontuação de cidadãos chineses será rankeada publicamente entre toda a população e usada para determinar a possibilidade de conseguir uma hipoteca ou um emprego, onde os filhos poderão ir à escola — ou mesmo a chance de conseguir um encontro. É obediência transformada em jogo.

P: Você fez a conexão a uma sociedade ocidental, como temos versões de um sistema como esse embora não tão extremas. Te parece provável que esse tipo de coisa se torne mais comum em outros sistemas e outros governos?

R: Sim, a parte mais difícil de entender o capículo sobre pontuação de confiança é que há uma tendência a observar esse sistema através de uma lente ocidental, fazer um julgamento rápido e concluir, “Bem, isso nunca aconteceria conosco. Só na China…” Mas hoje é na China, amanhã pode ser em um lugar próximo de você. Quando você investiga e analisa o nível de vigilância acontecendo no Ocidente, dos governos às empresas, e o quanto sabem sobre nós, é assombroso. Estamos sendo julgados e analisados de toda maneira imaginável, e nos sentiríamos extremamente desconfortáveis se soubéssemos. Veja a reação que tivemos quando descobrimos que a Agência Nacional de Segurança (NSA, EUA) estava escutando e coletando informações de cidadãos comuns. Os chineses poderiam argumentar que o sistema deles pelo menos é transparente. Ao menos as pessoas sabem que estão sendo avaliadas.

O que é inevitável é que nossa identidade e nossos comportamentos se tornarão um recurso. Acho que a pergunta é: quem será dono dos danos? Com sorte, chegaremos a um ponto onde seremos nós, como indivíduos, para que assim tenhamos maior controle sobre como os dados são usados e vendidos, e para que possamos usar isso em nosso benefício, ao contrário de uma empresa de tecnologia como o Google, Amazon ou Facebook ou, pior ainda, o governo tendo esse tipo de controle sobre nossas vidas.

Estamos sendo julgados e analisados de toda maneira imaginável, e nos sentiríamos extremamente desconfortáveis se soubéssemos. – Rachel Botsman

P: Você menciona rastreios e vigilância. É certamente algo que é muito mencionado no livro, e algo em que muitos de nós temos pensado. Qual a relação entre confiança e vigilância?

R: Bem, vigilância não é algo particularmente bom quando relacionado à confiança. Pense em um relacionamento interpessoal. Se um parceiro está lendo suas mensagens ou conferindo sua localização a todo momento, é um relacionamento de baixa confiança! Defino confiança como “um bom relacionamento com o desconhecido.” Se você confia na vigilância, deve haver fé de que os rastreios e dados capturados estão sendo usados para seu benefício. A parte complicada é a caixa preta quando você não sabe o que está havendo com sua informação, e não confia no sistema ou na entidade que gerencia os dados. É por isso que frequentemente ouvimos o pedido, “precisamos de mais transparência.” Mas quando precisamos que as coisas sejam transparentes, desistimos da confiança.

P: Onde se encaixa a inteligência artificial nessa mudança maior à confiança distribuída?

R: Falamos da confiança mudando de instituições para indivíduos. O indivíduo pode ser um ser humano, ou pode ser um robô com inteligência artificial. Será cada vez mais difícil poder dizer se você está interagindo com um ser humano ou um algoritmo. Decidir quem é confiável, receber a informação correta, e ler os “sinais de confiança” certos já são tarefas difíceis com outros humanos. Pense na última vez que te passaram a perna. Mas quando começamos a terceirizar nossa confiança aos algoritmos, como confiar em suas intenções? E quando o algoritmo ou o robô toma uma decisão por você com a qual você não concorda, a quem você culpará?

Capa do livro de Rachel Botsman.

P: O que está entre nosso presente a possibilidade desse futuro distópico que você insinuou? O que poderia prevenir que tudo fosse abaixo?

R: Empresas de tecnologia entrarão em uma nova era de prestação de contas. A ideia de que similares ao Uber, Facebook e Amazon estão imunes de serem regulamentados, taxados e complacentes, de que são apenas esses caminhos disruptivos para conectar pessoas e recursos, acho que esses dias acabaram. Haverá uma onda vasta de regulamentação que olhará para as responsabilidades das plataformas de reduzir o risco de coisas ruins acontecerem, e também na forma que respondem ao que der errado.

Algumas instituições usarão esse período de mudança como oportunidade — provando à sociedade de que precisamos de instituições, de que apresentam normas, regras e sistemas, e que podem ser confiáveis. Estamos vendo isso com o New York Times; teve seu melhor ano em assinaturas pagas. Mas instituições não podem apenas dizer, “Você deve confiar em nós.” Precisam demonstrar que são confiáveis, que podemos acreditar em seus sistemas.

P: Como você acha que essa mudança maior da confiança nos moldará daqui para a frente? Em como moldará nossa forma de gastar dinheiro e viver nossas vidas?

R: É muito fácil culpar as instituições, mas precisamos reconhecer que, como indivíduos, temos a responsabilidade de pensar sobre onde depositaremos nossa confiança e com quem. Com muita frequência, deixamos que a conveniência fique acima da confiança. Por exemplo, se queremos uma mídia jornalística de alta qualidade e com checagem de fatos, deveríamos pagar por ela, e não obter nossas notícias diretamente do Facebook. Somos todos culpados disso. Eu estava conversando com alguém outro dia que dizia o quanto odiava o Uber, de como era “Uma empresa diabólica,” e educadamente perguntei se o aplicativo estava no aparelho dele. “Bem, ainda não tive o tempo de apagar e baixar o Lyft,” ele respondeu na defensiva. Levaria um minuto [fazer isso]. É como o cidadão que reclama do resultado de uma eleição sem ter votado. Então, minha esperança é de que usemos nossa revolta de forma produtiva. Temos mais poder do que imaginamos com essa mudança da confiança, com ela parecendo tão grande e fora de controle.

P: Então, qual a resposta ao título do seu livro? Em quem pode-se confiar?

R: É uma pergunta complicada. Depende do contexto; você pode confiar nas pessoas para fazer certas coisas em certas situações. Com isso, quero dizer que pode confiar no Trump para twittar algo ridículo na madrugada, mas não para negociar com a Coreia do Norte. Você pode confiar em mim para ensinar ou escrever um artigo, mas não deveria entrar em um carro comigo porque sou péssima motorista. Quando estamos falando de confiança, precisamos muito falar sobre o contexto. Espero que, depois de ler meu livro, as pessoas estejam melhor equipadas para dar uma “pausa de confiança,” para se perguntar: essa pessoa, produto, empresa ou informação são merecedores da minha confiança?

Entrevista traduzida do site Futurism.

Cidades inteligentes podem significar o fim da privacidade

A ascensão da Cidade Inteligente

A cidade de Barcelona é um alvoroço sensorial. Prédios elaborados com mosaicos brilham sob palmeiras que balançam com o vento enquanto comerciantes oferecem seus produtos em espanhol e catalão. No meio de tantas cores e sons, seria fácil deixar passar as proteções cinzas de plástico que apareceram nos postes da via principal da cidade. É mais fácil ainda deixar passar o que contêm: caixas com sensores que coletam dados de tudo ao redor deles.

Cada sensor está equipado com seu próprio disco rígido e um sensor conectado ao Wi-Fi que rastreia elementos do ambiente, como barulho, tamanho da multidão, poluição e congestionamentos no trânsito, e depois transmite tudo para um banco de dados central via fibra ótica. A Fortune relata que os sensores podem monitorar até mesmo o número de selfies postada em uma área.

Barcelona. Fonte: R7

Sob o charme de Mundo Antigo, Barcelona está equipada com tecnologia do Mundo Novo, o que levou a firma de pesquisa de mercado digital Juniper Research a conceder à cidade o título de mais inteligente em 2015. Mas ela não manteve o destaque por muito tempo — Cingapura passou na frente no ano seguinte. Ao redor do mundo, câmeras municipais estão ocupando suas cidades para coletar uma quantidade crescente de dados sobre seus cidadãos e atividades. Barcelona, Boston, Londres, Dubai e Hamburgo já começaram o processo; a Índia tem metas ambiciosas de renovar 100 de suas cidades até 2022. Cingapura pretende se tornar a primeira “Nação Inteligente” do mundo.

Todos esses esforços prometem tornar as cidades mais limpas, mais seguras, mais sustentáveis e mais eficientes. Mas eticistas têm uma preocupação diferente: como os cidadãos manterão a privacidade quando dados estão sendo coletados por todos os lados?

Alguém está vendo

Cidades inteligentes dependem primordialmente de dois tipos de informação: dados agregados e dados em tempo real. Sensores agregam dados sobre um lugar ou objeto específico em redes maiores de computação, que então analisam grandes quantidades de informação para encontrar tendências. Algumas cidades já usaram dados agredados — para monitorar as vagas de carro mais populares no centro de Londres, analisar o trânsito e encontrar riscos no trânsito de Boston, e para ajustar o brilho de postes de acordo com a quantidade de pessoas em parques de Barcelona. Pelos dados serem agregados, são efetivamente anonimizados; não podem ser usados para rastrear indivíduos ou obter informações sobre eles.

Cidades também estão coletando dados em tempo real, que de fato focam em indivíduos. Em 2013, uma empresa chamada Renew London fez um programa piloto no qual sensores instalados em lixeiras rastreavam os sinais de Wi-Fi dos celulares que passavam. Os sensores conseguiam, então, usar o endereço único de controle de acesso de mídia (MAC) para filtrar os anúncios na lixeira pensando no indivíduo, baseando-se no movimento do mesmo na rede de sensores. Por exemplo, se o indivíduo acabou de passar por uma loja de roupas ou restaurante em particular, ele(a) poderia passar a ver mais anúncios para aquele local.

Uma foto dos materiais de marketing criados pelo agora finado Renew London initiative. Créditos: Quartz

Renew tentou trazer ao mundo real os anúncios direcionados que os usuários costumam ver online. No entanto, ao contrário da maior parte dos sites, a empresa não era legalmente obrigada a informar aos cidadãos que eles estavam sendo rastreados. Depois que os detalhes emergiram (e o ultraje se instaurou), o governo municipal de Londres pediu que a Renew encerrasse o teste.

Apesar da rejeição, muitas outras cidades ainda procuram por iniciativas de coleta de dados em tempo real. Em Cingapura, por exemplo, o governo planeja requerer que todos os carros tenham um sistema de navegação por satélite que monitorará a localização de cada veículo a qualquer momento, além da velocidade e da direção. Esse sistema de rastreio permitirá que o governo cobre automaticamente por taxas de estacionamento e multas, assim como levantar um imposto baseado na frequência em que o indivíduo dirige.

A nação-ilha também está testando vários programas que coletam dados sobre questões da infraestrutura da cidade e a quantidade de energia usada em unidades individuais de habitações mantidas pelo governo (80% da população vive nesses complexos). Os mais velhos e enfermos poderiam se voluntariar a um programa que monitora o movimento dentro de suas casas.

Ao passo que mais objetos começam a se conectar na internet, vão coletar mais informação ainda.

 

“Todos os dias — apenas com nossos smartphones, cartões de crédito, etc. — deixamos para trás muitas pegadas digitais, que são então gravadas milhares de vezes todos os dias e armazenadas em algum lugar da nuvem,” diz Carlo Ratti, diretor do Laboratório da Cidade Sensorial do Instituto de Tecnologia de Massachusetts (MIT). Esse mar de dados poderia permitir que cidades criassem novos programas de cidade inteligente, com a intenção de melhorar nossas vidas.

Mas os programas não são imunes de riscos. “O preocupante sobre isso é que vivemos em um mundo assimétrico, onde somente algumas empresas e instituições públicas sabem muito sobre nós enquanto sabemos pouco sobre eles,” diz Carlo. Camuflados em suas caixas pretas de informação, essas empresas poderiam estar vendendo informações pessoais para anunciantes e marqueteiros, ou permitindo que hackers ganhem acesso à informação que os usuários nem sabiam que haviam entregado.

Londres. Fonte: SmartCitiesWorld

Ratti acredita que a melhor estratégia para combater o mau uso potential desses dados seria que futuros governantes e organizações dessas cidades inteligentes implementassem um “contrato de dados” mais transparente e flexível entre indivíduos, empresas e governos. Alguns lugares já estão começando com esses contratos — o Regulamento de Proteção Geral de Dados (GDPR), anunciado para começar a ter efeito em meados de maio de 2018, vai requerer que todas as empresas na União Europeia compartilhem o tipo de dados que coletam de cidadãos, e peçam o consentimento dos indivíduos para usá-los (embora seja interessante apontar que o regulamento não toca na coleta de dados feita por governos).

A lei também permite que cidadãos da U. E. saiam do sistema e sejam “esquecidos,” ou ter dados pessoais — da ID do telefone à sequência genética — removidos de qualquer banco de dados caso não sintam que há uma razão justificável de mantê-los lá.

Para manter as futuras iniciativas de cidades inteligentes transparente, Ratti disse que “tirar vantagem dessas novas regras que logo entrarão em efeito será uma ótima forma de pressionar empresas que coletam grandes volumes de dados hoje.”

Cidade hackeada

Dados tão extraordinários e complexos poderiam, particularmente, por indivíduos em risco se caíssem nas mãos de hackers. Na conferência de segurança computacional Black Hat em 2015, os estudiosos de segurança Greg Conti, Tom Cross e David Raymond mostraram em uma apresentação e subsequente estudo que a segurança da informação em uma cidade é muito diferente da de uma empresa privada:

As cidades caracterizam interdependências complexas entre agências e infraestruturas que são uma combinação da indústria privada e organizações governamentais locais, estaduais e federais, todos trabalhando proximamente em conjunto para manter a cidade funcionando corretamente e por completo. O preparo [contra hackers] varia significativamente. Algumas cidades têm a coisa sob controle, mas outras são um emaranhado de feudos individuais criados sobre casas de baralho tecnológicas feitas em casa.

“Vai ser uma batalha sem fim entre hackers e defensores, assim como já acontece,” diz Christos Cassandras, professor de Engenharia Elétrica, Engenharia de Computação e diretor da divisão de Engenharia de Sistemas na Universidade de Boston. Empresas privadas e instituições municipais provavelmente precisarão ter se coordenar melhor nos esforços de segurança.

Hackers são uma ameaça perpétua, e tudo conectado à internet é vulnerável. Ratti aponta que hackear sempre foi parte da introdução à tecnologia de telecomunicações; em 1903, durante uma das primeiras demonstrações da tecnologia de transmissão a rádio entre Cornwall e Londres, um mágico de um café-concerto hackeou o sistema para transmitir várias mensagens chulas ao público esperando — e logo se escandalizando — da Academia Real das Ciências.

A melhor ferramenta para enfrentar hackers em cidades inteligentes, diz Ratti, pode ser a que muitas equipes de segurança computacional usam hoje: hackers do chapéu branco (white hat). Engenheiros tentam infiltrar um sistema como um hacker faria para identificarem vulnerabilidades que hackers de fato poderiam explorar (não para conseguir informações, como o hacker faria).

Cingapura. Fonte: LivingInSingapore

“[Hackers do chapéu branco] podem se tornar a prática padrão — uma espécie de simulação de incêndio cibernética — para governos e empresas, mesmo enquanto as pesquisas acadêmica e industrial focam no desenvolvimento de defesas técnicas mais avançadas nos anos subsequentes,” disse Ratti.

Por fim, há a ameaça de que os próprios governos usem os dados com propósitos nefastos. Como a Engadget aponta, o avaliador de democracia Freedom House classifica Cingapura como apenas “parcialmente livre” devido ao histórico do partido detentor do poder de suprimir dissidentes.

Há receio, portanto, de que dados coletados pelo governo possam ser usados contra dissidentes políticos. A instituição de caridade de defesa da privacidade Privacy International expressou preocupações com a falta de leis de privacidade em Cingapura em 2015, particularmente por conta da constituição de lá não garantir o direito à privacidade, e o fato do governo não haver ratificado o Pacto Internacional de Direitos Políticos e Civis que inclui uma cláusula que protege a privacidade. Analistas de políticas e estudiosos da indústria ecoam estas considerações, tanto sobre Cingapura quanto cidades inteligentes de forma geral.

Preocupações como essas são amplificadas em países com registros ainda mais manchados de direitos humanos e liberdades civis, como os Emirados Árabes Unidos.

Boston. Fonte: Michael Langlois

Cingapura tem feito esforços para mitigar estes medos e garantir aos cidadãos que sua segurança será protegida. Vivian Balakrishnan, o ministro de relações exteriores e líder da Iniciativa da Nação Inteligente do país, disse à Engadget que sob o Plano de Nação Inteligente, somente “dados de trânsito anonimizados serão coletados e agregados” de estradas com pedágio, e que oficiais irão “empreender consultores independentes de segurança” para testar o sistema contra vulnerabilidades. Ele adiciona que o governo cingaporeano está dedicado a tornar a nação em “uma sociedade open-source que é caracterizada por altos níveis de confiança, transparência e receptividade.”

No fim das contas, no entanto, dependerá de cada cidadão — em Cingapura e outras cidades inteligentes do mundo — ficar de olho nesses novos programas enquanto são implementados. Os cidadãos só podem cobrar as promessas de segurança dos governos se souberem quais dados estão sendo coletados sobre eles.

Na velocidade da tecnologia

Há alguns anos, quando Cassandras começou a fazer palestras sobre cidades inteligentes, ele costumava contar à sua plateia que achava que a maior parte da tecnologia que discutia estaria presente entre 10 e 15 anos depois. Hoje, ele admite que estava errado — a tecnologia chegou muito antes. Agora ele antecipa que o progresso será ainda mais rápido.

Cassandras acredita que a competitividade resultou nesse crescimento. “As empresas privadas estão sob muita pressão na competição global,” diz ele. Adiciona que “tudo que leva são dois ou três jogadores indo um mais rápido que o outro” para avançar rapidamente a indústria inteira.

Dubai. Fonte: Drinkpreneur

As cidades, similarmente, estão sob pressão para se tornar muito mais sofisticadas em um espaço curto de tempo. Muitas regiões metropolitanas estão se expandindo muito rapidamente, então alguns governantes podem escolher tecnologias inteligentes para evitar problemas como poluição, superlotações perigosas e ruas com pouca segurança. Uma cidade que falha em encarar esses problemas podem ser infestadas de problemas de saúde, desafios legais e uma queda na população — cidadãos e empresas podem se sentir tentados a realocar para centros mais limpos e modernos.

“Com mais frequência do que não, nesse processo há muitos riscos.”

Cassandras vê riscos na velocidade desse crescimento. “Com mais frequência do que não, nesse processo há muitos riscos,” diz ele. “Algumas vezes o desenvolvimento comercial tende a colocar esses riscos, esses perigos, preocupações de lado no esforço de chegar primeiro e ter lucro primeiro.”

Ainda assim, ele não acha os dados coletados por cidades inteligentes mais preocupante do que o que já é coletado online. “Estou mais preocupado com minha privacidade quando compro algo na Amazon ou informo meu cartão de crédito por uma passagem de avião”, diz ele. Cassandras e muitos estudiosos dessas tecnologias emergentes acabam vendo as cidades inteligentes como uma evolução da vida humana, no fim das contas. Se feito da forma certa, as cidades inteligentes conferirão aos seus cidadãos vidas mais limpas, seguras e eficientes — desde que os dados em nosso ambiente de convivência seja administrado da mesma forma que defendemos nossas casas e ruas.

Texto traduzido do site Futurism.