Stephan Micklitz, diretor de engenharia da equipa de Identidade, Privacidade e Segurança da Google Europa, aceitou falar com a revista Visão sobre as questões de privacidade da gigante das pesquisas. O engenheiro quer melhorar a imagem do gigante tecnológico no que toca ao respeito pela intimidade dos utilizadores dos serviços da empresa. Segue-se a transcrição da entrevista.
O que fez, neste cargo, pelo aumento da privacidade e segurança ?
O que fizemos já foi reunir, num só lugar, todas as controlos relativos à privacidade e segurança de uma conta Google, para que seja mais fácil para o utilizador. Foi a primeira vez que fizemos isto, e acho que foi um grande passo. Pusemos mais texto explicativo e tentamos simplificá-lo. Criamos uma página chamada privacy.gooogle.com onde tentamos responder às perguntas mais frequentes [FAQ]. Temos a certeza que hoje os utilizadores perceberem os controlos. Verificámos e testámos isso. Também passámos a distinguir entre estar dentro e fora da nossa conta Google, no que respeita à informação que recolhemos.
Antes de falarmos em privacidade, deveríamos definir o que é, hoje, a individualidade? É o seu próprio nome? O seu IP? O meu Gmail tem o meu nome… Como é que a Google pode dizer que não está a reunir dados pessoais?
Vou tentar responder. O que constitui a sua identidade Google é a sua conta Google. Pode ser o seu Gmail, o seu telefone, o seu identificador único. Isto é necessário, com a sua palavra-chave, para que possa ser autenticado. Nós permitimos às pessoas que usem pseudónimo. Pedimos alguns dados, mas não o seu nome verdadeiro. Nem controlamos isso a não ser que o nome do próprio Gmail seja ofensivo ou muito curto…
Acha que o conceito de metadados ainda é um conceito cientificamente válido? Ou devíamos falar só de dados?
Qual é a sua definição de metadados?
Dados sobre dados. Grandes quantidades de dados anonimizados.
Acho que é um conceito muito válido. Porque é que você acharia o contrário?
Porque uma equipa do MIT pegou nos metadados de uma operadora móvel, comparou-os com bases públicas e identificou 80% dos utentes com base em apenas dois pontos de geolocalização.
Há ai vários aspetos. Há muita pesquisa a ser feita nessa área, nomeadamente a de saber quando é que podemos mesmo provar essa ligação. Há muitas bases de dados agregadas [agregated data sets] num estado em que nenhuma ligação pode ser feita entre os metadados e os indivíduos.
Isso tornaria a informação quase inútil…
Não necessariamente. Essas bases podem ser usadas para gerir o tráfego automóvel sem se saber quem são as pessoas.
Talvez. Não sei se se lembra dos ataques da maratona de Boston. Eles foram feitos com recurso a mochilas, panela de pressão e explosivos. Passadas umas horas, um determinado IP, em que o pai tinha comprado uma mochila, a mãe uma panela de pressão e o filho lido notícias sobre os ataques, foi visitada pelas autoridades… Com recurso a metadados desanonimizados: a dados.
Penso que esses são exemplos nos quais temos de pensar muito bem. Que relações podemos e não podemos fazer? O que nós estamos a tentar fazer ao usar e armazenar bases de dados anonimizadas é encontrar o melhor equilíbrio possível. Por exemplo você tem controlo total sobre o que escreve nas suas contas Google…
Nunca tivemos nada disso [backdoors]. Já desmentimos. Só damos informação se houver uma ordem judicial.
Tem a certeza? Eu apago meus emails? Ou apenas os escondo de mim? A Google tem que ter múltiplos “backups” (memórias de armazenamento).
São apagados, tenho a certeza. Mas o primeiro passo é que não apareçam ao vivo. Existem backups, são necessários. Mas os emails serão destruídos.
Como sabe, há muita gente que afirma que nada na internet é apagável.
Não. O apagamento é possível. Mas, dado o número de backups, demora alguns dias.
Dias?
Dias. Não é instantâneo. A informação não está num único disco. Mas temos uma equipa para garantir o apagamento.
O general Keith Alexander (ex-director da NSA), Sergey Brin (cofundador da Google) e Eric Schimdt (ex-CEO da Google) reuniam com regularidade. Esta cooperação continua?
Não tenho conhecimento disso, nem sou sou a pessoa certa para responder a essa pergunta. Não sei como responder.
Ok. Cito uma frase de Keith Alexander ao Congresso no ano passado: «Já matámos gente com base em metadados».
Certamente, os metadados, podem ser usados de forma errada. Há sempre bons usos e maus usos. O que estamos é a tentar garantir é que apenas o utilizador tenha acesso aos seus dados que os possa apagar, mudar, usar como quiser…
Ainda bem. Mas não teve a Google portas secretas (backdoors) propositadamente abertas à NSA?
Nunca tivemos nada disso. Já desmentimos. Só damos informação se houver uma ordem judicial.
A Google armazena informação que, segundo a lei europeia e portuguesa, é pessoal e sensível. Sob que legislação está? Quem pode aceder a essa informação sem a autorização de um tribunal português?
Bem, eu não sou um perito legal, nem há nenhum nesta sala [de chat].
O Portal de Saúde português estava ‘tecnicamente acessível à Google’, através da vossa ferramenta de Analytics, que está protegida por propriedade intelectual: não se sabe o que faz… [silêncio]
Não me percebeu?
Percebi, sim. Quanto ao Analytics temos tido longas conversas com a Comissão de Proteção de Dados alemã, e com outras. Na Alemanha, o operador da página está obrigado a revelar ao utilizador que usa essa ferramenta. Mas ele também pode ler sobre as nossas práticas no que respeita a esse programa [que gere o tráfego do site, informando o dono dos IP’s de quem o visita, pelo menos] isso transformou-se num acordo que o utilizador pode ler. Eu posso enviar-lho.
Abriram o software às autoridades alemãs?
Não se limita a um país, são soluções para todo o mundo.
Mas deram conhecimento dos vossos códigos às autoridades alemãs?
Não tenho a certeza do que me está a perguntar. Descrevemos em documentos escritos como é que estas ferramentas trabalham e chegamos a acordos sobre quais são os níveis certos de proteção.
A pergunta é: os vossos código-fonte estão acessíveis às autoridades?
Não vou responder a essa pergunta diretamente, porque ela não é a pergunta-chave. A pergunta chave é: como é que a ferramenta funciona e o que faz…
A informação guarda-se encriptada. Isso garante que ninguém além das pessoas que tenham acesso a uma chave possa ter acesso.
Sim, mas isso deve ser verificado.
Pode verificar-se isso através de vários mecanismos. O código-fonte é só um deles.
A Google têm alguma autorização da Comissão Nacional de Dados portuguesa?
Está a fazer uma pergunta jurídica a um engenheiro…
Pode alguém da Google ter acesso ao meu Gmail sem eu saber? Não está assim escrito nos termos de serviço.
A pergunta é como é que nós armazenamos a informação, como é que temos a certeza de que ela só é acedida de uma forma legal? Temos múltiplas formas. A informação guarda-se encriptada. Isso garante que ninguém além das pessoas que tenham acesso a uma chave possa ter acesso. Claro que o utilizador tem essa chave, que usa para se autenticar e ter acesso à sua informação, que é sua. Podemos receber pedidos judiciais e, se verificarmos que são legítimos, então damos acesso. Mas publicitamo-lo no nosso relatório de transparência.
Quantos gigabytes de informação tem a Google armazenados sobre mim?
Essa é uma pergunta que não pode ser respondida assim. Cada conta é uma conta. Algumas não têm nada, outras muito…
Então diga-me um valor médio.
Mesmo que lhe desse um número, não teria significado. Há um enorme leque de contas.
Acha que bisbilhotar de forma eletrónica é diferente de bisbilhotar?
Defina-me bisbilhotar (snooping).
Quero que me diga se acha a espionagem eletrónica a busca automática de palavras, diferente da humana.
São diferentes. Hoje sem a deteção inteligente de spam [lixo digital], os emails não funcionariam: teríamos de pensar num sistema diferente. É o spam, aliás, uma das principais razões para usarmos algoritmos inteligentes. É claro que existem coisas que um utilizador poderia fazer mas que uma máquina faz muito melhor. Temos um algoritmo claro que se vai aplicar a toda a gente, sem que estejamos a olhar para as pessoas. Não estamos a olhar para as pessoas, quando muito talvez para o remetente. Mas isso é a máquina que faz. Bem diferente de um humano com técnicas específicas.
Então porque é que o mesmo não se passa com o algoritmo do motor de busca ? Ele não dá os mesmos resultados a toda a gente.
Sim e não. Faça uma busca em modo incógnito e compare. Pode haver diferenças, mas são mínimas. Outras verificam-se num tempo muito curto que tem a ver com as buscas que fez imediatamente antes. A palavra Golf é o nome de um desporto e também de um carro. Ora se a máquina já percebeu que procura um carro, mostra-lhe primeiro o carro. E isso é valioso para as pessoas. E o resultado de uma busca, se for bom para a maioria, normalmente também é bom para si. Por isso é que as mudanças com base na personalização são relativamente menores.
Está a falar-me de produtos. E se eu lhe falar de política? Se eu tiver feito uma pesquisa sobre Bernie Sanders e uma amiga minha a fizer por Donald Trump? E se a seguir ambos perguntarmos ao próprio motor de pesquisa: «Em quem é que eu vou votar?» Teremos os mesmos resultados?
Compreendo completamente porque é que me faz essa pergunta. Por isso é que há dados que não analisamos: Saúde, dados sensíveis, não analisamos, nem personalizamos.
E a posição política de cada um é uma delas?
Desafio-o a tentar. Penso que sim.
Pensa?
Tenho quase a certeza. Não sou eu quem trabalha essa área.
Leia Mais