Novo protocolo de comunicação anónima

A informática, bem como a Internet, estão em (r)evolução constante, como tal, devido às recentes descobertas das vulnerabilidade em protocolos de comunicação alegadamente seguros, a comunidade envolvida com privacidade da informação têm vindo a desenvolver alternativas que possam contribuir para que o direito básico da humanidade seja respeitado: a privacidade.

David Chaun é cientista na área da criptografia com basta experiência na área, tendo contribuído com algumas das suas ideias e conceitos em projetos como ToR, HorNet ou o I2P. Pretende agora criar um novo protocolo de comunicação segura que, segundo este, será realmente impenetrável.

No início do ano, na conferência de “Criptografia Real World” na Universidade de Stanford, Chaum apresentou um PDF  chamado “cMix: Anonymization por High-Performance Mistura Scalable”, em que descreve o conceito cMix. O documento apresenta também o PrivaTegrity, uma rede segura para comunicações anônimas, baseado no protocolo criptográfico cMix.

Nos últimos anos, Chaum tem trabalhado, juntamente com parceiros, no protocolo cMix bem como no projeto PrivaTegrity. O principal objectivo é fornecer aos seus utilizadores uma ferramenta de comunicação criptografada que não é possível ser decifrada por agências de segurança ou hackers.

É esperado que esta nova rede seja mais segura em comparação com Tor e I2P, bem como mais rápida para que não se perceba atrasos na sua comunicação.

Ao contrário da rede Tor, que é suscetível a ataques de análise de tráfego por causa de seu tamanho e tempo de mensagem não-uniforme, a cMix pretende eliminar esses problemas e torna impossível identificar os participantes.

O novo protocolo evita operações de chave pública em tempo real pelos emissores e garante que as entradas/saídas passem através de uma cascata de nós misturados. A entrada é criptografada usando a chave de mensagem do emissor, que é compartilhada com cada nó e o emissor também configura uma chave partilhada de longo prazo separadamente com cada nó cMix.

Simplificando, cada nó atribui um slot para cada mensagem que ele pode processar e depois da mensagem ser criptografada e enviada pelo emissor, cada nó usa pré-computação para atribuir um valor aleatório para cada slot e cifra os dados recebidos usando a chave pré-compartilhada e o valor aleatório gerado. No processo inverso, quando o nó tem de enviar os dados para o receptor, cada nó de volta multiplica as chaves partilhadas. A maioria das operações computacionais são realizadas no lado do servidor e não no cliente, o que elimina as operações de chave pública em tempo real e melhora o desempenho.

A rede PrivaTegrity também se destina a estabelecer um modelo de confiança que oferece um equilíbrio de anonimato e responsabilização, segundo o jornal. De acordo com a Wired, o projeto está atualmente em sua infância, ainda com uma versão alfa disponível no Android e trabalhando como um software de mensagens instantâneas no momento, mas deverá ganhar recursos de partilha de ficheiros num futuro próximo.

Para além disso, a rede PrivaTegrity terá uma backdoor controlada e integrada que deverá permitir a identificação e quebra da privacidade e do anonimato, bem como de utilizadores que fazem coisas “más” . Assim que a rede estiver configurada e funcionando definitivamente, haverá nove administradores de servidores que formam um conselho no controlo da backdoor, que também irão decidir quem será identificado como tendo feito algo “mau ou ilegal”. Os nove administradores teriam de estar em pleno acordo quanto à decisão de revelar os dados privados de maus atores, sendo que só será possível decifrar a informação se todos os nove servidores cooperarem.

Um protótipo da rede será executado na rede da Amazon, mas a versão final da PrivaTegrity terá todos os seus servidores fora dos Estados Unidos da América, evitando, assim, a vigilância do governo americano. Esses servidores serão colocados em países com governos democráticos, como a Suíça, o Canadá, Islândia, entre outros.

Fonte: Suporte Ninja

Leia Mais

Porque disse adeus à Google, Apple e Microsoft

Paulo Querido, editor do Hoje e um dos mais antigos e influentes jornalistas de tecnologia em Portugal, escreveu um interessante artigo sobre a crónia que Dan Gillmore escreveu sobre o seu adeus à Google, Apple e Microsoft e porque deixou de utilizar produtos destas empresas.

Dan Gillmor escreve sobre tecnologia desde a década de 1990. É uma das vozes mais influentes em permanência. Assim, quando Gillmor anuncia com toda a calma e solenidade que mudou de opinião sobre algumas coisas e decidiu dizer adeus à Apple, Google e Microsoft, é de parar tudo e ler.

Gillmor escreveu o texto num portátil a correr Linux e usa um telemóvel com uma versão de Android martelada para aumentar as garantias de privacidade.

As razões prendem-se com achar que as grandes corporações estão a ir longe demais, tendo deixado de ser amigas do utilizador. A privacidade e a permeabilidade a governos ajudam, mas o que fez Dan Gillmor mudar de opinião e tornar-se um guerrilheiro da cidadania digital foi a concentração de poderes — precisamente o movimento contrário ao que a descentralizada Internet prometia nos anos de 1980 e 1990.

O controlo“, escreve, “está a regressar ao centro, onde poderosas empresas e governos estão a criar pontos de estrangulamento. Usam esses funis para destruir a nossa privacidade, limitar a nossa liberdade de expressão e bloquear a cultura e o comércio. Cedemos a nossa liberdade algumas vezes por conveniência mas muitas outras vezes isso sucede sem o nosso conhecimento, quanto mais autorização“.

Pode ler o artigo original em Inglês aqui: Why I’m Saying Goodbye to Apple, Google and Microsoft

Leia Mais

Google e a Privacidade: Entrevista a Stephan Micklitz

Stephan Micklitz, diretor de engenharia da equipa de Identidade, Privacidade e Segurança da Google Europa, aceitou falar com a revista Visão sobre as questões de privacidade da gigante das pesquisas. O engenheiro quer melhorar a imagem do gigante tecnológico no que toca ao respeito pela intimidade dos utilizadores dos serviços da empresa. Segue-se a transcrição da entrevista.

O que fez, neste cargo, pelo aumento da privacidade e segurança ?

O que fizemos já foi reunir, num só lugar, todas as controlos relativos à privacidade e segurança de uma conta Google, para que seja mais fácil para o utilizador. Foi a primeira vez que fizemos isto, e acho que foi um grande passo. Pusemos mais texto explicativo e tentamos simplificá-lo. Criamos uma página chamada privacy.gooogle.com onde tentamos responder às perguntas mais frequentes [FAQ]. Temos a certeza que hoje os utilizadores perceberem os controlos. Verificámos e testámos isso. Também passámos a distinguir entre estar dentro e fora da nossa conta Google, no que respeita à informação que recolhemos.

Antes de falarmos em privacidade, deveríamos definir o que é, hoje, a individualidade? É o seu próprio nome? O seu IP? O meu Gmail tem o meu nome… Como é que a Google pode dizer que não está a reunir dados pessoais?

Vou tentar responder. O que constitui a sua identidade Google é a sua conta Google. Pode ser o seu Gmail, o seu telefone, o seu identificador único. Isto é necessário, com a sua palavra-chave, para que possa ser autenticado. Nós permitimos às pessoas que usem pseudónimo. Pedimos alguns dados, mas não o seu nome verdadeiro. Nem controlamos isso a não ser que o nome do próprio Gmail seja ofensivo ou muito curto…

Acha que o conceito de metadados ainda é um conceito cientificamente válido? Ou devíamos falar só de dados?

Qual é a sua definição de metadados?

Dados sobre dados. Grandes quantidades de dados anonimizados.

Acho que é um conceito muito válido. Porque é que você acharia o contrário?

Porque uma equipa do MIT pegou nos metadados de uma operadora móvel, comparou-os com bases públicas e identificou 80% dos utentes com base em apenas dois pontos de geolocalização.

Há ai vários aspetos. Há muita pesquisa a ser feita nessa área, nomeadamente a de saber quando é que podemos mesmo provar essa ligação. Há muitas bases de dados agregadas [agregated data sets] num estado em que nenhuma ligação pode ser feita entre os metadados e os indivíduos.

Isso tornaria a informação quase inútil…

Não necessariamente. Essas bases podem ser usadas para gerir o tráfego automóvel sem se saber quem são as pessoas.

Talvez. Não sei se se lembra dos ataques da maratona de Boston. Eles foram feitos com recurso a mochilas, panela de pressão e explosivos. Passadas umas horas, um determinado IP, em que o pai tinha comprado uma mochila, a mãe uma panela de pressão e o filho lido notícias sobre os ataques, foi visitada pelas autoridades… Com recurso a metadados desanonimizados: a dados.

Penso que esses são exemplos nos quais temos de pensar muito bem. Que relações podemos e não podemos fazer? O que nós estamos a tentar fazer ao usar e armazenar bases de dados anonimizadas é encontrar o melhor equilíbrio possível. Por exemplo você tem controlo total sobre o que escreve nas suas contas Google…

Nunca tivemos nada disso [backdoors]. Já desmentimos. Só damos informação se houver uma ordem judicial.

Tem a certeza? Eu apago meus emails? Ou apenas os escondo de mim? A Google tem que ter múltiplos “backups” (memórias de armazenamento).

São apagados, tenho a certeza. Mas o primeiro passo é que não apareçam ao vivo. Existem backups, são necessários. Mas os emails serão destruídos.

Como sabe, há muita gente que afirma que nada na internet é apagável.

Não. O apagamento é possível. Mas, dado o número de backups, demora alguns dias.

Dias?

Dias. Não é instantâneo. A informação não está num único disco. Mas temos uma equipa para garantir o apagamento.

O general Keith Alexander (ex-director da NSA), Sergey Brin (cofundador da Google) e Eric Schimdt (ex-CEO da Google) reuniam com regularidade. Esta cooperação continua?

Não tenho conhecimento disso, nem sou sou a pessoa certa para responder a essa pergunta. Não sei como responder.

Google-Douglas-County-Georgia-Data-Center-Pipes

Ok. Cito uma frase de Keith Alexander ao Congresso no ano passado: «Já matámos gente com base em metadados».

Certamente, os metadados, podem ser usados de forma errada. Há sempre bons usos e maus usos. O que estamos é a tentar garantir é que apenas o utilizador tenha acesso aos seus dados que os possa apagar, mudar, usar como quiser…

Ainda bem. Mas não teve a Google portas secretas (backdoors) propositadamente abertas à NSA?

Nunca tivemos nada disso. Já desmentimos. Só damos informação se houver uma ordem judicial.

A Google armazena informação que, segundo a lei europeia e portuguesa, é pessoal e sensível. Sob que legislação está? Quem pode aceder a essa informação sem a autorização de um tribunal português?

Bem, eu não sou um perito legal, nem há nenhum nesta sala [de chat].

O Portal de Saúde português estava ‘tecnicamente acessível à Google’, através da vossa ferramenta de Analytics, que está protegida por propriedade intelectual: não se sabe o que faz… [silêncio]

Não me percebeu?

Percebi, sim. Quanto ao Analytics temos tido longas conversas com a Comissão de Proteção de Dados alemã, e com outras. Na Alemanha, o operador da página está obrigado a revelar ao utilizador que usa essa ferramenta. Mas ele também pode ler sobre as nossas práticas no que respeita a esse programa [que gere o tráfego do site, informando o dono dos IP’s de quem o visita, pelo menos] isso transformou-se num acordo que o utilizador pode ler. Eu posso enviar-lho.

Abriram o software às autoridades alemãs?

Não se limita a um país, são soluções para todo o mundo.

Mas deram conhecimento dos vossos códigos às autoridades alemãs?

Não tenho a certeza do que me está a perguntar. Descrevemos em documentos escritos como é que estas ferramentas trabalham e chegamos a acordos sobre quais são os níveis certos de proteção.

A pergunta é: os vossos código-fonte estão acessíveis às autoridades?

Não vou responder a essa pergunta diretamente, porque ela não é a pergunta-chave. A pergunta chave é: como é que a ferramenta funciona e o que faz…

A informação guarda-se encriptada. Isso garante que ninguém além das pessoas que tenham acesso a uma chave possa ter acesso.

Sim, mas isso deve ser verificado.

Pode verificar-se isso através de vários mecanismos. O código-fonte é só um deles.

A Google têm alguma autorização da Comissão Nacional de Dados portuguesa?

Está a fazer uma pergunta jurídica a um engenheiro…

Pode alguém da Google ter acesso ao meu Gmail sem eu saber? Não está assim escrito nos termos de serviço.

A pergunta é como é que nós armazenamos a informação, como é que temos a certeza de que ela só é acedida de uma forma legal? Temos múltiplas formas. A informação guarda-se encriptada. Isso garante que ninguém além das pessoas que tenham acesso a uma chave possa ter acesso. Claro que o utilizador tem essa chave, que usa para se autenticar e ter acesso à sua informação, que é sua. Podemos receber pedidos judiciais e, se verificarmos que são legítimos, então damos acesso. Mas publicitamo-lo no nosso relatório de transparência.

Quantos gigabytes de informação tem a Google armazenados sobre mim?

Essa é uma pergunta que não pode ser respondida assim. Cada conta é uma conta. Algumas não têm nada, outras muito…

Então diga-me um valor médio.

Mesmo que lhe desse um número, não teria significado. Há um enorme leque de contas.

Acha que bisbilhotar de forma eletrónica é diferente de bisbilhotar?

Defina-me bisbilhotar (snooping).

Quero que me diga se acha a espionagem eletrónica a busca automática de palavras, diferente da humana.

São diferentes. Hoje sem a deteção inteligente de spam [lixo digital], os emails não funcionariam: teríamos de pensar num sistema diferente. É o spam, aliás, uma das principais razões para usarmos algoritmos inteligentes. É claro que existem coisas que um utilizador poderia fazer mas que uma máquina faz muito melhor. Temos um algoritmo claro que se vai aplicar a toda a gente, sem que estejamos a olhar para as pessoas. Não estamos a olhar para as pessoas, quando muito talvez para o remetente. Mas isso é a máquina que faz. Bem diferente de um humano com técnicas específicas.

1391612836000-AP-Europe-Antitrust-Google

Então porque é que o mesmo não se passa com o algoritmo do motor de busca ? Ele não dá os mesmos resultados a toda a gente.

Sim e não. Faça uma busca em modo incógnito e compare. Pode haver diferenças, mas são mínimas. Outras verificam-se num tempo muito curto que tem a ver com as buscas que fez imediatamente antes. A palavra Golf é o nome de um desporto e também de um carro. Ora se a máquina já percebeu que procura um carro, mostra-lhe primeiro o carro. E isso é valioso para as pessoas. E o resultado de uma busca, se for bom para a maioria, normalmente também é bom para si. Por isso é que as mudanças com base na personalização são relativamente menores.

Está a falar-me de produtos. E se eu lhe falar de política? Se eu tiver feito uma pesquisa sobre Bernie Sanders e uma amiga minha a fizer por Donald Trump? E se a seguir ambos perguntarmos ao próprio motor de pesquisa: «Em quem é que eu vou votar?» Teremos os mesmos resultados?

Compreendo completamente porque é que me faz essa pergunta. Por isso é que há dados que não analisamos: Saúde, dados sensíveis, não analisamos, nem personalizamos.

E a posição política de cada um é uma delas?

Desafio-o a tentar. Penso que sim.

Pensa?

Tenho quase a certeza. Não sou eu quem trabalha essa área.

Leia Mais