EQE de Rogério Vinícius Matos Rocha

Título do Trabalho
Privacy-preserving Protocols with Differential Privacy
Candidato(a)
Rogério Vinícius Matos Rocha
Nível
Doutorado
Data
Add to Calender 2019-06-28 00:00:00 2019-06-28 00:00:00 EQE de Rogério Vinícius Matos Rocha Privacy-preserving Protocols with Differential Privacy Sala 85 do IC 2 INSTITUTO DE COMPUTAÇÃO mauroesc@ic.unicamp.br America/Sao_Paulo public
Horário
11:00
Local
Sala 85 do IC 2
Orientador(a)
Diego de Freitas Aranha
Banca Examinadora

* Titulares

Unidade/Instituição

Edmundo Roberto Mauro Madeira

IC/UNICAMP

Mário Sérgio Ferreira Alvim Júnior

DCC/UFMG

Hélio Pedrini

IC/UNICAMP

 

* Suplentes

Unidade/Instituição

Edson Borin

IC/UNICAMP

Marcos Antonio Simplicio Junior

POLI/USP

Resumo

Privacidade de dados é um problema fundamental da infraestrutura de informação moderna. A tarefa de reunir dados sensíveis pessoais, anteriormente inerente a governos e agências estatísticas, tornou-se difundida na medida que os sistemas de bancos de dados se tornaram mais baratos e maiores. Uma quantidade enorme de dados é coletada e armazenada em vários sistemas como busca, redes sociais, organizações financeiras, sistemas de saúde, entre outras aplicações e entidades. É inegável que a análise desse volume de dados traz benefícios sociais impactantes, no entanto, a mesma gera uma preocupação sobre o vazamento de informações pessoais. Dessa forma, produzir informações agregadas sobre uma população enquanto preserva-se a privacidade de seus indivíduos é o principal desafio de entidades que trabalham com análises estatísticas sobre dados sensíveis. Embora existam, tanto na área de estatística quanto em ciência da computação, diversos trabalhos relacionados ao problema de privacidade de dados, as soluções propostas não têm garantias formais de privacidade ou garantem segurança apenas para uma classe específica de ataques. Privacidade diferencial é uma recente e rigorosa definição matemática de privacidade desenvolvida por Dwork et al. in 2006, no contexto de banco de dados estatísticos e aprendizado de máquina, originalmente motivada pelo desafio anteriormente mencionado. A definição de privacidade diferencial garante que análises úteis sejam realizadas sobre uma base de dados enquanto protege a privacidade de seus integrantes. Privacidade diferencial tem sido amplamente aceita como a escolha de noção de privacidade, e as técnicas que alcançam este conceito ainda estão em estágios iniciais de implementação, sendo usadas em diferentes segmentos como academia, indústria e governo. Esta proposta de tese de doutorado tem como objetivo explorar e aplicar técnicas diferencialmente privadas, a fim de projetar protocolos tecnológicos, para lidar com a preservação de privacidade na coleta e análise de dados em sistemas automotivos e de saúde. Como um passo avançado, pretendemos identificar os impactos de tecnologias, que usam aprendizado de máquina, na privacidade dos dados coletados e analisados de uma população, além de propor soluções apropriadas para este problema usando protocolos diferencialmente privados.