Série de Seminários em Computação

Os seminários ocorrem normalmente todas as sextas-feiras, das 14-15h, na sala 85 do IC. Quaisquer mudanças ou palestras extraordinárias serão devidamente anunciadas.

1. Semestre 2009

Março

5
Palestra extraordinária
Hora: 14h
Palestrante: Prof. Dr. Marco Vieira, Universidade de Coimbra
Título: Qualidade no Desenvolvimento de Software: Desafios & Oportunidades.
6
Neste seminário serão feitas apresentações curtas (em torno de 10 a 15 minutos cada) sobre temas de pesquisa e possibilidade de orientação.

Os seguintes docentes apresentarão:

Profa. Célia Mello - Tema: Aplicações da Busca em Largura Lexicográfica.
Profa. Beatriz Toledo - Tema: ION - Interoperabilidade organizacional orientada por SOA.
Prof. Ricardo Dahab - Tema: Criptografia aplicada: oportunidades de envolvimento em projetos.
Prof. Flávio Miyazawa - Tema: Algoritmos e Otimização.
Prof. Nelson Fonseca - Tema: Projetos de Pesquisa em Redes de Computadores.
Prof. Pedro Rezende - Tema: Projetos em Geometria Computacional.
Prof. Rogério Drummond - Tema: Arquitetura de Aplicações Concorrentes.
13
Palestrante: Prof. Dr. Rodolfo Jardim de Azevedo, IC-UNICAMP
Título: Pós-graduação no Instituto de Computação da UNICAMP
Resumo: A palestra vai apresentar o programa de Pós-Graduação em Ciência da Computação do Instituto de Computação para os alunos que ingressaram no mestrado e doutorado no primeiro semestre de 2009.
20
Palestrante: Prof. Dr. Marcelo Fantinato, EACH/USP
Título: Reuso em Contratos Eletrônicos para BPM
27
Palestrante: Prof. Dr. Leonardo B. Oliveira, Ceset/Unicamp
Título: Redes de Sensores Sem Fio: Aplicações, Segurança e Desafios

Abril

3
Palestrante: Analistas da INOVA, Inova, Unicamp
Título: A Importância da Propriedade Intelectual nas Atividades de Pesquisa e Inovação.
13
Palestra extraordinária
Hora: 14h
Palestrante:
Prof. Dr. Sylvie Philipp-Foliguet, ETIS, Cergy, France
Título: Content-based image retrieval
15
Palestra extraordinária
Hora: 14h
Palestrante:
Prof. Dr. Sylvie Philipp-Foliguet, ETIS, Cergy, France
Título: FReBIR : Fuzzy Region-Based Image Retrieval.
17
Palestra extraordinária
Local: IC-3, sala 301
Hora: 8h
Palestrante:
Prof. Dr. Jean Cousty, Informatics Department, ESIEE Paris,
Título: Watershed and collapses in simplicial complexes

Hora: 14h
Palestrante: Profa. Dra. Regina Moraes, Ceset-UNICAMP
Título:Uso de Risco na Validação de Sistemas Baseados em Componentes
24
Palestrante: Profa. Dra. Maria Camila Barioni, UFABC
Título: Operações de Consulta por Similaridade em Grandes Bases de Dados Complexos

Palestra extraordinária
Hora: 15h
Palestrante:
Prof. Dr. Eduardo Valle
Título:  Indexação Multimídia em Alta Dimensionalidade: 3 Novas Propostas

Maio

8
Palestrante: Prof. Dr. Siome Goldenstein, IC-UNICAMP
Título: Quatro Aplicações em Visão Computacional
15
Palestrante: Profa. Dra. Taisy Weber, Instituto de Informática, UFRGS
Título: Injeção de falhas de comunicação para determinação de cobertura de falhas de aplicações de rede
22
Palestrante: Prof. Dr. Fábio Fagundes Silveira, UNIFESP, ITA
Título: Desenvolvimento e Teste de Aplicações Orientadas a Aspectos: uma Introdução
29
Palestrante: Prof. Dr. Rodolfo Jardim de Azevedo, IC-UNICAMP
Título: Compressão de Código para Processadores Dedicados

Junho

5
Palestrante:  Dra. Ana Guerra, Centro de Tecnologia da Informação Renato Archer
Título: Qualidade de Produto de Software
10
Palestra extraordinária
Local: sala 85

Hora: 10h
Palestrante
:  Dra. Johannes Buchmann, Technical University of Darmstadt
Título: Post-Quantum Signatures
19
Palestrante: Prof. Dr. Luiz Eduardo Buzato, IC-UNICAMP
Título: Dynamic Content  Web Applications: Crash, Failover and Recovery Analysis.
26
Palestrante: Prof. Dr. Ivan Ricarte, Faculdade de Engenharia Elétrica e de Computação (FEEC)-UNICAMP
Título: Lógica fuzzy na recuperação de informações

Julho

3
Palestrante:  Prof. Dr. Walter Carnielli, Centro de Lógica, Epistemologia e História da Ciência (CLE) e Departamento de  Filosofia- IFCH, UNICAMP-UNICAMP
Título: Os Teoremas de Gödel e o problema da Parada  de Turing


Palestras

Marco Vieira

Marco Vieira é Professor Auxiliar no Departamento de Engenharia da Informática da Universidade de Coimbra, onde se doutorou em 2005, e Professor Associado Adjunto da Universidade de Camegie Mellon, nos Estados Unidos. As suas principais áreas de investigação são: Engenharia de Software, Confiabilidade de Computadores e Bases de Dados, mais especificamente testes pradonizados de confiabilidade, avaliação de confiabilidade experimental, performance e recuperação em sitemas de bases de dados, armazenagem de dados e OLAP, temas sobre os quais escreveu como autor ou co-autor em diversas conferências e revistas internacionais de referência.

Resumo:
Os sistemas de software são cada vez mais complexos. Tal facto, associado à cada vez maior pressão dos mercados, leva a que muitos sistemas sejam instalados com diversos problemas de qualidade. De facto, há cada vez mais exemplos na literatura de sistemas de software com problemas, os quais levam normalmente a elevadas perdas monetárias e, em alguns casos, de vidas humanas. O objectivo desta palestra é discutir os desafios e oportunidades actuais em termos de qualidade no desenvolvimento de software, focando os pontos de vista de engenharia e de investigação científica, e tendo em consideração a qualidade do produto (software) e do processo de desenvolvimento.

Slides

Marcelo Fantinato

Marcelo Fantinato é Bacharel em Ciência da Computação (Universidade Estadual de Maringá, 1999), Mestre em Engenharia Elétrica (FECC/Unicamp, 2002) e Doutor em Ciência da Computação (IC/Unicamp, 2007). Atualmente é Professor Doutor do curso de Sistemas de Informação da EACH/USP. Tem experiência profissional na indústria de desenvolvimento de software: Fundação CPqD (Campinas-SP, 2001-2006) e Motorola Industrial (Jaguariúna-SP, 2006-2008), onde atuou como especialista de pesquisa e desenvolvimento nas áreas de teste, processo e qualidade de software. Suas principais linhas de pesquisa são: Gestão de Processos de Negócio, Computação Orientada por Serviços, Contratos Eletrônicos, Linha de Produto de Software e Teste de Software.

Resumo:
O dinamismo existente atualmente no mundo dos negócios requer que as organizações atuem de forma muito rápida para não perder parcerias e oportunidades. A Gestão de Processos de Negócio (BPM - Business Process Management) pode ser aplicada neste contexto com o objetivo de diminuir a complexidade das atividades relacionadas a: criação, execução e monitoramento de processos. Contratos eletrônicos são usados para representar um acordo de negócio entre diferentes organizações, incluindo a definição do processo interorganizacional e atributos e níveis de QoS. Uma das formas de tornar a negociação de contratos eletrônicos mais eficiente é favorecer o reuso de informações entre as organizações interessadas no negócio. Este trabalho apresenta uma técnica inspirada em Linha de Produto de Software e baseada em Modelos de Características para possibilitar o reuso de informações no estabelecimento de contratos eletrônicos que envolvam serviços Web. Modelos de características é uma técnica da Engenharia de Software que têm sido amplamente usada para capturar e gerenciar pontos comuns e variabilidades em famílias de produtos de software.

Slides

Leonardo B. Oliveira

Leonardo B. Oliveira obteve seu bacharelado (2003) e mestrado (2005) em Ciência da Computação pela Universidade Federal de Minas Gerais (UFMG) e doutorado (2008), também em Ciência da Computação, pela Universidade Estadual de Campinas (Unicamp). Ele atuou como pesquisador visitante nos seguintes centros de pesquisa internacionais: University of London, Dublin City University e Microsoft Research. Leonardo foi agraciado com os prêmios IEEE Student Paper Award (2003) e Microsoft Research PhD Fellowship Award  -- este último, segundo a própria Microsoft, seu prêmio estudantil de maior prestígio. Mais recentemente, Leonardo atuou como pesquisador no Instituto de Computação da Unicamp e atualmente é professor do Centro Superior de Educação Tecnológica da Unicamp. Suas principais áreas de interesse são redes de sensores sem fio, segurança e criptografia aplicada.

Resumo
Redes de Sensores Sem Fio (RSSFs) são compostas em sua maioria por pequenos nós sensores dotados de recursos extremamente limitados. Estes, por sua vez, se comunicam com o mundo externo através de nós poderosos chamados de sorvedouros ou estações rádio base. RSSFs são empregadas com o objetivo de monitorar regiões, oferecendo dados sobre a área monitorada para o resto do sistema. Tais redes podem ser utilizadas para diferentes aplicações, tais como operações de resgate em áreas de conflito/desastre, espionagem industrial e detecção de exploração ilegal de recursos naturais. Após uma década de intensa pesquisa na área ainda são infinitos os desafios em RSSFs. Em nossa palestra, principiaremos a discussão com uma introdução a este paradigma de redes. Em seguida, descreveremos o estado da arte de segurança das mesmas. E, por fim, apresentaremos alguns dos atuais desafios de segurança em RSSFs.

Slides

INOVA

Resumo:
O desenvolvimento científico oriundo de programas de pós-graduação, projetos de cooperação com outras universidades nacionais e internacionais são responsáveis pela posição de destaque no cenário de pesquisa e inovação da Unicamp. Diante deste panorama, o conhecimento da propriedade intelectual é de extrema importância para viabilizar inovações tecnológicas futuras. Noções gerais de propriedade intelectual, mais especificamente sobre propriedade industrial, contribuem para que os alunos de pós-graduação e os docentes ampliem as possibilidades de proteção das tecnologias oriundas de suas linhas de pesquisa. Assim como os projetos de pesquisa, as tecnologias objeto de patentes devem apresentar novidade absoluta e, nesse sentido, consultas periódicas às bases internacionais de patentes apresentam-se como uma ferramenta estratégica na investigação do estado da técnica que deve ser incorporada na rotina acadêmica, principalmente antes de se iniciar um novo projeto ou pesquisa.

Folder

Sylvie Philipp-Foliguet

Sylvie Philipp-Foliguet is Professor at the National School of Electronics (ENSEA) of Cergy-Pontoise, France, since 1988. She manages
the MIDI (Multimedia Indexing and Data Integration) team of laboratory ETIS (Information Processing and Systems).

Her research domains are image segmentation and interpretation. Concerning the first topic she developed a fuzzy segmentation method.
For the second topic she proposed methods using fuzzy regions, inexact graph matching and statistical learning. Applications concern indexing and retrieval of documents from databases, these documents are images, videos or 3D objects.

Resumo (1ª PALESTRA)
The first stage of image retrieval is to find an appropriate description of the visual content. An image can be represented by a global signature (colour and texture histogram) or by local descriptors around characteristic points or regions of the image. In the later case, spatial positions or relationships have also to be stored.

The second stage is to define similarity measures adapted to the kind of representation. I will present kernel functions adapted to vectors, bags of features or graphs and k- nearest neighbour search.

The third stage of a retrieval system is the search engine, which is usually based on an interactive learning scheme, using classifiers such as Support Vector Machine.

Applications concern retrieval of images containing a specific object or of image categories, copy detection and 3D artwork object retrieval.

Slides


Resumo (2ª PALESTRA)
FReBIR is a method of image indexing and retrieval which takes into account the relative positions of the regions within the image.
Indexing is based on a fuzzy segmentation of the image. Fuzzy regions are then indexed by colour and texture. The image retrieval is based on inexact graph matching, taking into account both the similarity between regions and the spatial relation between them. We propose, on one hand a solution to reduce the combinatorial complexity of the graph matching, and on the other hand, several measures of similarity between graphs allowing the result images ranking. Similarity measures use kernel functions adapted to vectors, bags of features or graphs.
SVM classifiers are used through relevance feedback loops to retrieve categories of images.

Applications concern image and 3D object retrieval. The method is adapted to partial queries, aiming for example at retrieving images containing a specific type of object.

Slides

Jean Cousty

Jean Cousty received his Ingénieur's degree from the École Supérieure d'Ingénieurs en Électrotechnique et Électronique (ESIEE Paris, France) in 2004 and the Ph.D. degree from the Université de Marne-la-Vallée (France) in 2007. He received the  special award in 2008 from the AFRIF association (French Association for Pattern Recognition and Interpretation) for his PhD dissertation.
After a one-year post-doctoral period in the ASCLEPIOS research team at INRIA (Sophia-Antipolis, France) with Nicholas Ayache and Xavier Pennec, he is now  teaching and doing research with the Informatics Department, ESIEE Paris, and with the Institut Gaspard Monge, Université Paris-Est Marne-la-Vallée. His current research interests include medical image analysis, 3D mesh processing and discrete mathematics.

Resumo
Simplicial and cubical complexes are used to model discrete images and discrete surfaces (such as triangulated meshes). They constitute a rich framework to handle topological notions such as the one of collapse (a discrete analog of a continuous deformation) from which discrete homotopic skeletons can be defined.
This talk will be focused on watersheds in (weighted) simplicial complexes. Our first contribution states that any watershed in a (weighted) simplicial complex of dimension n is a simplicial complex of dimension n-1. Then, we establish, through an equivalence theorem, a link between (binary and grayscale) skeletons and watersheds. Finally, we will show that the problem of computing a watershed in a simplicial complex can be reduced to the one of computing a watershed cut in edge-weighted graph.

Regina Lúcia de Oliveira Moraes

Regina Moraes é graduada em Ciência da Computação pelo Instituto de Computação da Universidade Estadual de Campinas - UNICAMP, onde obteve seu título de mestrado e doutorado em Ciência da Computação, este último tendo sido desenvolvido, em parte do tempo, na Universidade de Coimbra - Portugal. Atualmente é professor pleno do Centro Superior de Educação Tecnológia - CESET da UNICAMP. Tem experiência em gerenciamento de equipes de desenvolvimento em empresa prestadora de serviços. Suas principais áreas de pesquisa são Banco de Dados e Engenharia de Software, atuando principalmente nos seguintes temas: injeção de falhas, testes de componentes de software, interface e acessibilidade.

Resumo
O desenvolvimento baseado em componentes é uma tendência nos sistemas modernos. Um desafio dessa metodologia é a escolha do melhor componente para o sistema que está sendo construido e para o ambiente no qual o sistema será executado. A escolha deve recair no componente de menor risco, visando atingir a confiabilidade esperada. Este fato é particularmente importante quando se integra componentes adquiridos de terceiros (OTS). O objetivo desta palestra é apresentar uma maneira de se estimar o risco que um componente pode representar para o sistema no qual ele poderá ser integrado. Esta estimativa considera a probabilidade de haver uma falha no componente utilizando um modelo estatístico baseado na regressão logística e o impacto que esta falha poderá causar no sistema caso ela venha  a ser ativada, impacto este estimado experimentalmente através da injeção de falhas.

Slides

Maria Camila Barioni

Maria Camila Nardini Barioni possui graduação (2000) em Ciências da Computação pela Universidade Federal de Uberlândia, mestrado (2002), doutorado (2006) e pós-doutorado (2008) em Ciências da Computação e Matemática Computacional pelo Instituto de Ciências Matemáticas e de Computação - USP. Atualmente é Professora Adjunta na Universidade Federal do ABC - UFABC. Recentemente fez estágio como pesquisadora visitante na Universidade da Califórnia em Riverside. Tem experiência na área de Ciência da Computação, com ênfase em Banco de Dados, atuando principalmente nos seguintes temas: descoberta de conhecimento em bases de dados, mineração de dados e recuperação de dados complexos por conteúdo.

Resumo
 Os avanços tecnológicos ocorridos nas últimas décadas proporcionaram o surgimento de novas aplicações que passaram a manipular dados mais complexos do que números e pequenas cadeias de caracteres. Dentre esses novos tipos de dados é possível mencionar: fotografias, documentos (como livros e artigos), filmes e arquivos MP3 armazenados por aplicações multimídia; imagens de satélite, informações geo-referenciadas e dados metereológicos armazenados e analisados por sistemas de informação geográfica; imagens de exames médicos, dados genômicos e seqüências de proteínas utilizados por sistemas de apoio à medicina.
 Para atender às buscas necessárias às aplicações que manipulam dados complexos é preciso que os Sistemas de Gerenciamento de Banco de Dados (SGBD) ofereçam suporte para operações de buscas por similaridade – i.e., consultas que realizam busca por objetos da base similares a um objeto de consulta, de acordo com uma certa medida de similaridade. Assim, o objetivo desta palestra é apresentar as questões relacionadas com o desenvolvimento e a incorporação de técnicas que permitam a manipulação eficiente de dados complexos armazenados em SGBD, em especial dados multimídia.

Slides

Eduardo Valle

Eduardo Valle é recém doutor pela Universidade de Cergy-Pontoise, França, tendo obtido sua graduação e mestrado na Universidade Federal de Minas Gerais em 2000 e 2003, respectivamente. Sua pesquisa tem se concentrado na indexação de dados de alta dimensionalidade e na recuperação de informação multimídia, e ele se interessa particularmente nas aplicações da Tecnologia da Informaçã  ao domínio da Arte e do Patrimônio Cultural.

Resumo
 
Os desafios da recuperação de informação multimídia começam já na etapa de indexação de baixo-nível, devido não apenas ao enorme volume de dados, mas, sobretudo, à alta dimensionalidade desses dados. A indexação multimídia é problemática dos pontos de vista tanto teórico quanto técnico, já que não somente a muito discutida “maldição da dimensionalidade” a torna ineficiente, mas também a hierarquia de memória, o funcionamento de discos e caches, e a integração com os SGBDs apresentam restrições adicionais que precisam ser levadas em conta. Neste seminário o autor apresentará 3 métodos originais criados durante sua tese, desenvolvida na Université de Cergy-Pontoise, França: as 3-way Trees e as Projection KD-Forests, baseadas na tradicional KD-Tree, e as Multicurves, que exploram propriedades de preservação de vizinhança de curvas fractais.

Slides

Siome Goldenstein

Professor Associado (RDIDP MS-5) no Instituto de Computação da UNICAMP. Possui graduação em Engenharia Eletrônica pela Universidade Federal do Rio de Janeiro (1996), mestrado em Informática pela Pontifícia Universidade Católica do Rio de Janeiro (1997), doutorado em Computer and Information Science pela University of Pennsylvania (2002) e pós-doutorado pela Rutgers University (2003). Seus principais interesses de pesquisa são visão computacional, computação gráfica e inteligência artificial.

Resumo
Iniciamos esta palestra com uma apresentação geral sobre a área de Visão Computacional, e veremos como ela se relaciona com computação gráfica,
processamento de imagens e inteligência artificial. Após isto, examinaremos com um mais detalhe, e com diversos exemplos, quatro difíceis aplicações que cobrem o domínio da área:
 - Visão no Esporte.
 - Reconstrução 3D.
 - Computação Forense de Imagens.
 - Classificação Multi-Classe para Reconhecimento de Objetos e Biometria.

Taisy Silva Weber

Doutora em Informática pela Universitaet Karsruhe (1986) tem graduação em engenharia elétrica (UFRGS – 1976) e mestrado em computação (1979). É professora da UFRGS desde 1978, onde ministra disciplinas nas áreas de tolerância a falhas, arquitetura de computadores e sistemas distribuídos. Suas áreas de pesquisa são injeção de falhas de comunicação e tolerância a falhas em sistemas distribuídos. É sócia fundadora da SBC, onde já ocupou cargos no Conselho e na Diretoria.

Resumo
Redes apresentam baixa confiabilidade e disponibilidade. Não são esperadas revoluções tecnológicas em curto espaço de tempo que tornem as redes atuais mais robustas. Enquanto isso, os programas desenvolvidos para operar em redes de computadores devem mostrar que são robustos mesmo na ocorrência de perdas e atrasos de mensagens, ruptura de links, colapso de servidores e particionamento de rede. Sistemas robustos têm um comportamento previsível quando apresentam defeitos, o que evita que usuários sejam as principais vítimas das múltiplas falhas de comunicação a que estes sistemas estão sujeitos. Uma estratégia adequada para avaliar programas de rede quanto à robustez é a injeção de falhas de comunicação. Injetores emulam para o sistema situações usuais de falhas enquanto o desenvolvedor mede a cobertura de falhas da aplicação e observa seu comportamento sob as falhas injetadas. Com a escolha adequada da carga de falhas é possível determinar como o sistema vai reagir na presença de falhas reais típicas do ambiente usual de operação. A palestra apresenta conceitos da área e mostra que a injeção de falhas complementa estratégias de testes convencionais e que construção de injetores é muito mais simples do que pode parecer.
Slides

Fábio Fagundes Silveira

Fábio Fagundes Silveira possui graduação em Informática pela Universidade da Região da Campanha (1995), Mestrado em Ciência da Computação pela Universidade Federal do Rio Grande do Sul - UFRGS (2001) e Doutorado em Engenharia Eletrônica e Computação (área de Informática) pelo Instituto Tecnológico de Aeronáutica - ITA (2007). Atualmente é Professor Adjunto da Universidade Federal de São Paulo (UNIFESP), Colaborador do Instituto Tecnológico de Aeronáutica, integrante do Grupo de Pesquisa em Engenharia de Software (GPES-ITA), membro do Conselho Editorial da Revista do CCEI e revisor do INFOCOMP - Journal of Computer Science. Tem experiência na área de Ciência da Computação, com ênfase em Engenharia de Software, atuando principalmente nos seguintes temas: Teste de Software, Orientação a Objetos, Desenvolvimento e Teste de Software Orientado a Aspectos e Reflexão Computacional.

Resumo
O Desenvolvimento de Software Orientado a Aspectos (DSOA) é um paradigma de desenvolvimento baseado nos conceitos da Programação Orientada a Aspectos (POA). A POA propõe um novo tipo de abstração, denominado aspecto, e novos mecanismos de composição que permitem a descrição modular e a composição de propriedades que geralmente se encontram espalhadas e misturadas ("crosscutting concerns") em vários pontos de um sistema de software orientado a objetos. Conquanto existam várias afirmativas que o DSOA eventualmente leve a software com melhor qualidade, a OA não provê correteza por si própria, não possuindo imunidade contra defeitos de programadores e nem tampouco contra problemas de falta de entendimento na fase de especificação. Isto reafirma o fato de que quando novos paradigmas de Engenharia de Software surgem, faz-se necessário realizar investigações para verificar a reusabilidade dos métodos, técnicas, estratégias e ferramentas de teste no novo paradigma. Como um dos mais novos paradigmas de Engenharia de Software, a POA evidencia ainda mais que novos estudos e experimentos devem ser cuidadosamente conduzidos para se determinar quais são as melhores técnicas de teste aplicáveis à esta nova forma de desenvolvimento. A inserção de aspectos em programas OO pode modificar não apenas a estrutura do programa, como também a interação entre seus componentes. As funcionalidades principais do programa podem ser combinadas com as funcionalidades auxiliares providas pelos aspectos, onde estas, por sua vez, podem ainda ser combinadas entre si. Assim, o foco principal desta palestra recai no conceito de composição de aspectos e suas consequentes interações, características essas causadoras do surgimento de diferentes tipos de defeitos em programas orientados a aspectos.
Slides

Rodolfo Jardim de Azevedo

O Professor Associado Rodolfo Azevedo é doutor em Ciência da Computação pelo Instituto de Computação da Unicamp. Atualmente é professor do Instituto de Computação da UNICAMP. Já orientou 11 dissertações de mestrado e 2 teses de doutorado. Publicou artigos em grandes conferências internacionais como DAC, DATE, CASES, ISLPED, ASAP e em revistas como IEEE TVLSI, IJPP, DAES e JUCS. O Prof. Rodolfo Azevedo foi co-autor de dois trabalhos que receberam os prêmios de melhor artigo do SBAC-PAD nas edições de 2004 e 2008. Suas áreas de interesse são Arquitetura de Computadores, Sistemas Dedicados, Compressão de Código, Baixo Consumo de Energia e Linguagens de Descrição de Arquitetura.

Resumo
O problema de compressão de programas para execução em sistemas dedicados tem sido alvo de diversos estudos no Instituto de Comptuação. Esta palestra vai iniciar traçando um relato da pesquisa já realizada, dos resultados alcançados e das novas perspectivas que existem no momento. Particularmente, o foco será nos mecanismos de compressão/descompressão cujo descompressor precisa ser implementado em hardware. Alguns dos resultados recentes mostram que é possível conseguir, simultaneamente, ganhos da ordem de 25% em redução do tamanho dos programas, em melhora do desempenho e em redução do consumo de energia.
Slides

Ana Guerra

É formada em Engenheira Elétrica, mestre em Matemática Aplicada e doutora em Engenharia Mecânica pela Unicamp. É pesquisadora em Qualidade de Software no Centro de Tecnologia da Informação Renato Archer – CTI/MCT e participante da ABNT/CB-21 Computadores e Processamento de Dados. Tem experiência na área de automação, com ênfase em análise numérica e modelos matemáticos, em Ciência da Computação, qualidade de produto de software, atuando principalmente nos seguintes temas: qualidade de software, qualidade de processos, engenharia de software, sistema de gestão, métodos de avaliação de processos de software, aquisição de produtos de TI. Participa das ações do MPS.BR como implementadora e avaliadora e consultora de aquisição.

Resumo
A Palestra aborda conceitos, teorias e principalmente normas de qualidade de produto de software, já publicadas nacionalmente. Apresentar os resultados da experiência do desenvolvimento e da utilização de uma metodologia para avaliação da qualidade de produto de software. É direcionado à alunos, gestores, implementadores, avaliadores e outros interessados no tema qualidade de software.
Slides

Johannes Buchmann

Johannes A. Buchmann é professor da Technische Universität Darmstadt, Alemanha, e editor associado do Journal of Cryptology. Recebeu vários prêmios científicos prestigiosos na Alemanha, entre os quais o Prêmio Leibniz da Academia Alemã de Ciências e o Prêmio Karl Heinz-Beckurts de transferência tecnológica. É membro da Academia Alemã de Ciências e Engenharia.

Resumo
In this talk I argue that there is no IT-security without digital signatures. I discuss how the security of current digital signature schemes is threatened by quantum computers and I explain post-quantum signature schemes that can be expected to withstand quantum attacks and are very practical in practice.
Slides

Luiz Eduardo Buzato

O  Prof.  Luiz  Eduardo Buzato  obteve o  título de PhD  em Ciência da Computação  pela  University of Newcastle  upon  Tyne (Reino Unido) em 1994 e sua livre docência  em 2000. Durante  2008 realizou sabático na EPFL,  Suiça onde  trabalhou  no desenvolvimento  de  um  sistema para replicação   ativa de dados   baseado    em consenso distribuído.    É Professor  Associado do    IC/UNICAMP   onde atua como   professor   e pesquisador com    interesse  principal em    sistemas distribuídos  e tolerância a falhas.

Resumo
Abstract: During the seminar  I am going to  discuss recent results on how crashes  and recoveries  affect  the performance  of a  replicated dynamic    content web application.    This  topic has recently gained interest because of the need  to improve the availability of  services deployed in clusters of computers,  including the ones used to support cloud computing.
Slides

Ivan Ricarte

Possui graduação em Engenharia Elétrica (modalidade Eletrônica) pela Universidade Estadual de Campinas (1984), mestrado em Engenharia Elétrica (área de concentração Automação e Computação) pela Universidade Estadual de Campinas (1987) e doutorado em Engenharia Elétrica (área de concentração Computadores) - University of Maryland at College Park (1993). Atualmente é Professor Associado da Faculdade de Engenharia Elétrica e de Computação da Universidade Estadual de Campinas. Tem experiência na área de Engenharia da Computação, com ênfase em Arquitetura de Sistemas de Computação, atuando principalmente nos seguintes temas: sistemas de aprendizagem colaborativa, sistemas hipermídia, ambientes colaborativos e aplicações da Web Semântica.

Resumo
A lógica de conjuntos nebulosos (ou lógica fuzzy) apoia o desenvolvimento de diversas aplicações em computação e em controle que precisam lidar com a representação de incertezas ou conhecimento vago sobre algum domínio. Isso a torna interessante para aplicações que envolvem a manipulação de documentos textuais, cujos conteúdos em linguagem natural incluem termos que nem sempre correspondem aos termos que um usuário utiliza para se expressar. Neste seminário, apresentamos algumas contribuições à recuperação de documentos de um repositório fechado, como uma biblioteca digital em domínios específicos de conhecimento, por meio da utilização da lógica fuzzy para representar relações entre termos desses domínios.

Walter Carnielli

Walter Carnielli  é Doutor em Matemática pela  UNICAMP Com pós-doutorado pela University of California em Berkeley, EUA e pelas Universidades de  Münster e  Bonn (Alemanha) como bolsista da Fundação Alexander von Humboldt. Atualmente é Professor Titular do Departamento de Filosofia do IFCH-UNICAMP, membro  e ex-diretor do  Centro de Lógica, Epistemologia e História da Ciência (CLE). É pesquisador  do CNPq e autor de mais de 50 artigos científicos, autor de   livros, incluindo "Computabilidade, funções computáveis, lógica e os fundamentos da matemática"  (com R. L. Epstein) ganhador do Prêmio Jabuti 2007 na categoria "Melhor Livro  de Ciências Exatas, Tecnologia e Informática".

Página acadêmica: http://www.cle.unicamp.br/prof/carnielli/

Resumo
Kurt Friedrich Gödel (1906-1978) é considerado um do maiores lógicos e filósofos  de todos os tempos, graças a seus famosos "Teoremas da Incompletude" (1930/1931). O "Primeiro  Teorema da Incompletude" de Gödel estabelece que "demonstração"  e  "verdade"  não coincidem em sistemas envolvendo pelo menos  parte da Aritmética, enquanto seu  "Segundo Teorema da Incompletude" mostra que  é impossível demonstrar a consistência da teoria dos números.

Os  teoremas  de  Gödel têm profundas  implicações para a Matemática, a Computação, a  Teoria da Informação  e a Filosofia. Em Computação, por exemplo, o Segundo Teorema  constitui uma generalização do "Problema da Parada" (Halting Problem), um resultado limitativo central de  Alan Turing  de 1936  que estabelece que não existe um algoritmo que decide se um dado programa vai parar ou não. Sem contar o óbvio impacto para a Matemática,  os teoremas de  Gödel influenciam a Epistemologia e a Inteligência Artificial (por exemplo, Roger Penrose argumenta que uma de suas  consequências  é a impossibilidade  de mecanizar o pensamento humano). Para a Teoria da Informação, uma das interpretações do  "Primeiro  Teorema da Incompletude" de Gödel que é impossível derivar um teorema que tenha mais informação do que a contida nos axiomas.

Pretendo conduzir  uma introdução a esses magníficos teoremas, discutindo seus métodos,  interpretações  e consequências.
Slides