RCAAP Repository
Aplicação do método do Gradiente Espectral Projetado ao problema de Compressive Sensing
A teoria de Compressive Sensing proporciona uma nova estratégia de aquisição e recuperação de dados com bons resultados na área de processamento de imagens. Esta teoria garante recuperar um sinal com alta probabilidade a partir de uma taxa reduzida de amostragem por debaixo do limite de Nyquist-Shanon. O problema de recuperar o sinal original a partir das amostras consiste em resolver um problema de otimização. O método de Gradiente Espectral Projetado é um método para minimizar funções suaves em conjuntos convexos que tem sido aplicado com frequência ao problema de recuperar o sinal original a partir do sinal amostrado. Este trabalho dedica-se ao estudo da aplicação do Método do Gradiente Espectral Projetado ao problema de Compressive Sensing.
Revisão de crenças em ACTL usando verificação de modelos limitada
Uma importante etapa do desenvolvimento de software é o de levantamento e análise dos requisitos. Porém, durante esta etapa podem ocorrer inconsistências que prejudicarão o andamento do projeto. Além disso, após finalizada a especificação, o cliente pode querer acrescentar ou modificar as funcionalidades do sistema. Tudo isso requer que a especificação do software seja revista, mas isso é altamente custoso, tornando necessário um processo automatizado para simplificar tal revisão. Para lidar com este problema, uma das abordagens utilizadas tem sido o processo de Revisão de Crenças, juntamente com o processo de Verificação de Modelos. O objetivo deste trabalho é utilizar o processo de revisão de crenças e verificação de modelos para avaliar especificações de um projeto procurando inconsistências, utilizando o fragmento universal da Computation Tree Logic (CTL), conhecido como ACTL, e revisá-las gerando sugestões de mudanças na especificação. A nossa proposta é traduzir para lógica clássica tanto o modelo (especificação do software) quanto a propriedade a ser revisada, e então aplicar um resolvedor SAT para verificar a satisfazibilidade da fórmula gerada. A partir da resposta do resolvedor SAT, iremos gerar sugestões válidas de mudanças para a especificação, fazendo o processo de tradução reversa da lógica clássica para o modelo original.
2017
Bruno Vercelino da Hora
Geração parcial de código Java a partir de especificações formais Z.
Especificações formais são úteis para descrever o que um sistema deve fazer sem definir como, e, em virtude da sua natureza formal e da possibilidade de abstração, é possível analisá-las sistematicamente. No entanto, o uso de especificações formais como parte do desenvolvimento de software não constitui prática comum. Isso se dá, em parte, pelo fato de existirem apenas um pequeno número de metodologias e ferramentas adequadas que dêem suporte a esse desenvolvimento. O primeiro objetivo deste trabalho é propor uma metodologia de desenvolvimento que possibilite, a partir de uma especificação formal em notação Z, produzir uma implementação dessa especificação em Java. Essa metodologia centra-se na geração do esqueleto da aplicação Java e na instrumentação desse esqueleto com mecanismos de verificação de condições (invariantes, pré e pós-condições) e rastreamento de violações dessas condições. Através desses mecanismos, possibilita-se intercalar desenvolvimento formal e informal no processo global de desenvolvimento de software. O segundo objetivo é desenvolver uma ferramenta que implemente parte dessa metodologia, produzindo uma implementação parcial que deverá ser complementada pelo usuário.
Predição de mudanças conjuntas de artefatos de software com base em informações contextuais
O uso de abordagens de predição de mudanças conjuntas auxilia os desenvolvedores a encontrar artefatos que mudam conjuntamente em uma tarefa. No passado, pesquisadores utilizaram análise estrutural para construir modelos de predição. Mais recentemente, têm sido propostas abordagens que utilizam informações históricas e análise textual do código fonte. Apesar dos avanços obtidos, os desenvolvedores de software ainda não usam essas abordagens amplamente, presumidamente por conta do número de falsos positivos. A hipótese desta tese é que informações contextuais obtidas das tarefas, da comunicação dos desenvolvedores e das mudanças dos artefatos descrevem as circunstâncias e condições em que as mudanças conjuntas ocorrem e podem ser utilizadas para realizar a predição de mudanças conjuntas. O objetivo desta tese consiste em avaliar se o uso de informações contextuais melhora a predição de mudanças conjuntas entre dois arquivos em relação às regras de associação, que é uma estratégia frequentemente usada na literatura. Foram construídos modelos de predição específicos para cada par de arquivos, utilizando as informações contextuais em conjunto com o algoritmo de aprendizagem de máquina random forest. Os modelos de predição foram avaliados em 129 versões de 10 projetos de código aberto da Apache Software Foundation. Os resultados obtidos foram comparados com um modelo baseado em regras de associação. Além de avaliar o desempenho dos modelos de predição também foram investigadas a influência do modo de agrupamento dos dados para construção dos conjuntos de treinamento e teste e a relevância das informações contextuais. Os resultados indicam que os modelos baseados em informações contextuais predizem 88% das mudanças corretamente, contra 19% do modelo de regras de associação, indicando uma precisão 3 vezes maior. Os modelos criados com informações contextuais coletadas em cada versão do software apresentaram maior precisão que modelos construídos a partir de um conjunto arbitrário de tarefas. As informações contextuais mais relevantes foram: o número de linhas adicionadas ou modificadas, número de linhas removidas, code churn, que representa a soma das linhas adicionadas, modificadas e removidas durante um commit, número de palavras na descrição da tarefa, número de comentários e papel dos desenvolvedores na discussão, medido pelo valor do índice de intermediação (betweenness) da rede social de comunicação. Os desenvolvedores dos projetos foram consultados para avaliar a importância dos modelos de predição baseados em informações contextuais. Segundo esses desenvolvedores, os resultados obtidos ajudam desenvolvedores novatos no projeto, pois não têm conhecimento da arquitetura e normalmente não estão familiarizados com as mudanças dos artefatos durante a evolução do projeto. Modelos de predição baseados em informações contextuais a partir de mudanças de software são relativamente precisos e, consequentemente, podem ser usados para apoiar os desenvolvedores durante a realização de atividades de manutenção e evolução de software
Empacotamento de árvores em grafos completos
Nesta dissertacao estudamos problemas de empacotamento de arvores em grafos, com enfase no caso de grafos completos. Denotamos por Ti uma arvore de ordem i. Dizemos que existe um empacotamento de arvores T1, . . . , Tn num grafo G se e possivel encontrar em G subgrafos H1, . . . , Hn, dois a dois disjuntos nas arestas, tais que Hi e isomorfo a Ti. Em 1976, A. Gyarfas e J. Lehel levantaram a seguinte questao, que conjecturaram ter uma resposta positiva: e possivel empaco- tar qualquer sequencia de arvores T1, . . . , Tn no Kn? Esta dissertacao tem como tema principal os estudos realizados por diversos pesquisadores na busca de uma resposta para esta pergunta, que permanece ainda em aberto. Tendo em vista a dificuldade para tratar esta questao, surge natural- mente a pergunta sobre a existencia de classes de arvores para as quais a resposta e afirmativa. Nessa linha, existem diversos resultados positivos, como por exemplo quando queremos empacotar estrelas e caminhos, ou estrelas e biestrelas. Por outro lado, em vez de restringir a classe das arvores, faz sentido restringir o tamanho da sequencia e reformular a pergunta. Por exemplo, dado s < n, e possivel empacotar qualquer sequencia de arvores T1, . . . , Ts no Kn? Em 1983, Bollobas mostrou ? que a resposta e afirmativa se s <= n / sqrt(2). Na primeira parte deste trabalho focamos nosso estudo em questoes desse tipo. Na segunda parte desta dissertacao investigamos algumas conjecturas que foram motivadas pela pergunta levantada por Gyarfas & Lehel. Por exemplo, Hobbs, Bourgeois e Kasiraj formularam a seguinte questao: para n par, e possivel empacotar qualquer sequencia de arvores T1, . . . , Tn no grafo bipartido Kn/2,n-1? Para essa pergunta apresentamos alguns resultados conhecidos analogos aos obtidos para a conjectura de Gyarfas & Lehel. Mais recentemente, Gerbner, Keszegh e Palmer estudaram a seguinte generalizacao da conjectura original: e possivel empacotar qualquer sequencia de arvores T1, . . . , Tk num grafo k-cromatico? Neste trabalho estudamos essas e outras questoes relacionadas e apresentamos os principais resultados que encontramos na literatura.
2014
Renzo Gonzalo Gómez Diaz
Avaliação de desempenho de algoritmos de estimação do olhar para interação com computadores vestíveis
Cada vez mais o rastreamento do olhar tem sido usado para interação humano-computador em diversos cenários, como forma de interação (usualmente substituindo o mouse, principalmente para pessoas com deficiências físicas) ou estudo dos padrões de atenção de uma pessoa (em situações como fazendo compras no mercado, olhando uma página na internet ou dirigindo um carro). Ao mesmo tempo, dispositivos vestíveis tais quais pequenas telas montadas na cabeça e sensores para medir dados relativos à saúde e exercício físico realizado por um usuário, também têm avançado muito nos últimos anos, finalmente chegando a se tornarem acessíveis aos consumidores. Essa forma de tecnologia se caracteriza por dispositivos que o usuário usa junto de seu corpo, como uma peça de roupa ou acessório. O dispositivo e o usuário estão em constante interação e tais sistemas são feitos para melhorar a execução de uma ação pelo usuário (por exemplo dando informações sobre a ação em questão) ou facilitar a execução de várias tarefas concorrentemente. O uso de rastreadores de olhar em computação vestível permite uma nova forma de interação para tais dispositivos, possibilitando que o usuário interaja com eles enquanto usa as mãos para realizar outra ação. Em dispositivos vestíveis, o consumo de energia é um fator importante do sistema que afeta sua utilidade e deve ser considerado em seu design. Infelizmente, rastreadores oculares atuais ignoram seu consumo e focam-se principalmente em precisão e acurácia, seguindo a ideia de que trabalhar com imagens de alta resolução e frequência maior implica em melhor desempenho. Porém tratar mais quadros por segundo ou imagens com resolução maior demandam mais poder de processamento do computador, consequentemente aumentando o gasto energético. Um dispositivo que seja mais econômico tem vários benefícios, por exemplo menor geração de calor e maior vida útil de seus componentes eletrônicos. Contudo, o maior impacto é o aumento da duração da bateria para dispositivos vestíveis. Pode-se economizar energia diminuindo resolução e frequência da câmera usada, mas os efeitos desses parâmetros na precisão e acurácia da estimação do olhar não foram investigados até o presente. Neste trabalho propomos criar uma plataforma de testes, que permita a integração de alguns algoritmos de rastreamento de olhar disponíveis, tais como Starburst, ITU Gaze Tracker e Pupil, para estudar e comparar o impacto da variação de resolução e frequência na acurácia e precisão dos algoritmos. Por meio de um experimento com usuários analisamos o desempenho e consumo desses algoritmos sob diversos valores de resolução e frequência. Nossos resultados indicam que apenas a diminuição da resolução de 480 para 240 linhas (mantendo a proporção da imagem) já acarreta em ao menos 66% de economia de energia em alguns rastreadores sem perda significativa de acurácia.
\"Um resolvedor SAT paralelo com BSP sobre uma grade\"
O Objetivo deste trabalho foi implementar um resolvedor distribuído para o problema de satisfabilidade em lógica proposicional (SAT) que pudesse ser executado em uma grade de computadores. Foi analisada a influência que o número de máquinas utilizadas pela grade para resolver diversas instâncias do SAT exerce sobre o desempenho do resolvedor implementado
Seleção de serviços web em composições coreografadas
Seleção de serviços em composições distribuídas considera principalmente a qualidade de serviço que atenda requisitos estabelecidos pelo usuário, como por exemplo, preço. No entanto, problemas relacionados a execução de composições de serviços podem ocorrer quando não se considera aspectos relacionados à rede e ao hardware, que afetam diretamente o desempenho da composição. Esse problema se agrava em composições coreografadas, pois a característica descentralizada requer um maior esforço para que essas informações possam ser consideradas em uma perspectiva global. Dessa forma, apesar da descentralização apresentar vantagens, é necessário que requisitos de qualidade de serviço da composição também sejam considerados em coreografias de serviços web para que a escolha de serviços para desempenhar um papel leve em consideração parâmetros importantes que podem afetar no desempenho da composição. Este trabalho apresenta um mecanismo, implementado sobre o framework OpenKnowledge, para selecionar serviços web em ambientes coreografados considerando primeiramente estimativas de atraso, taxa de perda e por fim considera a utilização de outros parâmetros, como utilização de CPU. Os primeiros experimentos em diferentes cenários de rede confirmaram as vantagens da proposta em relação a um seletor de serviços que ignora aspectos relacionados com a rede. Obteve-se ganhos de 20 a 97% no que diz respeito ao tempo total da execução da coreografia. Em seguida, experimentos inserindo utilização de CPU na escolha dos serviços confirmaram as vantagens de utilização de diferentes parâmetros para seleção de serviços em coreografias.
2014
Patricia Araujo de Oliveira
Improving fault tolerance support in wireless sensor network macroprogramming
Wireless Sensor Networks (WSN) are distributed sensing network systems composed of tiny networked devices. These systems are employed to develop applications for sensing and acting on the environment. Each network device, or node, is equipped with sensors and sometimes actuators as well. WSNs typically have limited power, processing, and storage capability, and are also subject to faults, especially when deployed in harsh environments. Given WSNs limitations, application developers often design fault-tolerance mechanisms. Although developers implement some fault-tolerance mechanisms in hardware, most are implemented in software. Indeed, WSN application development mostly occurs at a low level, close to the operating system, which forces developers to focus away from application logic and dive into WSNs technical background. Some have proposed high-level programming solutions, such as macroprogramming languages and frameworks; however, few deal with fault-tolerance. This dissertation aims to incorporate fault-tolerance features into Srijan, an open-source WSN macroprogramming framework based on a mixed declarative-imperative language called Abstract Task Graph (ATaG). We augment Srijans framework to support code generation for dealing with devices that crash or report meaningless values. We present our feature implementation here, along with an evaluation of the tool, demonstrating that it is possible to provide a macroprogramming framework with appropriate support for developing fault-tolerant WSN applications.
2014
Guilherme de Maio Nogueira
Aprendizado por reforço em lote: um estudo de caso para o problema de tomada de decisão em processos de venda
Planejamento Probabilístico estuda os problemas de tomada de decisão sequencial de um agente, em que as ações possuem efeitos probabilísticos, modelados como um processo de decisão markoviano (Markov Decision Process - MDP). Dadas a função de transição de estados probabilística e os valores de recompensa das ações, é possível determinar uma política de ações (i.e., um mapeamento entre estado do ambiente e ações do agente) que maximiza a recompensa esperada acumulada (ou minimiza o custo esperado acumulado) pela execução de uma sequência de ações. Nos casos em que o modelo MDP não é completamente conhecido, a melhor política deve ser aprendida através da interação do agente com o ambiente real. Este processo é chamado de aprendizado por reforço. Porém, nas aplicações em que não é permitido realizar experiências no ambiente real, por exemplo, operações de venda, é possível realizar o aprendizado por reforço sobre uma amostra de experiências passadas, processo chamado de aprendizado por reforço em lote (Batch Reinforcement Learning). Neste trabalho, estudamos técnicas de aprendizado por reforço em lote usando um histórico de interações passadas, armazenadas em um banco de dados de processos, e propomos algumas formas de melhorar os algoritmos existentes. Como um estudo de caso, aplicamos esta técnica no aprendizado de políticas para o processo de venda de impressoras de grande formato, cujo objetivo é a construção de um sistema de recomendação de ações para vendedores iniciantes.
EyeSwipe: text entry using gaze paths
People with severe motor disabilities may communicate using their eye movements aided by a virtual keyboard and an eye tracker. Text entry by gaze may also benefit users immersed in virtual or augmented realities, when they do not have access to a physical keyboard or touchscreen. Thus, both users with and without disabilities may take advantage of the ability to enter text by gaze. However, methods for text entry by gaze are typically slow and uncomfortable. In this thesis we propose EyeSwipe as a step further towards fast and comfortable text entry by gaze. EyeSwipe maps gaze paths into words, similarly to how finger traces are used on swipe-based methods for touchscreen devices. A gaze path differs from the finger trace in that it does not have clear start and end positions. To segment the gaze path from the user\'s continuous gaze data stream, EyeSwipe requires the user to explicitly indicate its beginning and end. The user can quickly glance at the vicinity of the other characters that compose the word. Candidate words are sorted based on the gaze path and presented to the user. We discuss two versions of EyeSwipe. EyeSwipe 1 uses a deterministic gaze gesture called Reverse Crossing to select both the first and last letters of the word. Considering the lessons learned during the development and test of EyeSwipe 1 we proposed EyeSwipe 2. The user emits commands to the interface by switching the focus between regions. In a text entry experiment comparing EyeSwipe 2 to EyeSwipe 1, 11 participants achieved an average text entry rate of 12.58 words per minute (wpm) with EyeSwipe 1 and 14.59 wpm with EyeSwipe 2 after using each method for 75 minutes. The maximum entry rates achieved with EyeSwipe 1 and EyeSwipe 2 were, respectively, 21.27 wpm and 32.96 wpm. Participants considered EyeSwipe 2 to be more comfortable and faster, while less accurate than EyeSwipe 1. Additionally, with EyeSwipe 2 we proposed the use of gaze path data to dynamically adjust the gaze estimation. Using data from the experiment we show that gaze paths can be used to dynamically improve gaze estimation during the interaction.
2018
Andrew Toshiaki Nakayama Kurauchi
Interactive 3D segmentation repair with image-foresting transform, supervoxels and seed robustness
Image segmentation consists on its partition into relevant regions, such as to isolate the pixels belonging to desired objects in the image domain, which is an important step for computer vision, medical image processing, and other applications. Many times automatic segmentation generates results with imperfections. The user can correct them by editing manually, interactively or can simply discard the segmentation and try to automatically generate another result by a different method. Interactive methods combine benefits from manual and automatic ones, reducing user effort and using its high-level knowledge. In seed-based methods, to continue or repair a prior segmentation (presegmentation), avoiding the user to start from scratch, it is necessary to solve the Reverse Interactive Segmentation Problem (RISP), that is, how to automatically estimate the seeds that would generate it. In order to achieve this goal, we first divide the segmented object into its composing cores. Inside a core, two seeds separately always produce the same result, making one redundant. With this, only one seed per core is required. Cores leading to segmentations which are contained in the result of other cores are redundant and can also be discarded, further reducing the seed set, a process called Redundancy Analysis. A minimal set of seeds for presegmentation is generated and the problem of interactive repair can be solved by adding new seeds or removing seeds. Within the framework of the Image-Foresting Transform (IFT), new methods such as Oriented Image-Foresting Transform (OIFT) and Oriented Relative Fuzzy Connectedness (ORFC) were developed. However, there were no known algorithms for computing the core of these methods. This work develops such algorithms, with proof of correctness. The cores also give an indication of the degree of robustness of the methods on the positioning of the seeds. Therefore, a hybrid method that combines GraphCut and the ORFC cores, as well as the Robustness Coefficient (RC), have been developed. In this work, we present another developed solution to repair segmentations, which is based on IFT-SLIC, originally used to generate supervoxels. Experimental results analyze, compare and demonstrate the potential of these solutions.
2017
Anderson Carlos Moreira Tavares
Um modelo para ambientes inteligentes baseado em serviços web semânticos
Um ambiente inteligente é um sistema de computação ubíqua e sensível ao contexto onde os sistemas computacionais embutidos no ambiente, a comunicação entre dispositivos e o ambiente, e a acessibilidade aos serviços do ambiente são transparentes ao usuário. O presente trabalho tem como objetivo propor um modelo para ambientes inteligentes baseado em serviços web semânticos, em que os serviços disponíveis para os dispositivos do ambiente são proporcionados como serviços web e a interação dispositivo - ambiente é feita em um contexto de computação móvel, onde a disponibilidade dos serviços e a informação de contexto do dispositivo mudam freqüentemente. No modelo proposto todas as funcionalidades do ambiente são fornecidas como serviços. Estes serviços são descobertos e executados automaticamente com a finalidade de ajudar o usuário a desenvolver tarefas específicas, permitindo ao usuário se concentrar nas tarefas e não na interação com o ambiente. O modelo se fundamenta na oferta de serviços dirigida pela tarefa a ser desenvolvida, o que é conhecido como Task-driven Computing. Por outro lado, para a automação do processo de descoberta e execução dos serviços é necessário ter uma especificação não ambígua da semântica dos serviços. Empregamos para isso a ontologia WSMO (Web Services Modeling Ontology) que fornece os elementos necessários para a descrição dos serviços disponíveis no ambiente e o contexto do dispositivo. Finalmente, como prova de conceitos do modelo proposto, foi implementado um ambiente inteligente para uma biblioteca. A ativação de um ambiente inteligente baseado no modelo proposto se baseia na definição de ontologias, descrição semântica dos serviços no ambiente e a implementação de serviços web tradicionais.
2007
Crhistian Alberto Noriega Guerra
Minimização de funções submodulares
Funções submodulares aparecem naturalmente em diversas áreas, tais como probabilidade, geometria e otimização combinatória. Pode-se dizer que o papel desempenhado por essas funções em otimização discreta é similar ao desempenhado por convexidade em otimização contínua. Com efeito, muitos problemas em otimização combinatória podem ser formulados como um problema de minimizar uma função submodular sobre um conjunto apropriado. Além disso, submodularidade está presente em vários teoremas ou problemas combinatórios e freqüentemente desempenha um papel essencial em uma demonstração ou na eficiência de um algoritmo. Nesta dissertação, estudamos aspectos estruturais e algorítmicos de funções submodulares, com ênfase nos recentes avanços em algoritmos combinatórios para minimização dessas funções. Descrevemos com detalhes os primeiros algoritmos combinatórios e fortemente polinomiais para esse propósito, devidos a Schrijver e Iwata, Fleischer e Fujishige, além de algumas outras extensões. Aplicações de submodularidade em otimização combinatória também estão presentes neste trabalho.
Um serviço de transações atômicas para Web services
Sistemas computacionais são constituídos por componentes de hardware e software que podem eventualmente falhar. Por esse motivo, o mecanismo de transação sempre foi imprescindível para a construção de sistemas robustos. O suporte transacional para a tecnologia Web services foi definido em agosto de 2005, num conjunto de três especificações denominadas WS-Coordination, WS-AtomicTransaction e WS-BusinessActivity. Juntas, essas especificações definem um alicerce sobre o qual aplicações robustas baseadas em Web services podem ser construídas. Nesta dissertação realizamos um estudo sobre transações atômicas em ambientes Web services. Em particular, estendemos o gerenciador de transações presente no servidor de aplicações JBoss, de modo que ele passasse a comportar transações distribuídas envolvendo Web services. Além disso, avaliamos o desempenho desse gerenciador de transações quando ele emprega cada um dos seguintes mecanismos de chamada remota: Web services/SOAP, CORBA/IIOP e JBoss Remoting. Finalmente, realizamos experimentos de escalabilidade e interoperabilidade.
2007
Ivan Bittencourt de Araujo e Silva Neto
Um serviço de autorização Java EE baseado em certificados de atributos X.509.
O surgimento e a popularização de arquiteturas de software que fornecem suporte à programação distribuída orientada a objetos, como CORBA, .NET e Java EE, gerou uma demanda por infra-estruturas de segurança eficientes, capazes de proteger os recursos dos sistemas de ataques maliciosos. Essa proteção começa pela identificação dos usuários que interagem com os sistemas, processo conhecido como autenticação. Entretanto, a autenticação por si só não é suficiente para garantir a segurança dos recursos, uma vez que a autenticação não determina quais ações os usuários estão autorizados a executar depois de autenticados. Em outras palavras, um mecanismo de autorização, que faz valer as políticas de controle de acesso aos recursos definidas pelos administradores de sistemas, se faz necessário. Neste trabalho estudamos mecanismos de controle de acesso baseado em papéis e a aplicabilidade dos certificados de atributos X.509 como estrutura de armazenamento desses papéis em um ambiente Java EE. Em particular, estendemos a infra-estrutura de segurança do servidor de aplicações JBoss, de modo que ela passasse a comportar os certificados de atributos X.509. Além disso, analisamos as vantagens e desvantagens do uso de tais certificados e avaliamos o desempenho da extensão desenvolvida em relação a outras alternativas que são oferecidas pelo JBoss para o armazenamento de papéis dos usuários.
2008
Stefan Neusatz Guilhen
Modelos de aprendizado supervisionado usando métodos kernel, conjuntos fuzzy e medidas de probabilidade
Esta tese propõe uma metodologia baseada em métodos de kernel, teoria fuzzy e probabilidade para tratar conjuntos de dados cujas observações são conjuntos de pontos. As medidas de probabilidade e os conjuntos fuzzy são usados para modelar essas observações. Posteriormente, graças a kernels definidos sobre medidas de probabilidade, ou em conjuntos fuzzy, é feito o mapeamento implícito dessas medidas de probabilidade, ou desses conjuntos fuzzy, para espaços de Hilbert com kernel reproduzível, onde a análise pode ser feita com algum método kernel. Usando essa metodologia, é possível fazer frente a uma ampla gamma de problemas de aprendizado para esses conjuntos de dados. Em particular, a tese apresenta o projeto de modelos de descrição de dados para observações modeladas com medidas de probabilidade. Isso é conseguido graças ao mergulho das medidas de probabilidade nos espaços de Hilbert, e a construção de esferas envolventes mínimas nesses espaços de Hilbert. A tese apresenta como esses modelos podem ser usados como classificadores de uma classe, aplicados na tarefa de detecção de anomalias grupais. No caso que as observações sejam modeladas por conjuntos fuzzy, a tese propõe mapear esses conjuntos fuzzy para os espaços de Hilbert com kernel reproduzível. Isso pode ser feito graças à projeção de novos kernels definidos sobre conjuntos fuzzy. A tese apresenta como esses novos kernels podem ser usados em diversos problemas como classificação, regressão e na definição de distâncias entre conjuntos fuzzy. Em particular, a tese apresenta a aplicação desses kernels em problemas de classificação supervisionada em dados intervalares e teste kernel de duas amostras para dados contendo atributos imprecisos.
2015
Jorge Luis Guevara Díaz
Efeitos de áudio baseados em decomposição AM/FM
Esta pesquisa aborda o projeto de efeitos de áudio baseados em decomposições que levam um sinal proveniente de um instrumento musical para a representação AM/FM. A decomposição AM/FM produz um par de sinais também no domínio do tempo, que representam o envelope (porção AM) e a frequência instantânea (porção FM) do sinal analisado. Estes dois sinais atuam em conjunto e podem recriar o sinal original caso utilizados para modular um oscilador senoidal em amplitude e em frequência. Por outro lado, a manipulação individual das porções AM e FM oferece novas possibilidades para processamento de sinais e implementação de efeitos musicais. Neste trabalho discutimos aspectos sobre diferentes técnicas para a decomposição, baseadas na Transformada de Hilbert em conjunto com o Sinal Analítico ou no Operador de Energia de Teager-Kaiser em conjunto com o Algoritmo de Separação de Energia. Apresentamos novos efeitos de áudio baseados em filtragem simples (passa-baixa, passa-banda, passa-alta), processamento dinâmico (distorção, compressor, expander) e manipulações das porções AM e FM inspiradas em efeitos clássicos (tremolo, flanger, octaver, chorus), entre outros efeitos. Implementações para operação em tempo-real são apresentadas e discutidas. Também foi realizada uma avaliação experimental da aplicação dos efeitos propostos, baseada na análise do comportamento de descritores de áudio relacionados com amplitude (variação dinâmica) e frequência (variação espectral) de sinais.
2016
Antonio Jose Homsi Goulart
Seleção de características e predição intrinsecamente multivariada em identificação de redes de regulação gênica
Seleção de características é um tópico muito importante em aplicações de reconhecimento de padrões, especialmente em bioinformática, cujos problemas são geralmente tratados sobre um conjunto de dados envolvendo muitas variáveis e poucas observações. Este trabalho analisa aspectos de seleção de características no problema de identificação de redes de regulação gênica a partir de sinais de expressão gênica. Particularmente, propusemos um modelo de redes gênicas probabilísticas (PGN) que devolve uma rede construída a partir da aplicação recorrente de algoritmos de seleção de características orientados por uma função critério baseada em entropia condicional. Tal critério embute a estimação do erro por penalização de amostras raramente observadas. Resultados desse modelo aplicado a dados sintéticos e a conjuntos de dados de microarray de Plasmodium falciparum, um agente causador da malária, demonstram a validade dessa técnica, tendo sido capaz não apenas de reproduzir conhecimentos já produzidos anteriormente, como também de produzir novos resultados. Outro aspecto investigado nesta tese é o fenômeno da predição intrinsecamente multivariada (IMP), ou seja, o fato de um conjunto de características ser um ótimo caracterizador dos objetos em questão, mas qualquer de seus subconjuntos propriamente contidos não conseguirem representá-los de forma satisfatória. Neste trabalho, as condições para o surgimento desse fenômeno foram obtidas de forma analítica para conjuntos de 2 e 3 características em relação a uma variável alvo. No contexto de redes de regulação gênica, foram obtidas evidências de que genes alvo de conjuntos IMP possuem um enorme potencial para exercerem funções vitais em sistemas biológicos. O fenômeno conhecido como canalização é particularmente importante nesse contexto. Em dados de microarray de melanoma, constatamos que o gene DUSP1, conhecido por exercer função canalizadora, foi aquele que obteve o maior número de conjuntos de genes IMP, sendo que todos eles possuem lógicas de predição canalizadoras. Além disso, simulações computacionais para construção de redes com 3 ou mais genes mostram que o tamanho do território de um gene alvo pode ter um impacto positivo em seu teor de IMP com relação a seus preditores. Esta pode ser uma evidência que confirma a hipótese de que genes alvo de conjuntos IMP possuem a tendência de controlar diversas vias metabólicas cruciais para a manutenção das funções vitais de um organismo.
2008
David Corrêa Martins Junior
Um sistema de rastreamento de olhar tolerante a movimentações da face
A crescente capacidade do poder computacional e a proliferação de dispositivos ao nosso redor vem permitindo o desenvolvimento de novas e sofisticadas interfaces para interação humano-computador que reagem à presença e ao estado de seus usuários. Como o olhar tem a capacidade de transmitir muitas informações sobre o usuário, rastreadores de olhar, dispositivos que estimam a direção para onde uma pessoa olha, tem papel importante no desenvolvimento de tais interfaces. Entre suas aplicações temos o auxílio a pessoas com dificuldades motoras, que podem utilizar um rastreador de olhar como substituto ao mouse, aplicações de diagnóstico, que estudam evidências do comportamento humano, ou ainda o desenvolvimento de interfaces que utilizem a informação sobre o olhar como um canal a mais de comunicação com o usuário para perceber suas intenções. Muitas técnicas para atingir tal objetivo foram desenvolvidas mas as tradicionais ainda oferecem certas dificuldades de uso para seus usuários como a intolerância a movimentos de cabeça e a necessidade de calibração por sessão de uso. Neste trabalho fizemos um levantamento de uma série de técnicas de rastreamento de olhar, indo das mais tradicionais até algumas mais recentes que visam melhorar a facilidade de uso destes sistemas. Uma das técnicas mais promissoras utiliza múltiplas fontes de luz fixadas nos cantos do monitor do computador. Através da análise da posição dos reflexos gerados por essas fontes de luz sobre a córnea, juntamente com a informação da posição da pupila, presentes em imagens capturadas do olho, é possível estimar o ponto observado no monitor. Devido às suas vantagens ela foi escolhida para estudo mais detalhado e implementação. Extensos testes utilizando simulações foram realizados para avaliar seu desempenho. Foi também desenvolvida uma extensão dessa técnica, utilizando um modelo mais preciso do olho, visando melhorar sua precisão. Ao final apresentamos nossa implementação, baseada nessa extensão da técnica original, que é tolerante a movimentação da face e mostramos os resultados obtidos em testes realizados com um grupo de usuários.