Repositório RCAAP

Auralização de fontes sonoras móveis usando HRTFs

Este trabalho tem por objetivo desenvolver ferramentas que permitam gerar em fones-de-ouvido o efeito psicoacústico de fontes sonoras locomovendo-se no espaço, por meio da auralização do sinal monofônico original. Embora a auralização binaural possa ser feita empregando variações de atraso (chamadas ITD interaural time difference, ou diferença de tempo interaural) e de intensidade (chamadas ILD interaural level difference, ou diferença de nível interaural) entre os canais, melhores resultados psicoacústicos podem ser obtidos ao se utilizar filtros digitais conhecidos como HRTFs (head related transfer functions, ou funções de transferência relativas à cabeça). Uma HRTF insere no sinal monofônico informações que possibilitam ao sistema auditivo identificá-lo como proveniente de uma direção específica, direção esta que é única para cada HRTF. Para posicionar uma fonte estática em uma direção específica, bastaria, então, filtrar o sinal original pela HRTF da direção desejada. Se, no entanto, for desejável que a fonte se locomova em uma trajetória contínua, um número infinitamente grande de filtros seria necessário. Como eles são, normalmente, obtidos empiricamente, um número arbitrariamente alto deles não está disponível. Disso surge a necessidade de técnicas de interpolação de HRTFs, que possibilitem gerar os filtros intermediários não disponíveis. Este trabalho apresenta três novas técnicas de interpolação de HRTFs, para assim alcançar o objetivo de auralizar fontes sonoras móveis: a interpolação triangular, que é uma técnica de interpolação linear baseada na técnica de panorama sonoro VBAP (vector-based amplitude panning, ou panorama sonoro baseado em vetores); o método das movimentações discretas, que busca explorar o limiar de percepção do nosso sistema auditivo para, com isso, gerar uma técnica extremamente barata computacionalmente; e a interpolação espectral, que altera continuamente as estruturas das HRTFs para gerar filtros interpolados. São apresentadas também as implementações feitas dessas novas técnicas desenvolvidas, bem como os testes numéricos realizados para medir sua eficácia.

Ano

2010

Creators

Gustavo Henrique Montesião de Sousa

Filtros para a busca e extração de padrões aproximados em cadeias biológicas

Esta dissertação de mestrado aborda formulações computacionais e algoritmos para a busca e extração de padrões em cadeias biológicas. Em particular, o presente texto concentra-se nos dois problemas a seguir, considerando-os sob as distâncias de Hamming e Levenshtein: a) como determinar os locais nos quais um dado padrão ocorre de modo aproximado em uma cadeia fornecida; b) como extrair padrões que ocorram de modo aproximado em um número significativo de cadeias de um conjunto fornecido. O primeiro problema, para o qual já existem diversos algoritmos polinomiais, tem recebido muita atenção desde a década de 60, e ganhou novos ares com o advento da biologia computacional, nos idos dos anos 80, e com a popularização da Internet e seus mecanismos de busca: ambos os fenômenos trouxeram novos obstáculos a serem superados, em razão do grande volume de dados e das bastante justas restrições de tempo inerentes a essas aplicações. O segundo problema, de surgimento um pouco mais recente, é intrinsicamente desafiador, em razão de sua complexidade computacional, do tamanho das entradas tratadas nas aplicações mais comuns e de sua dificuldade de aproximação. Também é de chamar a atenção o seu grande potencial de aplicação. Neste trabalho são apresentadas formulações adequadas dos problemas abordados, assim como algoritmos e estruturas de dados essenciais ao seu estudo. Em especial, estudamos a extremamente versátil árvore dos sufixos, assim como uma de suas generalizações e sua estrutura irmã: o vetor dos sufixos. Grande parte do texto é dedicada aos filtros baseados em q-gramas para a busca aproximada de padrões e algumas de suas mais recentes variações. Estão cobertos os algoritmos bit-paralelos de Myers e Baeza-Yates-Gonnet para a busca de padrões; os algoritmos de Sagot para a extração de padrões; os algoritmos de filtragem de Ukkonen, Jokinen-Ukkonen, Burkhardt-Kärkkäinen, entre outros.

Ano

2008

Creators

Domingos Soares Neto

Recoloração convexa de grafos: algoritmos e poliedros

Neste trabalho, estudamos o problema a recoloração convexa de grafos, denotado por RC. Dizemos que uma coloração dos vértices de um grafo G é convexa se, para cada cor tribuída d, os vértices de G com a cor d induzem um subgrafo conexo. No problema RC, é dado um grafo G e uma coloração de seus vértices, e o objetivo é recolorir o menor número possível de vértices de G tal que a coloração resultante seja convexa. A motivação para o estudo deste problema surgiu em contexto de árvores filogenéticas. Sabe-se que este problema é NP-difícil mesmo quando G é um caminho. Mostramos que o problema RC parametrizado pelo número de mudanças de cor é W[2]-difícil mesmo se a coloração inicial usa apenas duas cores. Além disso, provamos alguns resultados sobre a inaproximabilidade deste problema. Apresentamos uma formulação inteira para a versão com pesos do problema RC em grafos arbitrários, e então a especializamos para o caso de árvores. Estudamos a estrutura facial do politopo definido como a envoltória convexa dos pontos inteiros que satisfazem as restrições da formulação proposta, apresentamos várias classes de desigualdades que definem facetas e descrevemos os correspondentes algoritmos de separação. Implementamos um algoritmo branch-and-cut para o problema RC em árvores e mostramos os resultados computacionais obtidos com uma grande quantidade de instâncias que representam árvores filogenéticas reais. Os experimentos mostram que essa abordagem pode ser usada para resolver instâncias da ordem de 1500 vértices em 40 minutos, um desempenho muito superior ao alcançado por outros algoritmos propostos na literatura.

Ano

2013

Creators

Phablo Fernando Soares Moura

Acordo de chaves criptográficas hierárquico e sem certificado

Apresentamos um novo esquema de acordo de chaves criptográficas hierárquico, não Interativo e seguro contra comprometimento de múltiplos nós. Esquemas para Acordo de chaves criptográficas (KAS - Key Agreement Scheme), são usados quando duas ou mais entidades desejam compartilhar uma chave secreta única, afim de para realizar uma comunicação segura por meio de um protocolo de criptografia simétrico. O acordo de chaves proposto possui as seguintes características: Não interativo: Chaves compartilhadas são calculadas sem interação dos nós participantes; Chaves Públicas sem certificados (Certificateless): Para o cálculo da chave compartilhada o nó utiliza sua chave secreta e a chave pública do destinatário, que é certificada pela identidade do destinatário; Hierárquico: Permite que seja utilizado um gerenciamento hierárquico, para concessão, revogação e distribuição de chaves; e Resistente: Permite segurança do sistema mesmo quando nós dentro da hierarquia são comprometidos em qualquer ordem e quantidade. Este trabalho é uma nova abordagem do artigo \"Strongly-Resilent and Non-Interactive Hierarchical Key-Agreement in MANETs\" onde substituímos o uso de sistemas baseados na identidade por sistemas sem certificado, eliminando a custódia de chaves em todos os níveis hierárquicos, aumentando a segurança do sistema quanto ao comprometimento de nós. É apresentado ainda uma discussão sobre a segurança do esquema proposto e de acordos de chaves não interativos.

Ano

2009

Creators

Vilc Queupe Rufino

Detecção e rastreamento de lábios em dispositivos móveis

A tecnologia tem estado presente cada vez mais no dia-a-dia e trouxe avanços notáveis para a área de visão computacional. Uma das áreas de visão, a detecção de características humanas, sempre foi importante para tarefas de reconhecimento, vigilância, controle e outras. Há um grande potencial de uso na área de acessibilidade, podendo ser benéfica para um grupo de pessoas com necessidades especiais, para proporcionar uma maior interação com o ambiente e com as pessoas. Uma dessas características, os lábios, é útil para o reconhecimento visual e/ou auditivo da fala e pode ser usada para aplicações em acessibilidade de deficientes auditivos e surdos, como por exemplo para a leitura labial. Com a crescente popularização dos dispositivos móveis e avanços no hardware, além do custo cada vez mais acessível, torna-se possível a implementação de métodos rápidos e eficientes para detecção e seu posterior rastreamento. Assim, é possível o uso em tempo real nos dispositivos móveis. Esta dissertação descreve um sistema desenvolvido para a detecção e rastreamento da região dos lábios nesse contexto. A detecção da região dos lábios é feita pelo algoritmo de Viola-Jones, com o diferencial do uso de conjuntos de imagens sintéticas para o treinamento e geração do detector proposto. O rastreamento é baseado no Camshift com modificações, um método de rastreamento de objeto por kernel. A implementação é descrita em detalhes e são mostrados resultados obtidos por sequências gravadas em um dispositivo móvel. As sequências são capturadas em uma configuração não frontal, o que pode ser útil em aplicações específicas. Métricas baseadas no número de acertos, de erros e de falsos positivos são usadas para avaliar os resultados, além da taxa de quadros por segundo.

Ano

2012

Creators

Giseli de Araujo Ramos

Uma arquitetura hierárquica baseada em sistema de arquivos para monitoramento de pacotes de rede no sistema operacional GNU/Linux

Capturar e analisar pacotes de dados que trafegam pelas redes são tarefas essenciais para os administradores de redes. Estas tarefas ajudam na detecção de anomalias nos sistemas e na verificação do estado atual da rede. Existem várias aplicações que desempenham este papel para o sistema operacional GNU/Linux. Estes programas também exportam informações para os usuários e outras aplicações de várias maneiras. Entretanto, não exportam estas informações de forma hierárquica. Esta pesquisa propõe uma arquitetura alternativa aos sistemas atuais. Nossa arquitetura exporta pacotes de dados em uma estrutura hierárquica de arquivos e diretórios. Além disso, por se tratar de uma arquitetura modular, filtros adicionais, desenvolvidos por terceiros, podem ser adicionados ao sistema. A arquitetura proposta acompanha uma implementação de referência: o sistema de arquivos virtuais netsfs (Network Statistics File System), que funciona em espaço de núcleo (kernel space). A arquitetura e o sistema de arquivos netsfs, propostos nesta pesquisa, apresentam um método alternativo para exibir os pacotes de redes. Os resultados mostraram uma aparente melhoria no que diz respeito à vazão da rede.

Ano

2013

Creators

Beraldo Costa Leal

Human-help in automated planning under uncertainty

Planning is the sub-area of artificial intelligence that studies the process of selecting actions to lead an agent, e.g. a robot or a softbot, to a goal state. In many realistic scenarios, any choice of actions can lead the robot into a dead-end state, that is, a state from which the goal cannot be reached. In such cases, the robot can, pro-actively, resort to human help in order to reach the goal, an approach called symbiotic autonomy. In this work, we propose two different approaches to tackle this problem: (I) contingent planning, where the initial state is partially observable, configuring a belief state, and the outcomes of the robot actions are non-deterministic; and (II) probabilistic planning, where the initial state may be partially or totally observable and the actions have probabilistic outcomes. In both approaches, the human help is considered a scarce resource that should be used only when necessary. In contingent planning, the problem is to find a policy (a function mapping belief states into actions) that: (i) guarantees the agent will always reach the goal (strong policy); (ii) guarantees that the agent will eventually reach the goal (strong cyclic policy), or (iii) does not guarantee achieving the goal (weak policy). In this scenario, we propose a contingent planning system that considers human help to transform weak policies into strong (cyclic) policies. To do so, two types of human help are included: (i) human actions that modify states and/or belief states; and (ii) human observations that modify belief states. In probabilistic planning, the problem is to find a policy (a function mapping between world states and actions) that can be one of these two types: a proper policy, where the agent has probability 1 of reaching the goal; or an improper policy, in the case of unavoidable dead-ends. In general, the goal of the agent is to find a policy that minimizes the expected accumulated cost of the actions while maximizes the probability of reaching the goal. In this scenario, this work proposes probabilistic planners that consider human help to transform improper policies into proper policies however, considering two new (alternative) criteria: either to minimize the probability of using human actions or to minimize the expected number of human actions. Furthermore, we show that optimal policies under these criteria can be efficiently computed either by increasing human action costs or given a penalty when a human help is used. Solutions proposed in both scenarios, contingent planning and probabilistic planning with human help, were evaluated over a collection of planning problems with dead-ends. The results show that: (i) all generated policies (strong (cyclic) or proper) include human help only when necessary; and (ii) we were able to find policies for contingent planning problems with up to 10^15000 belief states and for probabilistic planning problems with more than 3*10^18 physical states.

Ano

2018

Creators

Ignasi Andrés Franch

Computer vision analysis of unconstrained urban ground-level images

Nowadays, images are generated on a large scale and in a decentralized way. Such modality of data carries valuable information but extracting this information is not always trivial. In this thesis, we tackle computer vision challenges when using ground-level images. The first challenge is the high-cost annotation for evaluating object detection methods. In the context of image degradation imposed by weather, the second issue is the lack of analysis that evaluates the impact of de-raining methods to the object detection algorithms on rainy images. The third challenge is the evaluation of the reliability of the density estimation results from a real sensor network. The emergence of sensor network data motivates the last problem, of estimating the urban degradation in the city using city images. These challenges define the scope of this thesis. For the first problem, we proposed an approach with cheap annotation cost for object detectors comparison and we applied it in a semi-supervised learning approach using surveillance images. To address challenge two, we established a protocol and performed an extensive benchmark of object detection preceded by de-raining methods. We find strong indicators that no current de-raining method can robustly improve the posterior object detection accuracy when applied in this naive way. The third issue was tackled by creating a probabilistic sensing model to establish theoretical bounds for the errors of the sensed distributions. The approach has been validated using simulation and applied to compute the pedestrian density map in Manhattan. To attack the last problem, we systematically collected public images of São Paulo and segmented the regions affected by tagging, as an indicator of the urban degradation of the region. The source code is fully released.

Ano

2019

Creators

Éric Keiji Tokuda

Answer set programming probabilístico

Este trabalho introduz uma técnica chamada Answer Set Programming Probabilístico (PASP), que permite a modelagem de teorias complexas e a verificação de sua consistência em relação a um conjunto de dados estatísticos. Propomos métodos de resolução baseados em uma redução para o problema da satisfazibilidade probabilística (PSAT) e um método de redução de Turing ao ASP.

Ano

2012

Creators

Eduardo Menezes de Morais

Comparação de algoritmos para o Problema dos K Menores Caminhos

O Problema dos K Menores Caminhos é uma generalização do Problema do Menor Caminho, em que desejamos encontrar os K caminhos de menor custo entre dois vértices de um grafo. Estudamos e implementamos algoritmos que resolvem esse problema em grafos dirigidos, com peso nos arcos e que permitem apenas caminhos sem repetição de vértices na resposta. Comparamos seus desempenhos utilizando grafos do 9th DIMACS Implementation Challenge. Identificamos os pontos fortes e fracos de cada algoritmo, e propusemos uma variante híbrida dos algoritmos de Feng e de Pascoal. Essa variante proposta obteve desempenho superior aos algoritmos base em alguns grafos, e resultado superior a pelo menos um deles na grande maioria dos testes.

Ano

2018

Creators

Diogo Haruki Kykuta

Integração entre múltiplas ontologias: reúso e gerência de conflitos

A reutilização de conhecimento é uma tarefa chave para qualquer sistema computacional. Entretanto, o reúso indiscriminado desse conhecimento pode gerar resultados conflitantes com o objetivo de uso do conhecimento, levando sistemas a se comportarem de maneira imprevisível. Neste trabalho estudamos as consequências do reúso de conhecimento em ontologias baseadas em lógicas de descrição. Focamos principalmente nos problemas que podem ser causados pela fusão de ontologias. Investigamos e comparamos a capacidade das ferramentas de desenvolvimento de ontologias atuais de lidarem com esses problemas e como a teoria se desenvolveu para resolver os mesmos problemas. Realizamos a construção de um arcabouço lógico e de software, organizado na forma de um processo, que tem como objetivo auxiliar o projetista de ontologias a resolver conflitos advindos da fusão. O processo agrupa tarefas descritas normalmente na literatura em separado. Acreditamos que a união dessas abordagens leva a uma melhor solução de conflitos. Durante o desenvolvimento deste trabalho, concentramos nossos esforços principalmente no desenvolvimento de algoritmos para a construção de sub-ontologias maximais, onde os conflitos não ocorram, bem como a ordenação desses conjuntos segundo critérios comuns discutidos na literatura. Tais estratégias foram implementadas em software e testadas utilizando dados gerados automaticamente e dados reais.

Ano

2014

Creators

Raphael Mendes de Oliveira Cobe

Uma técnica automática baseada em morfologia matemática para a medida de sinal de imagens de cDNA

O objetivo deste trabalho é apresentar uma técnica automática baseada em morfologia matemática para medida de sinal em imagens de cDNA desenvolvida no BIOINFO,em parceria com o Instituto Ludwig de Pesquisa contra o Câncer. A tecnologia de lâminas de cDNA é um processo baseado em hibridização que possibilita observar a concentração relativa de mRNA de amostras de tecidos analisando a luminosidade de sinais fluorescentes ou radioativos. Hibridização é o processo bioquímico onde duas fitas de ácido nucleico com seqüências complementares se combinam. A técnica apresentada permite o cálculo da expressão gênica com alto grau de automação, podendo o usuário corrigir com facilidade eventuais erros de segmentação. O usuário interage com o programa apenas para selecionar as imagens e inserir os dados de geometria da lâmina. A estratégia de solução usada tem três fases: gradeamento dos blocos, gradeamento dos spots e segmentação dos spots. Todas as fases utilizam filtros morfológicos e as fases de gradeamento possuem um passo final de correção baseado nos dados de geometria da lâmina o que aumenta a robustez do processo, que funciona bem mesmo em imagens ruidosas.

Ano

2004

Creators

Daniel Oliveira Dantas

Software startup ecosystems evolution: a maturity model

Resulting from the technological revolution over the last few decades, many software startup ecosystems have emerged around the globe. Boosted by the Internet, the omnipresence of mobile devices, and the abundance of cloud-based services, software companies with scalable business models, known as startups, became all the hype. With tech entrepreneurs as their main agents, some of these ecosystems have existed for over 50 years, while others are newly born. This difference in evolution and maturity makes comparing tech hubs a challenge. Moreover, if they are to evolve towards fruitful and sustainable environments, nascent ecosystems need a clear vision of how to develop their community. This thesis presents a multiple-case study research in three different ecosystems, and it was divided in three phases. During the first phase, we analyzed the Israeli entrepreneurship ecosystem and, using grounded theory, created a conceptual generalized framework to map ecosystems. We also developed a methodology and a systematic interview protocol to be used to analyze any ecosystem. The second phase was performed in São Paulo, with the objective of refining and validating both the methodology and the conceptual framework. The second phase resulted in the discovery of how important it is to analyze ecosystem dynamics and evolution process, leading us to create a maturity model for software startup ecosystems. The maturity model was based on the conceptual model we created, mapping the most important factors that define an ecosystem. To validate and refine the Maturity Model created in the second phase, we ran a third case-study iteration in New York City. Based on the feedback from over a dozen experts, we generated the final model and a practical guide to determine an ecosystems maturity level. With this model, it is possible not only to compare different ecosystems, but also to identify gaps and propose customized practical actions that can yield meaningful improvements and lead ecosystems to the next level of development.

Paralelização de inferência em redes credais utilizando computação distribuída para fatoração de matrizes esparsas

Este estudo tem como objetivo melhorar o desempenho computacional dos algoritmos de inferência em redes credais, aplicando técnicas de computação paralela e sistemas distribuídos em algoritmos de fatoração de matrizes esparsas. Grosso modo, técnicas de computação paralela são técnicas para transformar um sistema em um sistema com algoritmos que possam ser executados concorrentemente. E a fatoração de matrizes são técnicas da matemática para decompor uma matriz em um produto de duas ou mais matrizes. As matrizes esparsas são matrizes que possuem a maioria de seus valores iguais a zero. E as redes credais são semelhantes as redes bayesianas, que são grafos acíclicos que representam uma probabilidade conjunta através de probabilidades condicionais e suas relações de independência. As redes credais podem ser consideradas como uma extensão das redes bayesianas para lidar com incertezas ou a má qualidade dos dados. Para aplicar a técnica de paralelização de fatoração de matrizes esparsas na inferência de redes credais, a inferência utiliza-se da técnica de eliminação de variáveis onde o grafo acíclico da rede credal é associado a uma matriz esparsa e cada variável eliminada é análoga a eliminação de uma coluna.

Ano

2017

Creators

Ramon Fortes Pereira

Padrões de Fluxos de Processos em Banco de Dados Relacionais

A representação e execução de processos de negócio têm gerado importantes desafios na área de Ciência da Computação. Um desses desafios é a escolha do melhor arcabouço formal para a especificação dos controles de fluxo padrões. Algumas linguagens defendem o uso de redes de Petri ou álgebras de processos como base formal. O uso de redes de Petri para especificar workflows clássicos é uma abordagem bastante conhecida. Entretanto, pesquisas recentes vêm difundindo o uso de novas extensões da álgebra de processos como uma alternativa para a especificação formal de workflows. A principal contribuição deste trabalho é a definição da Navigation Plan Definition Language (NPDL). A NPDL foi implementada como uma extensão da linguagem SQL. Ela é uma alternativa para a representação de workflows que utiliza a álgebra de processos como arcabouço formal. A NPDL promove uma separação explícita entre o ambiente de especificação e o ambiente de execução de um workflow. Esta separação propicia o reaproveitamento de passos de negócio e o uso das propriedades da álgebra de processos não só na modelagem, mas também no controle da execução dos processos. Após a especificação de um workflow por meio da NPDL, a execução dos passos que o definem é controlada pela ferramenta NavigationPlanTool. Essa ferramenta é a segunda contribuição deste trabalho de pesquisa.

Ano

2006

Creators

Kelly Rosa Braghetto

Uso do padrão AMQP para transporte de mensagens entre atores remotos

O modelo de atores tem sido visto como uma abordagem alternativa à programação concorrente convencional, baseada em travas e variáveis de condição. Atores são agentes computacionais que se comunicam por troca de mensagens e que possuem uma caixa de correio e um comportamento. As mensagens destinadas a um ator são armazenadas na caixa de correio do ator e processadas de maneira assíncrona. Sistemas de middleware orientados a mensagens trabalham com troca assíncrona de mensagens e formam uma base que simplifica o desenvolvimento de aplicações distribuídas. Tais sistemas permitem interoperabilidade com baixo acoplamento e provêm suporte para tratamento robusto de erros em caso de falhas. Message brokers são frequentemente apresentados como uma tecnologia que pode mudar a maneira com que sistemas distribuídos são construídos. A especificação AMQP é uma proposta recente de padronização de um protocolo para message brokers. Neste trabalho exploramos a potencial sinergia entre um message broker e uma implementação do modelo de atores. Criamos uma versão modificada da implementação do modelo de atores do projeto Akka que utiliza um message broker AMQP como mecanismo de transporte de mensagens para atores remotos.

Ano

2012

Creators

Thadeu de Russo e Carmo

Codificação e compressão iterativa de sinais biomédicos

Em Biomedicina, a detecção e a quanticação de anormalidades presentes num sinal são desejáveis. Uma estratégia de codicação baseada em extração de características, tais como picos ou frequências, pode não capturar todas as irregularidades. Assim, uma representação baseada em funções de base denidas com conhecimento a priori do sinal pode ser mais precisa para aplicações biomédicas. A escolha das funções base depende da natureza siológica do sinal e de suas peculiaridades. Sinais de eletrocardiograma (ECG) e eletroencefalograma (EEG) exibem características bem denidas. ECG, por exemplo, é um sinal elétrico composto de uma forma de onda especíca (P, QRS e T). Se as características de um sinal a ser sintetizado são bem compreendidas, é possível derivar uma assinatura para o sinal. Uma codicação apropriada permite a extração de parâmetros relevantes para sua análise, tais como anormalidades num ciclo cardíaco representadas por uma alteração no sinal de ECG, ou então uma excitação das ondas cerebrais representada por uma modicação no sinal de EEG. O objetivo deste projeto é introduzir uma nova técnica de codicação de sinais, que representa um sinal pela soma de funções sigmoides para aproximar iterativamente o sinal medido, com foco em aplicações biomédicas. Funções sigmoides tendem a reproduzir bem as grandes variações presentes em sinais biomédicos, daí a escolha de usá-las na codicação deste tipo de sinal. Serão explorados o nível de compressão dos dados, bem como a taxa de convergência. A técnica desenvolvida será comparada com técnicas convencionais de codicação e sua robustez será avaliada. Uma estratégia de codicação ótima pode trazer benefícios não só para a compressão, mas também na criação de assinaturas de sinais representando tanto condições siológicas normais como patológicas.

Ano

2013

Creators

Luiz Fernando Oliveira Corte Real

Modelos computacionais prognósticos de lesões traumáticas do plexo braquial em adultos

Estudos de prognóstico clínico consistem na predição do curso de uma doença em pacientes e são utilizados por profissionais da saúde com o intuito de aumentar as chances ou a qualidade de sua recuperação. Sob a perspectiva computacional, a criação de um modelo prognóstico clínico é um problema de classificação, cujo objetivo é identificar a qual classe (dentro de um conjunto de classes predefinidas) uma nova amostra pertence. Este projeto visa a criar modelos prognósticos de lesões traumáticas do plexo braquial, um conjunto de nervos que inervam os membros superiores, utilizando dados de pacientes adultos com esse tipo de lesão. Os dados são provenientes do Instituto de Neurologia Deolindo Couto (INDC) da Universidade Federal do Rio de Janeiro (UFRJ) e contêm dezenas de atributos clínicos coletados por meio de questionários eletrônicos. Com esses modelos prognósticos, deseja-se identificar de maneira automática os possíveis preditores do curso desse tipo de lesão. Árvores de decisão são classificadores frequentemente utilizados para criação de modelos prognósticos, por se tratarem de um modelo transparente, cujo resultado pode ser examinado e interpretado clinicamente. As Florestas Aleatórias, uma técnica que utiliza um conjunto de árvores de decisão para determinar o resultado final da classificação, podem aumentar significativamente a acurácia e a generalização dos modelos gerados, entretanto ainda são pouco utilizadas na criação de modelos prognósticos. Neste projeto, exploramos a utilização de florestas aleatórias nesse contexto, bem como a aplicação de métodos de interpretação de seus modelos gerados, uma vez que a transparência do modelo é um aspecto particularmente importante em domínios clínicos. A estimativa de generalização dos modelos resultantes foi feita por meio de métodos que viabilizam sua utilização sobre um número reduzido de instâncias, uma vez que os dados relativos ao prognóstico são provenientes de 44 pacientes do INDC. Além disso, adaptamos a técnica de florestas aleatórias para incluir a possível existência de valores faltantes, que é uma característica presente nos dados utilizados neste projeto. Foram criados quatro modelos prognósticos - um para cada objetivo de recuperação, sendo eles a ausência de dor e forças satisfatórias avaliadas sobre abdução do ombro, flexão do cotovelo e rotação externa no ombro. As acurácias dos modelos foram estimadas entre 77% e 88%, utilizando o método de validação cruzada leave-one-out. Esses modelos evoluirão com a inclusão de novos dados, provenientes da contínua chegada de novos pacientes em tratamento no INDC, e serão utilizados como parte de um sistema de apoio à decisão clínica, de forma a possibilitar a predição de recuperação de um paciente considerando suas características clínicas.

Ano

2018

Creators

Luciana de Melo e Abud

Ranking source code static analysis warnings for continuous monitoring of free/libre/open source software repositories

While there is a wide variety of both open source and proprietary source code static analyzers available in the market, each of them usually performs better in a small set of problems, making it hard to choose one single tool to rely on when examining a program. Combining the analysis of different tools may reduce the number of false negatives, but yields a corresponding increase in the number of false positives (which is already high for many tools). An interesting solution, then, is to filter these results to identify the issues least likely to be false positives. This work presents kiskadee, a system to support the usage of static analysis during software development by providing carefully ranked static analysis reports. First, it runs multiple static analyzers on the source code. Then, using a classification model, the potential bugs detected by the static analyzers are ranked based on their importance, with critical flaws ranked first, and potential false positives ranked last. To train kiskadee\'s classification model, we post-analyze the reports generated by three tools on synthetic test cases provided by the US National Institute of Standards and Technology. To make our technique as general as possible, we limit our data to the reports themselves, excluding other information such as change histories or code metrics. The features extracted from these reports are used to train a set of decision trees using AdaBoost to create a stronger classifier, achieving 0.8 classification accuracy (the combined false positive rate from the used tools was 0.61). Finally, we use this classifier to rank static analyzer alarms based on the probability of a given alarm being an actual bug. Our experimental results show that, on average, when inspecting warnings ranked by kiskadee, one hits 5.2 times less false positives before each bug than when using a randomly sorted warning list.

Ano

2018

Creators

Athos Coimbra Ribeiro

Modelagem e reconhecimento de objetos estruturados: uma abordagem estatístico-estrutural

Esta tese de doutorado aborda os tópicos de modelagem e de reconhecimento de objetos estruturados, ou sistemas estruturados de objetos, em imagens. Um objeto ou sistema estruturado é aquele que pode ser descrito através de elementos primitivos que o compõem e pelas relações existentes entre esses elementos. Por exemplo, uma aeronave pode ser descrita pelos seguintes elementos primitivos: asas direita e esquerda, fuselagem e cockpit. O aspecto relacional de um objeto estruturado direciona sua representação computacional e seu reconhecimento em imagens ao paradigma estrutural de reconhecimento de padrões. Contudo, a variabilidade das características dos seus elementos primitivos é melhor representada através do paradigma estatístico de reconhecimento de padrões. Devido à complementaridade dos paradigmas, a conjunção dessas abordagens é um tema de pesquisa de interesse atual. Para conjugar esses dois aspectos, esta tese propôs uma metodologia que combina o conhecimento a priori das relações que caracterizam um objeto estruturado com dados estatísticos coletados de amostras desse objeto, num modelo híbrido denominado grafo estatístico-relacional (GER). Segundo essa representação, foi estudada uma abordagem probabilística para reconhecer um objeto estruturado em imagens. Nesse cenário, o GER modelo é considerado uma variável aleatória, enquanto uma rotulação de uma imagem de entrada é interpretada como uma potencial observação do modelo. A tarefa de reconhecimento foi então formulada como um problema de otimização, que busca maximizar a probabilidade da observação de acordo com o modelo. O método foi aplicado à modelagem de órgãos abdominais em imagens de ressonância magnética não-contrastadas. Esses órgãos apresentam um arranjo espacial consistente em imagens distintas, além de propriedades de aparência e anatômicas variáveis, o que vem ao encontro da proposta da representação por GER e da abordagem probabilística para o reconhecimento dos órgãos em novas imagens.

Ano

2012

Creators

Ana Beatriz Vicentim Graciano