RCAAP Repository

Reconhecimento de implicação textual em português

O reconhecimento de implicação textual (RIT) consiste em identificar automaticamente se um trecho de texto em língua natural é verdadeiro baseado no conteúdo de outro. Este problema vem sendo estudado por pesquisadores da área de Processamento de Línguas Naturais (PLN) há alguns anos, e ganhou certo destaque mais recentemente, com a maior disponibilidade de dados anotados e desenvolvimento de métodos baseados em deep learning. Esta pesquisa de doutorado teve como objetivo o desenvolvimento de recursos e métodos computacionais para o RIT, com especial foco em língua portuguesa. Durante sua realização, foi compilado o corpus ASSIN, o primeiro a fornecer dados para treinamento e avaliação de sistemas de RIT em português, e foi organizado o workshop de mesmo nome, que reuniu pesquisadores interessados no tema. Além disso, foram feitos experimentos computacionais com diferentes tipos de estratégias para o RIT, com dados em inglês e em português. Foi desenvolvido um novo modelo para o RIT, o TEDIN (Tree Edit Distance Network). O modelo é baseado no conceito de distância de edição entre árvores sintáticas, já explorado em outros trabalhos de RIT. Seu diferencial é combinar a representação de conhecimento linguístico explícito com a flexibilidade e capacidade representativa de redes neurais. Foi também desenvolvido o Infernal, um modelo para RIT que usa técnicas clássicas de aprendizado de máquina com engenharia de atributos. Os resultados experimentais do TEDIN ficaram abaixo de outros modelos da literatura, e uma análise cuidadosa de seu comportamento indica a dificuldade de se modelar as diferenças entre árvores sintáticas. Por outro lado, o Infernal teve resultados positivos no ASSIN, definindo o novo estado-da-arte para o RIT em português.

Year

2018

Creators

Erick Rocha Fonseca

MDAPSP - Uma arquitetura modular distribuída para auxílio à predição de estruturas de proteínas

A predição de estruturas de proteínas é um campo de pesquisa que busca simular o enovelamento de cadeias de aminoácidos de forma a descobrir as funções das proteínas na natureza, um processo altamente dispendioso por meio de métodos in vivo. Inserida no contexto da Bioinformática, é uma das tarefas mais computacionalmente custosas e desafiadoras da atualidade. Devido à complexidade, muitas pesquisas se utilizam de gateways científicos para disponibilização de ferramentas de execução e análise desses experimentos, aliado ao uso de workflows científicos para organização de tarefas e disponibilização de informações. No entanto, esses gateways podem enfrentar gargalos de desempenho e falhas estruturais, produzindo resultados de baixa qualidade. Para atuar nesse contexto multifacetado e oferecer alternativas para algumas das limitações, esta tese propõe uma arquitetura modular baseada nos conceitos de Service Oriented Architecture (SOA) para oferta de recursos computacionais em gateways científicos, com foco nos experimentos de Protein Structure Prediction (PSP). A Arquitetura Modular Distribuída para auxílio à Predição de Estruturas de Proteínas (MDAPSP) é descrita conceitualmente e validada em um modelo de simulação computacional, no qual se pode identificar suas capacidades, detalhar o funcionamento de seus módulos e destacar seu potencial. A avaliação experimental demonstra a qualidade dos algoritmos propostos, ampliando a capacidade de atendimento de um gateway científico, reduzindo o tempo necessário para experimentos de predição e lançando as bases para o protótipo de uma arquitetura funcional. Os módulos desenvolvidos alcançam boa capacidade de otimização de experimentos de PSP em ambientes distribuídos e constituem uma novidade no modelo de provisionamento de recursos para gateways científicos.

Year

2018

Creators

Edvard Martins de Oliveira

Acompanhamento remoto para a terapia do espelho utilizando smartphone e realidade aumentada

Soluções computacionais desenvolvidas para dispositivos móveis são cada vez mais comuns. A popularização de aplicativos móveis possibilitou o desenvolvimento de soluções para diversas áreas de grande potencial, como a área da saúde, entre ela a Terapia Ocupacional. Entre essas soluções, trabalhos apresentaram diversos métodos computacionais para o apoio a Terapia do Espelho. A terapia do espelho é um método que consiste na execução de exercícios com um membro saudável refletido em um espelho de modo que a visualização auxilie na redução da dor e na reabilitação do membro afetado. Essa terapia tem apresentado resultados, entre outros, na reabilitação para indivíduos que reportam dor do membro fantasma ou em recuperação pós-Acidente Vascular Cerebral (AVC). A literatura apresenta soluções computacionais para, entre outros, permitir a visualização do membro saudável a partir de tecnologias de realidade aumentada e de dispositivos vestíveis. Essas soluções muitas vezes são de difícil acesso e economicamente inviáveis. Um trabalho anterior, realizado em colaboração com equipe multidisciplinar, resultou na definição de um modelo de acompanhamento remoto que emprega dispositivos móveis para permitir o monitoramento de pacientes em tratamento por meio da terapia do espelho. Uma das limitações encontradas naquele trabalho foi o fato do terapeuta não conseguir acompanhar de maneira automática se o paciente está executando a terapia de maneira correta. Explorando essas contribuições e limitações, este trabalho teve como objetivo propor um modelo que permita o acompanhamento remoto da terapia do espelho com apoio de recursos de realidade aumentada. Como apoio computacional ao modelo, foi desenvolvida a aplicação para smartphones TEIRA (Terapia do Espelho Interativa com Realidade Aumentada) que, utilizada em conjunto com a tecnologia Google Cardboard, permite a execução da terapia do espelho com realidade aumentada. Além disso, com a integração do sistema TEIRA com o sistema de planejamento de intervenções ESPIM (Experience Sampling and Programmed Intervention Method), foi possível proporcionar um método de acompanhamento remoto com coleta de dados e vídeo. Consulta a especialistas indica que a solução apresenta benefícios potenciais para o monitoramento do paciente durante o acompanhamento remoto, que ajudem o paciente a executar a terapia de maneira correta.

Year

2018

Creators

Yuri Nehase Zuliani Goulart Magagnatto

Otimização multinível em predição de links

A predição de links em redes é uma tarefa com aplicações em diversos cenários. Com a automatização de processos, as redes sociais, redes tecnológicas e outras cresceram muito em número de vértices e arestas. Portanto, a utilização de preditores de links em redes com alta complexidade estrutural não é trivial, mesmo considerando algoritmos de baixa complexidade computacional. A grande quantidade de operações necessárias para que os preditores possam escolher quais arestas são promissoras torna o processo de considerar a rede toda inviável na maioria dos casos. As abordagens existentes enfrentam essa característica de diversas formas, sendo que as mais populares são as que limitam o conjunto de pares de vértices que serão considerados para existência de arestas promissoras. Este projeto aborda a criação de uma estratégia que utiliza otimização multinível para contrair as redes, executar os algoritmos de predição de links nas redes contraídas e projetar os resultados de predição para a rede original, para reduzir o número de operações necessárias à predição de links. Os resultados mostram que a abordagem consegue reduzir o tempo necessário para predição, apesar de perdas esperadas na qualidade na predição.

Year

2018

Creators

Vinícius Ferreira da Silva

"Métodos de pontos interiores aplicados ao problema de regressão pela norma Lp"

Neste trabalho a família de métodos de pontos interiores barreira logarítmica é desenvolvida para o problema de regressão pela norma Lp e a estrutura matricial resultante é explorada objetivando uma implementação eficiente. Apresentamos alguns conceitos sobre métodos de pontos interiores necessários para o desenvolvimento do método e descrevemos um método de convergência quadrática previamente conhecido. Uma implementação em Matlab dos métodos de pontos interiores desenvolvidos é comparada com uma implementação do método quadrático existente, obtendo desempenho computacional superior.

Year

2004

Creators

Daniela Renata Cantane

Animação de fluidos em imagens digitais

Esta tese apresenta uma nova metodologia para animação de objetos líquidos em imagens. Contrariamente às técnicas existentes, este método é baseado em um modelo físico, o que proporciona efeitos realísticos. A perspectiva da imagem é obtida com a intervenção do usuário, por um esquema simples de calibração da câmera, o qual permite a projeção da camada da imagem a ser animada sobre um plano horizontal no espaço tridimensional. As equações de águas rasas conduzem a simulação e as informações de altura são projetadas de volta ao espaço da imagem utilizando traçado de raios. Além disso, efeitos de refração e iluminação são aplicados durante este estágio, resultando em animações realísticas e convincentes

Year

2011

Creators

Marcos Aurélio Batista

Uma abordagem bayesiana para modelos não lineares na presença de assimetria e heteroscedasticidade

Esta dissertação flexibiliza a suposição de normalidade, dispondo de distribuições assimétricas em modelos de crescimento. Propõe uma abordagem bayesiana para ajuste de modelos não lineares quando a suposição de normalidade para os erros não é razoável e/ou apresentam heteroscedasticidade. Assim, adota-se as distribuições skew-normal e skew-t para as situações em que é necessário modelar dados com caudas mais pesadas ou mais leves que a normal e assimétricos; sendo que é considerado também a presença de heteroscedasticidade. Diferentes funções são utilizadas na estrutura multiplicativa para modelar a variância. Com esse objetivo, métodos de inferência na abordagem bayesiana são desenvolvidos para estimar os parâmetros dos modelos de regressão não linear com os erros seguindo as distribuições citadas anteriormente. A metodologia visa aplicação à curvas de crescimento para dados de árvores

Year

2011

Creators

Aline Minniti de Campos

Improving time series modeling by decomposing and analysing stochastic and deterministic influences

This thesis presents a study on time series analysis, which was conducted based on the following hypothesis: time series influenced by additive noise can be decomposed into stochastic and deterministic components in which individual models permit obtaining a hybrid one that improves accuracy. This hypothesis was confirmed in two steps. In the first one, we developed a formal analysis using the Nyquist-Shannon sampling theorem, proving Intrinsic Mode Functions (IMFs) extracted from the Empirical Mode Decomposition (EMD) method can be combined, according to their frequency intensities, to form stochastic and deterministic components. Considering this proof, we designed two approaches to decompose time series, which were evaluated in synthetic and real-world scenarios. Experimental results confirmed the importance of decomposing time series and individually modeling the deterministic and stochastic components, proving the second part of our hypothesis. Furthermore, we noticed the individual analysis of both components plays an important role in detecting patterns and extracting implicit information from time series. In addition to these approaches, this thesis also presents two new measurements. The first one is used to evaluate the accuracy of time series modeling in forecasting observations. This measurement was motivated by the fact that existing measurements only consider the perfect match between expected and predicted values. This new measurement overcomes this issue by also analyzing the global time series behavior. The second measurement presented important results to assess the influence of the deterministic and stochastic components on time series observations, supporting the decomposition process. Finally, this thesis also presents a Systematic Literature Review, which collected important information on related work, and two new methods to produce surrogate data, which permit investigating the presence of linear and nonlinear Gaussian processes in time series, irrespective of the influence of nonstationary behavior

Year

2013

Creators

Ricardo Araújo Rios

Seleção de características em SVMs aplicadas a dados de expressão gênica

Recentemente, diversas tecnologias de análise de expressão gênica têm sido introduzidas. Os miroarrays estão entre as mais utilizadas. Dentre suas aplicações mais comuns, pode-se destacar a classificação de amostras de tecido, essencial para a identificação correta do tipo de câncer. Esta classificação é realizada com a ajuda de algoritmos de AMáquina (AM), como as Máquinas de Vetores de Suporte, ou simplesmente SVMs. Uma particularidade dos dados de expressão gênica é que a quantidade de amostras utilizadas pelo algoritmo de aprendizado é, normalmente, muitas vezes inferior à quantidade de características consideradas, o que pode deteriorar o desempenho dos algoritmos de AM e dificultar a compreensão dos dados. Neste contexto, o presente trabalho visa à comparação de diversas técnicas de seleção de características (SC) em SVMs aplicadas a dados microarrays. Além disso, durante a pesquisa, foram desenvolvidas 2 novas técnicas de SC baseadas em algoritmos genéticos. Os experimentos demonstram que a maioria das técnicas testadas é capaz de reduzir sobremaneira a dimensionalidade dos dados de expressão gênica sem prejudicar o desempenho das SVMs.

Year

2005

Creators

Bruno Feres de Souza

Simulação numérica de escoamentos de fluidos utilizando diferenças finitas generalizadas

Este trabalho apresenta parte de um sistema de simulação integrado para escoamento de fluido incompressível bidimensional em malhas não estruturadas denominado UmFlow-2D. O sistema consiste de três módulos: um módulo modelador, um módulo simulador e um módulo visualizador. A parte do sistema apresentado neste trabalho é o módulo simulador. Este módulo, implementa as equações de Navier-Stokes. As equações governantes são discretizadas pelo método de diferenças finitas generalizadas e os termos convectivos pelo método semi-lagrangeano. Um método de projeção é empregado para desacoplar as componentes da velocidade e pressão. O gerenciamento da malha, não estruturada é feito pela estrutura de dados SHE. Os resultados numéricos obtidos pelo UmFlow-2D são comparados com soluções analíticas e soluções numéricas de outros trabalhos.

Year

2005

Creators

Fernanda Olegario dos Santos

P2l - Uma ferramenta de profiling a nível de instrução para o processador softcore LEON3

A maioria dos sistemas embarcados hoje desenvolvidos utilizam complexos sistemas eletrônicos integrados em um único chip, os Systems-on-a-Chip (SoC). A análise do comportamento de uma aplicação em execução, ou seja, o profiling nesses sistemas não é uma tarefa trivial em virtude da complexidade dos SoCs e pela restrição de ferramentas de profiling adequadas. Neste contexto, este trabalho apresenta o P2L, uma ferramenta de profiling que se baseia em métricas de nível de instrução e função para o processador LEON3. O P2L fornece estatísticas detalhadas de uso do processador, memórias e barramento de programas em execução sem uso de instrumentação. A ferramenta é composta por um componente em hardware e drivers e aplicativos em software. Os resultados mostram que o P2L fornece medidas com erro inferior a 1% e overhead desprezível quando comparado ao tempo de execução nativa do programa e ao do profiler GNU gprof.

Year

2016

Creators

Carlos Roberto Pereira Almeida Júnior

Classificação semissupervisionada de séries temporais extraídas de imagens de satélite

Nas últimas décadas, com o crescimento acelerado na geração e armazenamento de dados, houve um aumento na necessidade de criação e gerenciamento de grandes bases de dados. Logo, a utilização de técnicas de mineração de dados adequadas para descoberta de padrões e informações úteis em bases de dados é uma tarefa de interesse. Em especial, bases de séries temporais têm sido alvo de pesquisas em áreas como medicina, economia e agrometeorologia. Em mineração de dados, uma das tarefas mais exploradas é a classificação. Entretanto, é comum em bases de séries temporais, a quantidade e complexidade de dados extrapolarem a capacidade humana de análise manual dos dados, o que torna o processo de supervisão dos dados custoso. Como consequência disso, são produzidos poucos dados rotulados, em comparação a um grande volume de dados não rotulados disponíveis. Nesse cenário, uma abordagem adequada para análise desses dados é a classificação semissupervisionada, que considera dados rotulados e não rotulados para o treinamento do classificador. Nesse contexto, este trabalho de mestrado propõe 1) uma metodologia de análise de dados obtidos a partir de séries temporais de imagens de satélite (SITS) usando tarefas de mineração de dados e 2) uma técnica baseada em grafos para classificação semissupervisionada de séries temporais extraídas de imagens de satélite. A metodologia e a técnica de classificação desenvolvidas são aplicadas na análise de séries temporais de índices de vegetação obtidas a partir de SITS, visando a identificação de áreas de plantio de cana-de-açúcar. Os resultados obtidos em análise experimental, realizada com apoio de especialistas no domínio de aplicação, indicam que a metodologia proposta é adequada para auxiliar pesquisas em agricultura. Além disso, os resultados do estudo comparativo mostram que a técnica de classificação semissupervisionada desenvolvida supera métodos de classificação supervisionada consolidados na literatura e métodos correlatos de classificação semissupervisionada.

Year

2016

Creators

Bruno Ferraz do Amaral

FlexPersuade - Explorando uma abordagem flexível em softwares de persuasão: um estudo de caso com players de música

Estudos atuais na área de Interação Humano-Computador evidenciam a importância de se considerar aspectos emocionais na interação com sistemas computacionais. Acredita-se que ao permitir agentes artificiais identificar emoções de usuários, em uma interação humano-computador, torna-se possível induzir e despertar emoções a fim de estimulá-los em suas atividades. Um dos grandes desafios dos pesquisadores em Interação humano-computador é prover sistemas capazes de reconhecer, interpretar e reagir de modo inteligente e sensível às emoções do usuário, para atender aos requisitos do maior número possível de indivíduos; um dos caminhos que se apresenta é o desenvolvimento de sistemas flexíveis. O principal objetivo de se promover essa interação emotiva é contribuir para o aumento da coerência, consistência e credibilidade das reações e respostas computacionais providas durante a interação humana via interface humano-computador. Nesse contexto, surge a oportunidade de explorar sistemas computacionais capazes de identificar e inferir o estado emocional do usuário em tempo de execução. Este projeto tem como objetivo desenvolver e avaliar um modelo que possa: i.) identificar o estado emocional do usuário; ii.) prover um mecanismo de persuasão com vistas a mudar o estado emocional do usuário (com um estudo de caso em player de música) e; iii.) explorar a abordagem flexível na persuasão (de acordo com o estado emocional particular de cada usuário) através de mecanismos persuasivos que poderão variar entre um player de música, jogos e/ou vídeos. Assim, ao longo do estudo, o modelo baseado em Comitê de Classificação se mostrou eficiente na identificação das emoções básicas (alegria, aversão, medo, neutro, raiva, surpresa e tristeza) com média de acurácia superior a 80% e, ainda, observou-se a satisfação dos usuários mediante a aplicação do modelo com o player de música.

Year

2016

Creators

Leandro Yukio Mano Alves

Coarse-refinement dilemma: on generalization bounds for data clustering

Machine Learning (ML) is typically organized into two main paradigms: (i) the Supervised Machine Learning (SML) to identify patterns from pre-labeled data, in which a loss function is used to adapt the corresponding model; and, (ii) the Unsupervised Machine Learning (UML) to organize data points in the absence of labels, taking similarity relations among elements into account. SML relies on well-consolidated theoretical frameworks, such as the Statistical Learning Theory (SLT) and the Algorithmic Stability (AS) to define assumptions, properties and convergence guarantees, allowing the comparison of different methods and, consequently, their improvements. Complementary, UML has been supported by investigations on Data Clustering (DC) and Hierarchical Clustering (HC) in order to define properties and improve their characterizations. Specifically, Kleinberg stated richness, scale-invariance and partition consistency as the necessary properties to define the DC problem, proving they do not hold simultaneously, while Ackerman, Ben-David and Loker explored other properties such as locality, and Carlsson and Mémoli developed stability and consistency frameworks for HC from metric spaces. To bring an additional contribution to UML, we considered topological spaces to design more general theoretical results given: (i) the invariance on topological spaces, more precisely isomorphism of homology groups, guarantees the properties of scale-invariance, partition consistency and locality; and (ii) this same invariance is inherited along less general spaces, such as the metric, thus allowing a more abstract clustering representation. Taking such invariance into account, we demonstrated that over-refined topologies endowed by DC and HC models lead to non-consistency in terms of their associated homology groups and, on the other hand, over-coarsed topologies devise consistent but unrepresentative homology groups, a phenomenon that we referred to as the Coarse-Refinement Dilemma (CRD). We then formulated DC and HC problems by employing Carlsson and Zomorodians bidimensional persistent homology, with the first dimension corresponding to the HC levels and the second to the inclusion of new data, thus allowing a probabilistic study based on martingales process and subsequent formalization of generalization bounds. From such results, we contributed with the related work by: (i) defining lower and upper bounds for Carlsson and Mémolis metric consistency; (ii) showing that Kleinbergs richness axiom must be relaxed otherwise over-refined or over-coarsed clusterings could be obtained; and, finally, (iii) defining unexpected changes in consistent topologies using what we named as Topological Concept Drift (TCD). An extensive set of experiments was performed to analyze the CRD and the TCD, including a brief study of a real-world scenario involving text documents. Results corroborated the usefulness in representing DC and HC problems using topological spaces, in detecting topology changes and the existence of CRD.

Um estudo dos zeros de polinômios ortogonais na reta real e no círculo unitário e outros polinômios relacionados

O principal objetivo deste trabalho 6 estudar o comportamento dos zeros de polinômios ortogonais e similares. Inicialmente, consideramos uma relação entre duas sequências ele polinômios ortogonais, onde as medidas associadas estão relacionadas entre si. Usamos esta relação para estudar as propriedades de monotonicidade dos zeros dos polinômios ortogonais relacionados a uma medida obtida através da generalização da medida associada a uma outra sequência de polinômios ortogonais. Apresentamos, como exemplos, os polinômios ortogonais obtidos a partir da generalização das medidas associadas aos polinômios de Jacobi, Laguerre e Charlier. Em urna segunda etapa, consideramos polinômios gerados por uma certa relação de recorrência de três termos com o objetivo de encontrar limitantes, em termos dos coeficientes da relação de recorrência, para as regiões onde os zeros estão localizados. Os zeros são estudados através do problema de autovalor associado a uma matriz de Hessenberg. Aplicações aos polinômios de Szegó, polinômios para-ortogonais e polinômios com coeficientes complexos não-nulos são consideradas.

Year

2005

Creators

Andrea Piranhe da Silva

Desenvolvimento de um método numérico para simular escoamentos viscoelásticos axissimétricos com superfícies livres

Neste trabalho são apresentadas as equações governantes para um fluido Oldroyd-B juntamente com as condições de contorno para escoamentos viscoelásticos axissimétricos com superfícies livres. Um método numérico para simular escoamentos com superfícies livres é apresentado e as equações resultantes são resolvidas utilizando o método de diferenças finitas numa malha deslocada. São desenvolvidas formulações para o cálculo do tensor extra-tensão em contornos rígidos e no eixo de simetria. As condições de contorno na superfície livre são discutidas em detalhes. Os termos convectivos são aproximados pelo método \'upwind\' de alta ordem CUBISTA (\'A convergent and universally bounded interpolation scheme for the treatment of advection\'). O fluido é modelado utilizando a técnica \'Marker-and-Cell\' o que permite visualizar e localizar a superfície livre do fluido. Para evitar ondulações, a superfície livre é suavizada pela técnica TSUR (\'Trapezoidal Surface Removal\'). O método numérico descrito neste trabalho foi implementado no sistema de simulação Freeflow-AXI e validado comparando os resultados numéricos do escoamento em um tubo com a respectiva solução analítica. Resultados numéricos incluem: simulação do inchamento do extrudado, gota incidindo contra uma superfície rígida e a simulação do \'splashing drop\' para vários números de Reynolds e de Weissenberg.

Year

2005

Creators

Marcela Alexandra da Silva

Simulação de escoamentos multifásicos em malhas não estruturadas

Esta monografia apresenta o desenvolvimento e os resultados obtidos da implementação de um método numérico para simular escoamentos multifásicos em malhas dinâmicas não estruturadas. As equações de Navier-Stokes são desenvolvidas em uma formulação Lagrangeana-Euleriana arbitrária e são aproximadas utilizando-se o método de elementos finitos. Um método de projeção baseado em decomposição LU é utilizado para desacoplar aceleração e pressão. A interface que define a fronteira livre entre os fluidos imiscíveis é representada explicitamente por vértices e arestas da triangulação, e a tensão interfacial é calculada através de uma distribuição baseada na discretização do gradiente de uma função Heaviside. 0 movimento da malha é computado através da composição entre a velocidade do escoamento e uma velocidade elástica, calculada utilizando-se um filtro Laplaciano a partir da posição dos vértices. O controle da malha dinâmica é feito através de inserção e remoção de pontos baseando-se em triangulações localmente Delaunay, para se manter a qualidade dos elementos. Adicionalmente, é proposto um esquema de distribuição de pontos através da estimativa do erro baseado na Hessiana das velocidades. São apresentadas validações para escoamentos monofásicos e multifásicos, com comparações teóricas e corroboração por outros métodos, ilustrando o bom desempenho do método proposto. Adicionalmente, é mostrada uma aplicação a problemas de escoamentos de bolhas, comparando-se os resultados obtidos com resultados de outras técnicas numéricas.

Year

2005

Creators

Fabrício Simeoni de Sousa

Uma arquitetura sistólica para solução de sistemas lineares implementada com circuitos FPGAs.

Neste trabalho de mestrado foi desenvolvido o projeto de uma máquina paralela dedicada para solução de sistemas de equações lineares. Este é um problema presente em uma grande variedade de aplicações científicas e de engenharia e cuja solução torna-se uma tarefa computacionalmente intensiva , a medida em que o número de incógnitas aumenta. Implementou-se uma Arquitetura Sistólica unidimensional, conectada numa topologia em anel, que mapeia métodos de solução iterativos. Essa classe de arquiteturas paralelas apresenta características de simplicidade, regularidade e modularidade que facilitam implementações em hardware, sendo muito utilizadas em sistemas de computação dedicados à solução de problemas específicos, que possuem como características básicas a grande demanda computacional e a necessidade de respostas em tempo real. Foram adotadas metodologias e ferramentas avançadas para projeto de hardware que aceleram o ciclo de desenvolvimento e para a implementação foram utilizados circuitos reconfiguráveis FPGAs (Field Programmable Gate Arrays). Os resultados de desempenho são apresentados e avaliados apontado a melhor configuração da arquitetura para atingir um speedup em relação a implementações em máquinas seqüenciais. Também são discutidas as vantagens e desvantagens deste tipo de abordagem e metodologia na solução de problemas que possuem requisitos de tempo.

Year

1998

Creators

Antônio Carlos de Oliveira Souza Aragão

"Aplicação de técnicas de data mining em logs de servidores web"

Com o advento da Internet, as empresas puderam mostrar-se para o mundo. A possibilidade de colocar um negócio na World Wide Web (WWW) criou um novo tipo de dado que as empresas podem utilizar para melhorar ainda mais seu conhecimento sobre o mercado: a sequência de cliques que um usuário efetua em um site. Esse dado pode ser armazenado em uma espécie de Data Warehouse para ser analisado com técnicas de descoberta de conhecimento em bases de dados. Assim, há a necessidade de se realizar pesquisas para mostrar como retirar conhecimento a partir dessas sequências de cliques. Neste trabalho são discutidas e analisadas algumas das técnicas utilizadas para atingir esse objetivo. é proposta uma ferramenta onde os dados dessas sequências de cliques são mapeadas para o formato atributo-valor utilizado pelo Sistema Discover, um sistema sendo desenvolvindo em nosso Laboratório para o planejamento e execução de experimentos relacionados aos algoritmos de aprendizado utilizados durante a fase de Mineração de Dados do processo de descoberta de conhecimento em bases de dados. Ainda, é proposta a utilização do sistema de Programação Lógica Indutiva chamado Progol para extrair conhecimento relacional das sessões de sequências de cliques que caracterizam a interação de usuários com as páginas visitadas no site. Experimentos iniciais com a utilização de uma sequência de cliques real foram realizados usando Progol e algumas das facilidades já implementadas pelo Sistema Discover.

Perseus:uma nova técnica para tratar árvores de sufixo persistentes

O avanço tecnológico dos laboratórios de biologia molecular tem proporcionado um grande aumento no volume de seqüências de nucleotídeos armazenadas em bancos de dados biológicos, introduzindo o desafio de pesquisar eficientemente estes dados. Neste contexto, a árvore de sufixo é um método de acesso utilizado por muitas aplicações que envolvem pesquisa em dados biológicos. Entretanto, o custo de construção das árvores de sufixo é alto devido ao tamanho da estrutura de indexação gerado e à necessidade da árvore de sufixo caber em memória principal para ser construída com complexidade linear em relação ao tempo. Esta dissertação propõe o Perseus, uma nova técnica para tratar árvores de sufixo persistentes. A técnica Perseus apresenta os seguintes diferenciais. Ela introduz uma abordagem que realiza a construção de árvores de sufixo persistentes cujos tamanhos podem exceder a capacidade da memória principal. Além disso, ela provê um algoritmo que constrói árvores de sufixo por meio do particionamento destas árvores somente quando necessário. Esta construção também permite que o usuário escolha quais subseqüências de uma seqüência devem ser indexadas, de acordo com os requisitos particulares de suas aplicações. Por fim, a técnica proposta também introduz um algoritmo de casamento exato que permite a busca por uma seqüência de consulta em árvores de sufixo que podem estar particionadas. A validação do Perseus foi realizada por meio de testes de desempenho considerando genomas de vários organismos, os quais possuem diferentes ordens de magnitude de tamanho. Os resultados obtidos foram comparados com a técnica Trellis+, a qual representa o estado da arte nesta linha de pesquisa. Os testes indicaram que o Perseus construiu árvores de sufixo mais rapidamente do que o Trellis+, reduzindo o tempo total gasto na construção em até 24%. Perseus também criou árvores de sufixo mais compactas, atingindo uma redução média de 27% no espaço de memória secundária utilizado. Já com relação ao tempo total gasto no processamento de consultas, Perseus sempre produziu os melhores resultados, respondendo consultas em média 49% mais rápido do que o seu principal concorrente. Com relação à indexação de subseqüências escolhidas pelo usuário, comparando os resultados obtidos com o Trellis+, os testes mostraram que Perseus proveu uma redução no tempo de construção de árvores de sufixo de 97% na média e uma redução no tempo gasto no processamento de consultas de genes de 93% na média

Year

2009

Creators

Caio Cesar Mori Carelo