Repositório RCAAP

Um Ambiente de Desenvolvimento para Aplicações Paralelas - Análise de Requisitos e Definição

Neste trabalho é apresentado o estudo de desenvolvimento de um ambiente integrado para programação paralela. O ambiente contém as ferramentas apropriadas para o desenvolvimento de novos programas paralelos, para a paralelização de programas seqüenciais, para a análise e otimização de desempenho e a depuração de programas paralelos. O trabalho cobre as fases de análise de requisitos, especificação e projeto do ambiente proposto. Através de uma pesquisa extensa sobre as ferramentas para programação paralela e da análise de algumas formas de classificação existentes, foi proposta uma nova classificação que possibilita enquadrar um grande número de ferramentas que fizeram parte da pesquisa. Com base nessa classificação foi desenvolvido um modelo gráfico do sistema, determinando-se os módulos que se fazem necessários para cobrir todas as fases de desenvolvimento de programas paralelos. Também é apresentado neste trabalho três opções de implementação do sistema baseadas em ferramentas existentes que podem fazer parte do projeto proposto com ou sem alteração do seu código fonte.

Ano

1999

Creators

Mario Augusto Andreta Carvalho

"Implementação do barramento on-chip AMBA baseada em computação reconfigurável"

A computação reconfigurável está se fortalecendo cada vez mais devido ao grande avanço dos dispositivos reprogramáveis e ferramentas de projeto de hardware utilizadas atualmente. Isso possibilita que o desenvolvimento de hardware torne-se bem menos trabalhoso e complicado, facilitando assim a vida do desenvolvedor. A tecnologia utilizada atualmente em projetos de computação reconfigurável é denominada FPGA (Field Programmable Gate Array), que une algumas características tanto de software (flexibilidade), como de hardware (desempenho). Isso fornece um ambiente bastante propício para desenvolvimento de aplicações que precisam de um bom desempenho, sem que estas devam possuir uma configuração definitiva. O objetivo deste trabalho foi implementar um barramento eficiente para possibilitar a comunicação entre diferentes CORES de um robô reconfigurável, que podem estar dispersos em diferentes dispositivos FPGAs. Tal barramento seguirá o padrão AMBA (Advanced Microcontroller Bus Architecture), pertencente à ARM. Todo o desenvolvimento do core completo do AMBA foi realizado utilizando-se a linguagem VHDL (Very High Speed Integrated Circuit Hardware Description Language) e ferramentas EDAs (Electronic Design Automation) apropriadas. É importante notar que, embora o barramento tenha sido projetado para ser utilizado em um robô, o mesmo pode ser usado em qualquer sistema on-chip.

Ano

2005

Creators

Daniel Cruz de Queiroz

Uma abordagem de desenvolvimento de linha de produtos com uma arquitetura orientada a serviços

Linha de produtos de software (LPS) corresponde a uma das mais bem sucedidas formas de reúso, pois permite a reutilização de requisitos e arquitetura. Embora o desenvolvimento, manutenção e evolução de uma LPS ainda possua um custo alto quando comparado ao desenvolvimento de sistemas únicos (single systems), um lucro significativo pode ser obtido com a venda de diversos produtos derivados da LPS. No projeto de uma LPS analisa-se os sistemas coletivamente, ou seja, o domínio. Geradores de aplicações são ferramentas capazes de gerar artefatos a partir de uma especificação, e no caso de se ter a especificação de um domínio, é possível gerar aplicações para esse domínio. Web services representam uma tecnologia promissora para disponibilização de serviços na Web e desenvolvimento de software com arquitetura flexível e de fácil manutenção. Neste trabalho é proposta uma abordagem de desenvolvimento de linha de produtos com arquitetura orientada a serviços, na qual a geração de produtos é apoiada por um gerador de aplicações. A abordagem chama-se SoProL-WS e possui o objetivo de reduzir os custos e prazos de desenvolvimento da LPS e facilitar a sua manutenção, evolução e derivação de seus membros. SoProLWS apresenta as atividades e artefatos necessários para partir dos requisitos da LPS, projetar, implementar, configurar um gerador de aplicações e gerar seus membros a partir do gerador ou por meio de uma configuração manual. Além disso, é apresentado um estudo de caso com o desenvolvimento de uma linha de produtos de leilões Web seguindo os passos da abordagem, bem como são discutidas as alternativas de projeto relevantes para esse tipo de desenvolvimento

Ano

2009

Creators

Paulo Gabriel Gadelha Queiroz

Desenvolvimento de software orientado a temas: um estudo de caso

O Paradigma Orientado a Objetos tem sido atualmente a abordagem dominante de desenvolvimento de software. Contudo, ela sofre da Tirania da Decomposição Dominante, pois não permite uma modularização adequada da implementação relativa a interesses estruturais. Como consequência, a implementação relativa a cada interesse estrutural fica espalhada pelos módulos do programa e entrelaçada com a implementação relativa a outros interesses estruturais. Outras abordagens de desenvolvimento de software, como o Desenvolvimento de Software Orientado a Aspectos com AspectJ e a Separação Multidimensional de Interesses em Hiperespaços com Hyper/J e CME, atingem sucesso moderado em oferecer mecanismos que permitem superar as deficiências do Paradigma Orientado a Objetos. No entanto, tais abordagens também possuem deficiências e omissões que devem ser reparadas para que elas possam se tornar utilizáveis em contextos típicos de desenvolvimento de software complexo. Este trabalho especifica uma nova abordagem, denominada Desenvolvimento de Software Orientado a Temas (DSOT), que tem como objetivo superar algumas deficiências das abordagens anteriores por meio de mecanismos que permitem a manipulação da implementação de cada interesse estrutural de forma separada e a manipulação da implementação de cada tipo de dado de forma separada. Além disso, DSOT possui operadores que são ortogonais, isto é, podem ser utilizados de forma combinada ou separada, para efetuar a composição de módulos do programa. Mostra-se o modelo conceitual do DSOT e descrevese um estudo de caso que consiste no desenvolvimento de um programa para demonstrar mais concretamente como o DSOT funciona na prática. Não se demonstra a superioridade do DSOT para o caso geral, mas os resultados alcançados evidenciam que o DSOT é uma abordagem promissora que merece ser investigada mais aprofundadamente em pesquisas futuras

Ano

2006

Creators

Antonielly Garcia Rodrigues

Técnicas de classificação hierárquica multirrótulo

Muitos dos problemas de classificação descritos na literatura de Aprendizado de Máquina e Mineração de Dados dizem respeito à classificação de dados em que cada exemplo a ser classificado pertence a um conjunto finito, e geralmente pequeno, de classes que estão em um mesmo nível. Vários problemas de classificação, entretanto, são de natureza hierárquica, em que classes podem ser subclasses ou superclasses de outras classes. Em muitos problemas hierárquicos, principalmente no campo da Bioinformática, um ou mais exemplos podem ser associados a mais de uma classe simultaneamente. Esses problemas são conhecidos como problemas de classificação hierárquica tirrótulo. Nesta pesquisa, foram investigadas diferentes técnicas para lidar com esses tipos de problemas. Essas técnicas são baseadas em duas abordagens: local ou Top-Down e global ou One-Shot. Três técnicas descritas na literatura foram utilizadas. A primeira delas, chamada HMC-BR, é baseada na abordagem Top-Down, e utiliza uma estratégia de classificação binária chamada Um-Contra-Todos. As outras duas técnicas, baseadas na abordagem One-Shot, são chamadas C4.5H (uma extensão do algoritmo de indução de àrvores de decis~ao C4.5), e de Clus-HMC (baseada na noção de Predictive Clustering Trees, em que àrvores de decisão são estruturadas como uma hierarquia de grupos (clusters)). Além das técnicas descritas na literatura, duas novas técnicas foram propostas e implementadas nesta pesquisa, chamadas de HMC-LP e HMC-CT. Essas técnicas são variações hierárquicas de técnicas de classificação multirrótulo não hierárquicas. A técnica HMC-LP utiliza uma estratégia de combinação de classes e a técnica HMC-CT utiliza uma estratégia de decomposição de classes. Para a avaliação das técnicas, foram utilizadas medidas específicas para esse tipo de classificação. Os resultados experimentais mostraram que as técnicas propostas obtiveram desempenhos superiores ou semelhantes aos das técnicas descritas na literatura, dependendo da medida de avaliação utilizada e das características dos conjuntos de dados

Propriedades de filtros lineares para sistemas lineares com saltos markovianos a tempo discreto

Este trabalho é dedicado ao estudo do erro de estimação em filtragem linear para sistemas lineares com parâmentros sujeitos a saltos markovianos a tempo discreto. Indroduzimos o conceito de alcançabilidade média para uma classe de sistemas. Construímos um conjunto de matrizes de alcançabilidade e mostramos que o conceito usual de alcan- çabilidade definido através da positividade do gramiano é caracterizado pela definição por posto completo destas matrizes. A alcançabilidade média funciona como condição necessária e suficiente para positividade do segundo momento do estado do sistema, resultado esse que auxilia na caracterização da positividade uniforme da matriz de covariância do erro de estimação. Abordamos a estabilidade de estimadores com a interpretação de que a covariância do erro permanece limitada na presença de erro de qualquer magnitude no modelo do ruído, que é uma característica relevante para aplicações. Apresentamos uma prova de que filtros markovianos são estáveis sempre que o segundo momento condicionado é positivo. Exemplos numéricos encontram-se inclusos.

Ano

2015

Creators

Maria Josiane Ferreira Gomes

Classificação de fluxos de dados não estacionários com algoritmos incrementais baseados no modelo de misturas gaussianas

Aprender conceitos provenientes de fluxos de dados é uma tarefa significamente diferente do aprendizado tradicional em lote. No aprendizado em lote, existe uma premissa implicita que os conceitos a serem aprendidos são estáticos e não evoluem significamente com o tempo. Por outro lado, em fluxos de dados os conceitos a serem aprendidos podem evoluir ao longo do tempo. Esta evolução é chamada de mudança de conceito, e torna a criação de um conjunto fixo de treinamento inaplicável neste cenário. O aprendizado incremental é uma abordagem promissora para trabalhar com fluxos de dados. Contudo, na presença de mudanças de conceito, conceitos desatualizados podem causar erros na classificação de eventos. Apesar de alguns métodos incrementais baseados no modelo de misturas gaussianas terem sido propostos na literatura, nota-se que tais algoritmos não possuem uma política explicita de descarte de conceitos obsoletos. Nesse trabalho um novo algoritmo incremental para fluxos de dados com mudanças de conceito baseado no modelo de misturas gaussianas é proposto. O método proposto é comparado com vários algoritmos amplamente utilizados na literatura, e os resultados mostram que o algoritmo proposto é competitivo com os demais em vários cenários, superando-os em alguns casos.

Ano

2015

Creators

Luan Soares Oliveira

Eliminação de ruídos e retoque digital em imagens com textura via difusão anisotrópica

Neste trabalho são apresentadas, complementadas e melhoradas duas técnicas de restauração de imagens: uma abordando o problema de retoque digital/remoção de objetos enquanto a segunda é direcionada ao problema deneliminação de ruído. Em ambas as técnicas, a ideia é trabalhar com imagens contendo texturas e outras características de interesse para um observador humano como a preservação de padrões, bordas, estruturas e regiões de natureza oscilatória. A técnica descrita sobre retoque digital de imagens combina difusão anisotrópica, síntese de texturas, busca dinâmica e um novo termo empregado no mecanismo de atribuição da ordem de prioridade durante o processo de reconstrução. Assim, dada uma imagem com regiões a serem recompostas, uma técnica de difusão anisotrópica é aplicada à imagem afim de se obter um mapa de saliência contendo bordas, estruturas e demais informações de baixa frequência da imagem. Na sequência, um mecanismo de prioridade baseado em um novo termo de confiabilidade regularizado é calculado a partir da combinação do mapa anteriormente gerado com a equação do transporte. Tal mecanismo é utilizado para determinar a ordem de preenchimento das partes faltantes da imagem. Para essa tarefa, a abordagem apresentada utiliza uma nova medida de similaridade entre blocos de pixels(amostrados dinamicamente para acelerar o processo), afim de encontrar os melhores candidatos a serem alocados nas regiões danificadas. A técnica destinada à remoção de ruídos alia a teoria da difusão anisotrópica, técnicas de análise harmônica e modelos numéricos de discretização de EDPs não-lineares em uma equação diferencial parcial regularizada, a qual atua de forma incisiva em regiões mais homogêneas da imagem e de forma mais suave em regiões caracterizadas como textura e bordas, preservando, assim, essas regiões. Além da natureza anisotrópica, a EDP procura recompor partes texturizadas perdidas no processo de eliminação de ruído através da aplicação de técnicas robustas de análise harmônica. Uma validação teórica e experimental para esta EDP e um estudo do ajuste paramétrico do método de eliminação de ruído baseado nesta EDP foram realizados neste trabalho. A eficiência e a performance das técnicas propostas são atestadas por meio das análises experimentais quantitativas e qualitativas com outras abordagens clássicas da literatura.

Ano

2016

Creators

Marcos Proença de Almeida

"Construção de aplicações de captura e acesso baseada em recorrência de funcionalidades"

Aplicações de captura e acesso exploram o paradigma de computação ubíqua --- que consiste em popular o ambiente com aplicações e dispositivos computacionais a fim de auxiliar transparentemente as pessoas na realização de suas atividades --- para dar apoio à captura automática de informação em experiências ``ao vivo' e à correspondente geração de documentos passíveis de armazenamento, recuperação, visualização e extensão ao longo do tempo. Devido à sua natureza distribuída, à heterogeneidade dos dispositivos computacionais envolvidos e à diversidade nas funcionalidades providas, essas aplicações são difíceis de se construir e requerem infra-estruturas e serviços de software que auxiliem o desenvolvedor nessa tarefa. Este trabalho investiga a construção e o uso de aplicações de captura e acesso por meio do desenvolvimento da xINCA, uma infra-estrutura estendida baseada em componentes de software reutilizáveis que englobam as funcionalidades recorrentes nessa classe de aplicações. A xINCA é uma extensão da infra-estrutura INCA --- uma infra-estrutura de baixo nível que provê abstrações de comunicação para aplicações de captura e acesso. Complementares, as infra-estruturas INCA e xINCA provêem um modelo simplificado para o desenvolvimento de aplicações de captura e acesso, considerando aspectos de projeto, implementação e reuso. Associada ao modelo de armazenamento do serviço StRES, a xINCA tem ainda papel na estruturação da informação capturada com o uso de XML e tecnologias correlatas.

Ano

2004

Creators

Renan Gonçalves Cattelan

Análise da influência de funções de distância para o processamento de consultas por similaridade em recuperação de imagens por conteúdo

A recuperação de imagens baseada em conteúdo (Content-based Image Retrieval - CBIR) embasa-se sobre dois aspectos primordiais, um extrator de características o qual deve prover as características intrínsecas mais significativas dos dados e uma função de distância a qual quantifica a similaridade entre tais dados. O grande desafio é justamente como alcançar a melhor integração entre estes dois aspectos chaves com intuito de obter maior precisão nas consultas por similaridade. Apesar de inúmeros esforços serem continuamente despendidos para o desenvolvimento de novas técnicas de extração de características, muito pouca atenção tem sido direcionada à importância de uma adequada associação entre a função de distância e os extratores de características. A presente Dissertação de Mestrado foi concebida com o intuito de preencher esta lacuna. Para tal, foi realizada a análise do comportamento de diferentes funções de distância com relação a tipos distintos de vetores de características. Os três principais tipos de características intrínsecas às imagens foram analisados, com respeito a distribuição de cores, textura e forma. Além disso, foram propostas duas novas técnicas para realização de seleção de características com o desígnio de obter melhorias em relação à precisão das consultas por similaridade. A primeira técnica emprega regras de associação estatísticas e alcançou um ganho de até 38% na precisão, enquanto que a segunda técnica utilizando a entropia de Shannon alcançou um ganho de aproximadamente 71% ao mesmo tempo em que reduz significantemente a dimensionalidade dos vetores de características. O presente trabalho também demonstra que uma adequada utilização das funções de distância melhora efetivamente os resultados das consultas por similaridade. Conseqüentemente, desdobra novos caminhos para realçar a concepção de sistemas CBIR

Ano

2008

Creators

Pedro Henrique Bugatti

Acessibilidade no desenvolvimento de sistemas web: um estudo sobre o cenário brasileiro

A universalização do acesso ao conteúdo disponibilizado em sistemas Web tem se tornado crucial para que todas as pessoas, independente de deficiências ou de outras restrições possam ter acesso a ele. Diversos estudos indicam que, apesar da instituição de leis federais sobre acessibilidade para conteúdo Web em diversos países, muitos sítios ainda apresentam problemas. A falta de conscientização das pessoas envolvidas em projetos de desenvolvimento Web sobre a acessibilidade e a não utilização de técnicas adequadas para desenvolvimento de aplicações têm um impacto considerável sobre a acessibilidade. Levantamentos foram realizados com o objetivo de identificar características dos desenvolvedores sobre o conhecimento e uso de técnicas para acessibilidade. Entretanto, os estudos realizados investigaram somente o uso de um conjunto restrito de técnicas e, além disso, também não investigaram a correlação entre as respostas obtidas pelos participantes e o nível de acessibilidade das páginas desenvolvidas por eles. Neste trabalho, propõe-se efetuar um levantamento sobre a percepção de acessibilidade e uso de técnicas para desenvolvimento de sistemas Web considerando acessibilidade com pessoas envolvidas em projetos de desenvolvimento Web no Brasil de diferentes áreas de atuação. Este levantamento foi acompanhado de avaliações de acessibilidade automatizadas com uso de métricas sobre sítios desenvolvidos pelos participantes, para verificar a influência dos fatores investigados na acessibilidade dos sítios e na percepção de acessibilidade dos participantes. O levantamento realizado contou com a participação de 613 participantes de todo o Brasil. Os resultados indicaram que no Brasil a percepção da acessibilidade por pessoas que participam de projetos de desenvolvimento Web ainda é bastante limitada. Mais do que promover o treinamento das pessoas envolvidas em projetos sobre questões técnicas, é necessário promover maior conscientização sobre a acessibilidade e sobre os problemas que pessoas com diferentes restrições e habilidades enfrentam ao utilizar a Web.

Ano

2008

Creators

André Pimenta Freire

Políticas de escalonamento de tempo-real para garantia de QoS absoluta em array de servidores web heterogêneos

Em relação aos significativos resultados em Qualidade de Serviço (QoS) para servidores Web, existem ainda muitos problemas não resolvidos. Enquanto as abordagens atuais se limitam a prover QoS relativa através de diferenciação de serviço, este projeto apresenta e compara três modelos que tem por objetivo prover QoS absoluta para um array de servidores Web heterogêneos por meio de uma arquitetura de escalonamento ortogonal: A Multiple Queue (MQ), a Single Queue (SQ) e a Dynamic Single Queue (DSQ). A MQ consiste em receber a requisição HTTP e enviá-la para o servidor escolhido do array de servidores através do balanceamento de carga. A SQ e a DSQ possuem uma única fila gerenciada de forma centralizada. Enquanto a SQ envia a requisição somente quando o servidor esta livre, a DSQ seleciona o servidor com mais curto tempo de término mediante o uso de filas virtuais. Os modelos foram simulados considerando diferentes parâmetros e configurações para o ambiente. A avaliação de desempenho da arquitetura ortogonal demonstra que a mesma provê um bom desempenho na provisão de QoS absoluta com relação as mudanças instantâneas das cargas de trabalho no ambiente Web. Esta pesquisa estende os resultados da politica de escalonamento chamada EBS, concebida para provisão de garantias de tempo de resposta estocásticas em ambientes interativos online, especificamente para os servidores Web. Os resultados demonstram que a combinação da EBS na política de fila com a disciplina de recurso proposta neste trabalho é superior às outras combinações examinadas. Um modelo de política adaptativa é também introduzido

Ano

2008

Creators

Maycon Leone Maciel Peixoto

Ajuste de parâmetros de técnicas de classificação por algoritmos bioinspirados

Aprendizado de máquina é uma área de pesquisa na qual se investiga como desenvolver sistemas capazes de aprender com a experiência. Muitos algoritmos de aprendizado possuem parâmetros cujos valores devem ser especificados pelo usuário. Em geral, esses valores influenciam diretamente no processo de aquisição do conhecimento, podendo gerar diferentes modelos. Recentemente, algoritmos de otimização bioinspirados têm sido aplicados com sucesso no ajuste de parâmetros de técnicas de aprendizado de máquina. Essas técnicas podem apresentar diferentes sensibilidades em relação aos valores escolhidos para seus parâmetros e diferentes algoritmos de ajuste de parâmetros podem apresentar desempenhos singulares. Esta dissertação investiga a utilização de algoritmos bioinspirados para o ajuste de parâmetros de redes neurais artificiais e máquinas de vetores de suporte em problemas de classificação. O objetivo dessa investigação é verificar quais são as técnicas que mais se beneficiam do ajuste de parâmetros e quais são os algoritmos mais eficientes para essas técnicas. Os resultados experimentais mostram que os algoritmos bioinspirados conseguem encontrar melhores clasificadores que outras abordagens. Porém, essa melhoria é estatisticamente significativa para alguns conjuntos de dados. Foi possível verificar que o uso dos valores padrão para os parâmetros das técnicas de classificação leva a desempenhos similares aos obtidos com os algoritmos bioinspirados. Entretanto, para alguns conjuntos de dados, o ajuste de parâmetros pode melhorar significativamente o desempenho dos classificadores

Ano

2009

Creators

André Luis Debiaso Rossi

Superfícies de pontos dinâmicas

O estudo do comportamento de fluidos é um antigo domínio das ciências da natureza. Ultimamente, fenômenos de engenharia que eram estudados empiricamente passaram a ser estudados com auxílio computacional. A Dinâmica de Fluidos Computacional (DFC) é a área da ciência da computação que estuda métodos computacionais para simulação de escoamento de fluidos, e muitas vezes é a forma mais prática, ou a única, de se observar fenômenos de interesse no escoamento. Este projeto de Mestrado procurou investigar, no âmbito da simulação de um escoamento bifásico, métodos computacionais para representar a interface entre dois fluidos imiscíveis. A separação dos fluidos por meio de uma interface é necessária para assegurar que, propriedades como viscosidade e densidade, específicas de cada fluido, sejam utilizadas corretamente para o cálculo do movimento de seus respectivos fluidos. Desenvolvemos um método lagrangeano sem a utilização de malhas com o objetivo de suprir algumas restrições de trabalhos prévios. Para representar a interface entre os dois fluidos, este método utiliza uma técnica de reconstrução de superfícies baseada em aproximações de superfícies algébricas de alta ordem. Os resultados numéricos reportados neste documento evidenciam o potencial da nossa abordagem

Ano

2009

Creators

Anderson Luis Nakano

Avaliação de métodos não-supervisionados de seleção de atributos para mineração de textos

Selecionar atributos é, por vezes, uma atividade necessária para o correto desenvolvimento de tarefas de aprendizado de máquina. Em Mineração de Textos, reduzir o número de atributos em uma base de textos é essencial para a eficácia do processo e a compreensibilidade do conhecimento extraído, uma vez que se lida com espaços de alta dimensionalidade e esparsos. Quando se lida com contextos nos quais a coleção de textos é não-rotulada, métodos não-supervisionados de redução de atributos são utilizados. No entanto, não existe forma geral predefinida para a obtenção de medidas de utilidade de atributos em métodos não-supervisionados, demandando um esforço maior em sua realização. Assim, este trabalho aborda a seleção não-supervisionada de atributos por meio de um estudo exploratório de métodos dessa natureza, comparando a eficácia de cada um deles na redução do número de atributos em aplicações de Mineração de Textos. Dez métodos são comparados - Ranking porTerm Frequency, Ranking por Document Frequency, Term Frequency-Inverse Document Frequency, Term Contribution, Term Variance, Term Variance Quality, Método de Luhn, Método LuhnDF, Método de Salton e Zone-Scored Term Frequency - sendo dois deles aqui propostos - Método LuhnDF e Zone-Scored Term Frequency. A avaliação se dá em dois focos, supervisionado, pelo medida de acurácia de quatro classificadores (C4.5, SVM, KNN e Naïve Bayes), e não-supervisionado, por meio da medida estatística de Expected Mutual Information Measure. Aos resultados de avaliação, aplica-se o teste estatístico de Kruskal-Wallis para determinação de significância estatística na diferença de desempenho dos diferentes métodos de seleção de atributos comparados. Seis bases de textos são utilizadas nas avaliações experimentais, cada uma relativa a um grande domínio e contendo subdomínios, os quais correspondiam às classes usadas para avaliação supervisionada. Com esse estudo, este trabalho visa contribuir com uma aplicação de Mineração de Textos que visa extrair taxonomias de tópicos a partir de bases textuais não-rotuladas, selecionando os atributos mais representativos em uma coleção de textos. Os resultados das avaliações mostram que não há diferença estatística significativa entre os métodos não-supervisionados de seleção de atributos comparados. Além disso, comparações desses métodos não-supervisionados com outros supervisionados (Razão de Ganho e Ganho de Informação) apontam que é possível utilizar os métodos não-supervisionados em atividades supervisionadas de Mineração de Textos, obtendo eficiência compatível com os métodos supervisionados, dado que não detectou-se diferença estatística nessas comparações, e com um custo computacional menor

Ano

2009

Creators

Bruno Magalhães Nogueira

ChipCflow - uma ferramenta para execução de algoritmos utilizando o modelo a fluxo de dados dinâmico em hardware reconfigurável - operadores e grafos a fluxo de dados

ChipCflow é o projeto de uma ferramenta para execução de algoritmos escritos em linguagem C utilizando o modelo a fluxo de dados dinâmico em hardware com reconfiguração parcial. O objetivo principal do projeto ChipCflow é a aceleração da execução de programas por meio da execução direta em hardware, aproveitando ao máximo o paralelismo considerado natural do modelo a fluxo de dados. Em particular nesta parte do projeto, realizou-se a prova de conceito para a programação a fluxo da dados em hardware reconfigurável. O modelo de fluxo de dados utilizado foi o estático em plataforma sem reconfiguração parcial, dada a complexidade desse sistema, que faz parte de outro módulo em desenvolvimento no projeto ChipCflow

Ano

2009

Creators

Vasco Martins Correia

Hierarchical semi-supervised confidence-based active clustering and its application to the extraction of topic hierarchies from document collections

Topic hierarchies are efficient ways of organizing document collections. These structures help users to manage the knowledge contained in textual data. These hierarchies are usually obtained through unsupervised hierarchical clustering algorithms. By not considering the context of the user in the formation of the hierarchical groups, unsupervised topic hierarchies may not attend the user\'s expectations in some cases. One possible solution for this problem is to employ semi-supervised clustering algorithms. These algorithms incorporate the user\'s knowledge through the usage of constraints to the clustering process. However, in the context of semi-supervised hierarchical clustering, the works in the literature do not efficient explore the selection of cases (instances or cluster) to add constraints, neither the interaction of the user with the clustering process. In this sense, in this work we introduce two semi-supervised hierarchical clustering algorithms: HCAC (Hierarchical Confidence-based Active Clustering) and HCAC-LC (Hierarchical Confidence-based Active Clustering with Limited Constraints). These algorithms employ an active learning approach based in the confidence of cluster merges. When a low confidence merge is detected, the user is invited to decide, from a pool of candidate pairs of clusters, the best cluster merge in that point. In this work, we employ HCAC and HCAC-LC in the extraction of topic hierarchies through the SMITH framework, which is also proposed in this thesis. This framework provides a series of well defined activities that allow the user\'s interaction in the generation of topic hierarchies. The active learning approach used in the HCAC-based algorithms, the kind of queries employed in these algorithms, as well as the SMITH framework for the generation of semi-supervised topic hierarchies are innovations to the state of the art proposed in this thesis. Our experimental results indicate that HCAC and HCAC-LC outperform other semi-supervised hierarchical clustering algorithms in diverse scenarios. The results also indicate that semi-supervised topic hierarchies obtained through the SMITH framework are more intuitive and easier to navigate than unsupervised topic hierarchies

Ano

2013

Creators

Bruno Magalhães Nogueira

Abordagem clássica e bayesiana para os modelos de séries temporais da família GARMA com aplicações para dados de contagem

Nesta dissertação estudou-se o modelo GARMA para modelar séries temporais de dados de contagem com as distribuições condicionais de Poisson, binomial e binomial negativa. A principal finalidade foi analisar no contexto clássico e bayesiano, o desempenho e a qualidade do ajuste dos modelos de interesse, bem como o desempenho dos percentis de cobertura dos intervalos de confiança dos parâmetros para os modelos adotados. Para atingir tal finalidade considerou-se a análise dos estimadores pontuais bayesianos e foram analisados intervalos de credibilidade. Neste estudo é proposta uma distribuição a priori conjugada para os parâmetros dos modelos e busca-se a distribuição a posteriori, a qual associada a certas funções de perda permite encontrar estimativas bayesianas para os parâmetros. Na abordagem clássica foram calculados estimadores de máxima verossimilhança, usandose o método de score de Fisher e verificou-se por meio de simulação a consistência dos mesmos. Com os estudos desenvolvidos pode-se observar que, tanto a inferência clássica quanto a inferência bayesiana para os parâmetros dos modelos em questão, apresentou boas propriedades analisadas por meio das propriedades dos estimadores pontuais. A última etapa do trabalho consiste na análise de um conjunto de dados reais, sendo uma série real correspondente ao número de internações por causa da dengue em Campina Grande. Estes resultados mostram que tanto o estudo clássico, quanto o bayesiano, são capazes de descrever bem o comportamento da série

Ano

2011

Creators

Adriana Strieder Philippsen

Estudo e definição de ontologias como apoio ao desenvolvimento de módulos educacionais

O desenvolvimento de conteúdos educacionais e a adoção de mecanismos de modelagem representam fatores importantes a serem considerados no contexto de ensino e aprendizagem. Nesse cenário, a utilização de ontologias proporciona vantagens tais como definção formal do conhecimento, reusabilidade e interoperabilidade de informações. Além disso, facilidades como recuperação dos objetos de aprendizagem, reúso do conteúdo de aprendizagem e personalização do conteúdo a partir do desempenho do usuário também são observadas. Diante disso, diversas aplicações com base em ontologias têm sido utilizadas tanto para modelar domínios educacionais como para construir, organizar e atualizar objetos de aprendizagem e perfis de aluno. Ainda, associado ao uso de ontologias em sistemas educacionais, verifica-se um crescente interesse na construção da personalização do conteúdo, de acordo com as preferências e características do usuário envolvendo a utilização de ontologias. O presente projeto está inserido nesse contexto, em que um conjunto de ontologias foi desenvolvido para prover a personalização do conteúdo, com base no perfil do usuário. Foi construído um exemplo na ontologia global (que compõe o conjunto de ontologias), em que o domínio de análise de ponto de função foi instanciado para três usuários com diferentes níveis de conhecimento. A ideia é elicitar a granularidade distinta do conteúdo para cada usuário, em conformidade com suas preferências e nível de conhecimento no domínio, a partir das relações e das inferências estabelecidas nas ontologias

Ano

2012

Creators

Joice Basilio Machado

"Métodos de pontos interiores aplicados ao pré-despacho de um sistema hidroelétrico usando o princípio de mínimo esforço - comparação com o modelo de fluxo em redes"

Neste trabalho, os métodos de pontos interiores primal-dual e preditor corretor são estudados e desenvolvidos para o problema de minimização de custos na geração e perdas na transmissão do pré-despacho DC (fluxo de carga em corrente contínua) de um sistema de potência hidroelétrico, com base no modelo de fluxo em redes e no princípio do mínimo esforço. A estrutura matricial, resultante da simplificação do problema proposto pela inclusão do princípio do mínimo esforço, é estudada visando implementações eficientes.

Ano

2005

Creators

Lilian Milena Ramos Carvalho