Repositório RCAAP

Uma nova metáfora visual escalável para dados tabulares e sua aplicação na análise de agrupamentos

A rápida evolução dos recursos computacionais vem permitindo que grandes conjuntos de dados sejam armazenados e recuperados. No entanto, a exploração, compreensão e extração de informação útil ainda são um desafio. Com relação às ferramentas computacionais que visam tratar desse problema, a Visualização de Informação possibilita a análise de conjuntos de dados por meio de representações gráficas e a Mineração de Dados fornece processos automáticos para a descoberta e interpretação de padrões. Apesar da recente popularidade dos métodos de visualização de informação, um problema recorrente é a baixa escalabilidade visual quando se está analisando grandes conjuntos de dados, resultando em perda de contexto e desordem visual. Com intuito de representar grandes conjuntos de dados reduzindo a perda de informação relevante, o processo de agregação visual de dados vem sendo empregado. A agregação diminui a quantidade de dados a serem representados, preservando a distribuição e as tendências do conjunto de dados original. Quanto à mineração de dados, visualização de informação vêm se tornando ferramental essencial na interpretação dos modelos computacionais e resultados gerados, em especial das técnicas não-supervisionados, como as de agrupamento. Isso porque nessas técnicas, a única forma do usuário interagir com o processo de mineração é por meio de parametrização, limitando a inserção de conhecimento de domínio no processo de análise de dados. Nesta dissertação, propomos e desenvolvemos uma metáfora visual baseada na TableLens que emprega abordagens baseadas no conceito de agregação para criar representações mais escaláveis para a interpretação de dados tabulares. Como aplicação, empregamos a metáfora desenvolvida na análise de resultados de técnicas de agrupamento. O ferramental resultante não somente suporta análise de grandes bases de dados com reduzida perda de contexto, mas também fornece subsídios para entender como os atributos dos dados contribuem para a formação de agrupamentos em termos da coesão e separação dos grupos formados.

Ano

2017

Creators

Evinton Antonio Cordoba Mosquera

Extração de features 3D para o reconhecimento de objetos em nuvem de pontos

A detecção e reconhecimento de objetos é uma tarefa fundamental em aplicações relacionadas à navegação autônoma de robôs móveis e veículos inteligentes. Com a evolução tecnológica nos sistemas sensoriais, surgiram equipamentos capazes de detectar e representar os elementos presentes no ambiente de forma tridimensional, em estruturas chamadas nuvem de pontos. Os sensores 3D geralmente capturam um grande volume de pontos em curtos intervalos de tempo, o que demanda técnicas robustas para processamento dessa informação além de tolerância a eventuais ruídos nos dados. Uma abordagem frequentemente utilizada na área de Visão Computacional para redução de dimensionalidade é a extração de features robustas, armazenando um subconjunto de informações representativas e simplificadas do conjunto de dados. Esta tese apresenta uma metodologia de classificação de objetos em nuvens de pontos 3D através da extração de features 3D globais. Foi desenvolvido um novo descritor 3D invariante à escala, translação e rotação denominado 3D-CSD (3D-Contour Sample Distances) para representação da superfície dos objetos presentes no ambiente, e utilizado um método de aprendizado supervisionado para reconhecimento de padrões. Os experimentos realizados envolveram o uso de Redes Neurais Artificiais para o reconhecimento de diferentes classes de objetos, avaliando e validando a metodologia proposta. Os resultados obtidos demostraram a viabilidade da aplicação desta abordagem para o reconhecimento de objetos em sistemas de percepção 3D.

Ano

2017

Creators

Daniel Oliva Sales

Similaridade em big data

Os volumes de dados armazenados em grandes bases de dados aumentam em ritmo sempre crescente, pressionando o desempenho e a flexibilidade dos Sistemas de Gerenciamento de Bases de Dados (SGBDs). Os problemas de se tratar dados em grandes quantidades, escopo, complexidade e distribuição vêm sendo tratados também sob o tema de big data. O aumento da complexidade cria a necessidade de novas formas de busca - representar apenas números e pequenas cadeias de caracteres já não é mais suficiente. Buscas por similaridade vêm se mostrando a maneira por excelência de comparar dados complexos, mas até recentemente elas não estavam disponíveis nos SGBDs. Agora, com o início de sua disponibilidade, está se tornando claro que apenas os operadores de busca por similaridade fundamentais não são suficientes para lidar com grandes volumes de dados. Um dos motivos disso é que similaridade\' é, usualmente, definida considerando seu significado quando apenas poucos estão envolvidos. Atualmente, o principal foco da literatura em big data é aumentar a eficiência na recuperação dos dados usando paralelismo, existindo poucos estudos sobre a eficácia das respostas obtidas. Esta tese visa propor e desenvolver variações dos operadores de busca por similaridade para torná-los mais adequados para processar big data, apresentando visões mais abrangentes da base de dados, aumentando a eficácia das respostas, porém sem causar impactos consideráveis na eficiência dos algoritmos de busca e viabilizando sua execução escalável sobre grandes volumes de dados. Para alcançar esse objetivo, este trabalho apresenta quatro frentes de contribuições: A primeira consistiu em um modelo de diversificação de resultados que pode ser aplicado usando qualquer critério de comparação e operador de busca por similaridade. A segunda focou em definir técnicas de amostragem e de agrupamento de dados com o modelo de diversificação proposto, acelerando o processo de análise dos conjuntos de resultados. A terceira contribuição desenvolveu métodos de avaliação da qualidade dos conjuntos de resultados diversificados. Por fim, a última frente de contribuição apresentou uma abordagem para integrar os conceitos de mineração visual de dados e buscas por similaridade com diversidade em sistemas de recuperação por conteúdo, aumentando o entendimento de como a propriedade de diversidade pode ser aplicada.

Ano

2017

Creators

Lúcio Fernandes Dutra Santos

Uma abordagem híbrida para planejamento exploratório de trajetórias e controle de navegação de robôs móveis autônomos

A tarefa de planejamento de trajetórias de robôs móveis autônomos consiste em determinar objetivos intermediários para que um robô seja capaz de partir de sua localização inicial e alcançar seu objetivo final. Além do planejamento, é importante definir um método de controle da navegação (seguimento da trajetória) do robô para que ele seja capaz de realizar seu trajeto de forma segura. Este projeto propõe uma abordagem híbrida para planejamento exploratório e execução de trajetórias de robôs móveis autônomos em ambientes indoor. Para o planejamento de trajetória, foram investigados algoritmos de busca em espaço de estados, dando ênfase ao uso de algoritmos evolutivos e algoritmos de otimização por colônia de formigas para a descoberta e otimização da trajetória. O controle da navegação é realizado por meio de comportamentos locais reativos, baseado na exploração e uso de mapas topológicos, os quais permitem uma maior flexibilidade em termos de definição da localização da posição do robô móvel e sobre os detalhes do mapa do ambiente (mapas com informações aproximadas e não métricos). Assim, foi proposto e desenvolvido um método robusto capaz de planejar, mapear e explorar um caminho ótimo ou quase ótimo para que o robô possa navegar e alcançar seu objetivo de forma segura, com pouca informação prévia do ambiente ou mesmo sobre sua localização. Além disso, o robô pode reagir a ambientes com alterações dinâmicas em sua estrutura, considerando por exemplo, elementos dinâmicos como portas que possam ser abertas ou fechadas e passagens que são obstruídas. Por fim, foram realizados diversos testes e simulações a fim de validar o método proposto, com a avaliação da qualidade das soluções encontradas e comparação com outras abordagens tradicionais de planejamento de trajetórias (algoritmos A* e D*).

Ano

2017

Creators

Valéria de Carvalho Santos

Implementação do método de campos potenciais para navegação de robôs móveis baseada em computação reconfigurável.

Os algoritmos de navegação, para robôs móveis, baseados em células, ainda são de alto custo computacional. Depois de uma pesquisa dentre os algoritmos disponivéis, realizando comparações de desempenho entre salas e corredores chegou-se a um algoritmo que além de ótimo era altamente usado dentro do universo da robótico. Este algoritmo, baseado em Campos Potenciais, usado para desvio de obstáculos e planejamento de caminhos locais, foi implementado em hardware reconfigurável usando uma FPGA Altera. Comparações entre este hardware reconfigurável e processadores de propósito geral foram realizadas para concluir o trabalho.

Ano

2002

Creators

Rovilson Mezencio

Sistema para Transmissão de Vídeo via ATM

A utilização de redes de alta velocidade e de ferramentas multimídia tem se tomado comum em grandes corporações e instituições de ensino, disponibilizando um meio rápido e interativo de comunicação. Grandes quantidades de dados de diferentes tipos e prioridades trafegam nestas redes, sendo que um controle da Qualidade de Serviço se faz necessário para grande parte deles, como, por exemplo, dados de mídia contínua (audio e vídeo). Este projeto de mestrado tem como foco principal um estudo abrangente da tecnologia de rede ATM na transmissão de streams de áudio e vídeo, comprimidos ou não, considerando aspectos como Qualidade de Serviço, controle de admissão de conexões, congestionamento na rede, as diferentes prioridades de transmissão, os tipos de tráfego gerados e respectivas taxas de transmissão, além da problemática envolvida no setup da rede. Neste estudo será utilizada toda a infra-estrutura oferecida pela tecnologia de rede ATM, notadamente no que tange ao suporte oferecido para a manutenção de uma Qualidade de Serviço específica e essencial para aplicações de transporte de mídia contínua. Desta maneira, será possível também averiguar quão adequada é a utilização da tecnologia nas novas aplicações multimídia surgidas recentemente, como TV Interativa, Video on Demand, entre outras.

Ano

1999

Creators

Mauricio Pissioli

Definição de Mecanismos para Avaliação de Qualidade de Produtos de Software

Este trabalho apresenta a modelagem de um processo de engenharia reversa e a definição de um modelo de qualidade associado, visando à obter indicativos da qualidade do produto atual e dos artefatos produzidos durante este processo. Para a realização da modelagem foi utilizado o método FUSION-RE/I, o qual tem como objetivo auxiliar na atividade de manutenção, recuperando visões funcionais e estruturais de um sistema, e a abordagem SQUID (método e ferramenta), que é uma abordagem de desenvolvimento de software que visa a garantir e controlar a qualidade de um software através de medições de artefatos intermediários produzidos pelo processo de desenvolvimento envolve tanto a visão de qualidade (modelo de qua um particular projeto. qual tem como objetivo auxiliar na atividade de manutenção, is e estruturais de um sistema, e a abordagem SQUID (método e ferramenta), que é uma abordagem de desenvolvimento de software que visa a garantir e controlar a qualidade de um software através de medições de artefatos intermediários produzidos pelo processo de desenvolvimento ao qual o software está submetido. A abordagem SQUID envolve tanto a visão de desenvolvimento (modelo de desenvolvimento) quanto a visão de qualidade), que devem estar associadas em função das características de um particular projeto.

Ano

2001

Creators

Vangrei Fonseca Simão

Diagnóstico de doenças mentais baseado em mineração de dados e redes complexas

O uso de técnicas de mineração de dados tem produzido resultados importantes em diversas áreas, tais como bioinformática, atividades de transações bancárias, auditorias de computadores relacionados à segurança, tráfego de redes, análise de textos, imagens e avaliação da qualidade em processos de fabricação. Em medicina, métodos de mineração de dados têm se revelado muito eficazes na realização de diagnósticos automáticos, ajudando na tomada de decisões por equipes médicas. Além do uso de mineração de dados, dados médicos podem ser representados por redes complexas, de modo a incluir conexões entre seus elementos. Por exemplo, no caso do cérebro, regiões corticais podem representar vértices em um grafo e as conexões podem ser definidas através das atividades corticais. Com isso, pode-se comparar a estrutura do cérebro de sujeitos sadios com a de pacientes que apresentam doenças mentais de modo a definir métodos para diagnóstico e obter conhecimento sobre como a estrutura do cérebro está relacionada com alterações comportamentais e neurológicas. Nesse trabalho, estamos interessados em usar métodos de mineração de dados e redes complexas para classificar pacientes portadores de quatro diferentes tipos de doenças mentais, isto é, esquizofrenia, autismo, déficit de atenção/desordem de hiperatividade e paralisia progressiva nuclear.

Ano

2019

Creators

Caroline Lourenço Alves

Seleção de atributos via agrupamento

O avanço tecnológico teve como consequência a geração e o armazenamento de quantidades abundantes de dados. Para conseguir extrair o máximo de informação possível dos dados tornou-se necessária a formulação de novas ferramentas de análise de dados. Foi então introduzido o Processo de Descoberta de Conhecimento em Bancos de Dados, que tem como objetivo a identificação de padrôes válidos, novos, potencialmente úteis e compreensíveis em grandes bancos de dados. Nesse processo, a etapa responsável por encontrar padrões nos dados é denominada de Mineração de Dados. A acurácia e eficiência de algoritmos de mineração de dados dependem diretamente da quantidade e da qualidade dos dados que serão analisados. Nesse sentido, atributos redundantes e/ou não-informativos podem tornar o processo de mineração de dados ineficiente. Métodos de Seleção de Atributos podem remover tais atributos. Nesse trabalho é proposto um algoritmo para seleção de atributos e algumas de suas variantes. Tais algoritmos procuram identificar redundância por meio do agrupamento de atributos. A identificação de atributos redundantes pode auxiliar não apenas no processo de identificação de padrões, mas também pode favorecer a compreensibilidade do modelo obtido. O algoritmo proposto e suas variantes são comparados com dois algoritmos do mesmo gênero descritos na literatura. Tais algoritmos foram avaliados em problemas típicos de mineração de dados: classificação e agrupamento de dados. Os resultados das avaliações mostram que o algoritmo proposto, e suas variantes, fornecem bons resultados tanto do ponto de vista de acurácia como de eficiência computacional, sem a necessidade de definição de parâmetros críticos pelo usuário

Ano

2010

Creators

Thiago Ferreira Covões

Técnica de aprendizado semissupervisionado para detecção de outliers

Detecção de outliers desempenha um importante papel para descoberta de conhecimento em grandes bases de dados. O estudo é motivado por inúmeras aplicações reais como fraudes de cartões de crédito, detecção de falhas em componentes industriais, intrusão em redes de computadores, aprovação de empréstimos e monitoramento de condições médicas. Um outlier é definido como uma observação que desvia das outras observações em relação a uma medida e exerce considerável influência na análise de dados. Embora existam inúmeras técnicas de aprendizado de máquina para tratar desse problemas, a maioria delas não faz uso de conhecimento prévio sobre os dados. Técnicas de aprendizado semissupervisionado para detecção de outliers são relativamente novas e incluem apenas um pequeno número de rótulos da classe normal para construir um classificador. Recentemente um modelo semissupervisionado baseado em rede foi proposto para classificação de dados empregando um mecanismo de competição e cooperação de partículas. As partículas são responsáveis pela propagação dos rótulos para toda a rede. Neste trabalho, o modelo foi adaptado a fim de detectar outliers através da definição de um escore de outlier baseado na frequência de visitas. O número de visitas recebido por um outlier é significativamente diferente dos demais objetos de mesma classe. Essa abordagem leva a uma maneira não tradicional de tratar os outliers. Avaliações empíricas sobre bases artificiais e reais demonstram que a técnica proposta funciona bem para bases desbalanceadas e atinge precisão comparável às obtidas pelas técnicas tradicionais de detecção de outliers. Além disso, a técnica pode fornecer novas perspectivas sobre como diferenciar objetos, pois considera não somente a distância física, mas também a formação de padrão dos dados

Ano

2014

Creators

Fabio Willian Zamoner

Stochastic density ratio estimation and its application to feature selection

The estimation of the ratio of two probability densities is an important statistical tool in supervised machine learning. In this work, we introduce new methods of density ratio estimation based on the solution of a multidimensional integral equation involving cumulative distribution functions. The resulting methods use the novel V -matrix, a concept that does not appear in previous density ratio estimation methods. Experiments demonstrate the good potential of this new approach against previous methods. Mutual Information - MI - estimation is a key component in feature selection and essentially depends on density ratio estimation. Using one of the methods of density ratio estimation proposed in this work, we derive a new estimator - VMI - and compare it experimentally to previously proposed MI estimators. Experiments conducted solely on mutual information estimation show that VMI compares favorably to previous estimators. Experiments applying MI estimation to feature selection in classification tasks evidence that better MI estimation leads to better feature selection performance. Parameter selection greatly impacts the classification accuracy of the kernel-based Support Vector Machines - SVM. However, this step is often overlooked in experimental comparisons, for it is time consuming and requires familiarity with the inner workings of SVM. In this work, we propose procedures for SVM parameter selection which are economic in their running time. In addition, we propose the use of a non-linear kernel function - the min kernel - that can be applied to both low- and high-dimensional cases without adding another parameter to the selection process. The combination of the proposed parameter selection procedures and the min kernel yields a convenient way of economically extracting good classification performance from SVM. The Regularized Least Squares - RLS - regression method is another kernel method that depends on proper selection of its parameters. When training data is scarce, traditional parameter selection often leads to poor regression estimation. In order to mitigate this issue, we explore a kernel that is less susceptible to overfitting - the additive INK-splines kernel. Then, we consider alternative parameter selection methods to cross-validation that have been shown to perform well for other regression methods. Experiments conducted on real-world datasets show that the additive INK-splines kernel outperforms both the RBF and the previously proposed multiplicative INK-splines kernel. They also show that the alternative parameter selection procedures fail to consistently improve performance. Still, we find that the Finite Prediction Error method with the additive INK-splines kernel performs comparably to cross-validation.

Ano

2014

Creators

Ígor Assis Braga

Avaliação automática da qualidade de recursos educacionais abertos usando métodos de Processamento de Línguas Naturais

Contexto: A expansão do acesso à banda larga no mundo está abrindo novos caminhos para o ensino, os quais podemos destacar o ensino aberto. A UNESCO em seu relatório anual de 2016 destacou que existem fortes interesses em incentivar a utilização de recursos educacionais abertos (REA) no campo de aprendizagem. Porém, a falta de qualidade dos REA é um desafio a ser superado. Em uma recolha na Plataforma Integrada do Ministério da Educação (MEC-RED) de maio de 2018, 41% dos recursos não possuíam classificação da etapa de ensino, dificultando sua busca, uso e edição. A literatura mais recente em avaliação automática da complexidade textual traz três grandes abordagens para essa tarefa: (i) uso de técnicas estatísticas como a Análise de Componentes Principais e a Análise Fatorial para reduzir um grande número de métricas linguísticas em poucas dimensões explicativas da complexidade textual; (ii) a abordagem de aprendizado de máquina, via construção de classificadores ou regressores, muitas vezes com o uso de métodos de seleção de features ou com avaliação da contribuição de conjuntos de features para a tarefa; e (iii) a abordagem de Deep Learning, que usa arquiteturas neurais com diversas características para evitar o uso de engenharia de features. Lacunas: Na avaliação automática da complexidade textual, até onde sabemos, não há trabalhos que aplicaram a abordagem Multi-task Learning com o propósito de construir um preditor de complexidade textual, e na avaliação da qualidade de metadados de REA a abordagem Deep Learning não havia sido explorada antes desta pesquisa. Proposta: A tarefa Complexidade Textual pode ajudar a identificar textos que tem complexidade linguística adequada a séries específicas, permitindo completar a etapa de ensino na MEC-RED. Avaliamos o impacto do gênero textual na avaliação da complexidade textual, com modelos treinados em um grande córpus de textos didáticos e testados em 2 datasets de REA da MEC-RED. Para REA que não possuem material textual, como vídeos e áudios, propusemos a avaliação de sua qualidade via título e resumo. Métodos de Avaliação: Para a avaliação em geral, foram usadas métricas comuns da área de Processamento de Línguas Naturais (PLN). Resultados: Como resultados, propusemos dois métodos de classificação da qualidade dos metadados de REA, usando Deep Learning (DeepMD e DeepMDX); além de uma larga avaliação da complexidade textual de REA no Português Brasileiro. Nesta última, usamos várias abordagens, incluindo Multi-task Learning, que não havia sido testada anteriormente, em duas arquiteturas (MTC-DTG Simplex e MTC-DTG). O melhor resultado para a classificação da qualidade de metadados, utilizando um dataset com 1.179 título/resumo de REA, foi de 0.98% de medida F, tanto com o modelo DeepMD como com o DeepMDX. Na avaliação da complexidade textual, podemos destacar o desempenho do modelo multi-task learning com duas tarefas auxiliares (MTC-DTG) que obteve 0.95% de medida F, o que trouxe uma melhoria de 0.15 pontos no melhor modelo de aprendizado de máquina tradicional (SVM).

Ano

2021

Creators

Murilo Gleyson Gazzola

Extração e aprendizado de características espectrais em imagens de sensoriamento remoto de baixa altitude

O presente trabalho tem como objetivo aplicar estratégias de pré-, pós-processamento e técnicas de aprendizado de máquina, para obter características de imagens capturadas por dispositivos de baixo custo em contextos agrícolas, de forma a melhorar detecção de cobertura vegetal. Os conhecimentos adquiridos a partir destas características podem ser usados diretamente nas práticas de agricultura de precisão; com a captação de dados feita através de dispositivos de baixo custo a implantação do sistema pode atingir diferentes categorias de agricultores de diversos países, principalmente os de países em desenvolvimento. Para a análise das técnicas de processamento de imagem e de aprendizado de máquina, utilizaremos bases de dados de imagens referentes a plantações, em um caso mais específico, plantações de feijão. É descrito um método não supervisionado, capaz de aprender a representação destes dados, sendo aptos a reconstituir sua entrada e utilizar como índices de vegetação ou ainda criar canais novo. Este modelo é conhecido como autoencoder. Os resultados obtidos com o modelo foram comparados com métodos clássicos da literatura que são capazes de estimar vegetação apenas com análises da composição RGB da imagem de entrada, chamados de Índices de Vegetação. Apesar dos índices de vegetação demonstrarem grande relevância para detecção de cobertura vegetal, o uso de auto-supervisão para reconstrução de canais de cor mostrou que é possível obter melhorias através da análise do erro da reconstrução.

Ano

2021

Creators

Paulo Victor de Souza Prado

O problema de corte de estoque com demanda estocástica

O presente trabalho desenvolve uma extensão do problema de corte de estoque unidimensional no caso em que a demanda pelos vários tipos de itens não é exatamente conhecida. Para considerar a aleatoriedade, foi proposto um modelo de programação estocástica de dois estágios com recurso. As varáveis de primeiro estágio são os números de barras cortadas por padrão de corte, e as variáveis de segundo estágio, os números de itens produzidos em escassez e em escassez. O objetivo do modelo é minimizar o custo total esperado. Para resolver a relaxação linear do modelo, foram propostos um método exato baseado no método Simplex com geração de colunas e uma estratégia heurística, que considera o valor esperado da demanda na resolução do problema de corte de estoque. As duas estratégias foram comparadas, assim como a possibilidade de resolver o problema de corte ignorando as incertezas. Finalmente, observou-se que é mais interessante determinar o valor ótimo do modelo recurso quando o problema sofre mais influência da aleatoriedade

Ano

2007

Creators

Douglas José Alem Junior

Modelo de custo para consultas por similaridade em espaços métricos

Esta tese apresenta um modelo de custo para estimar o número de acessos a disco (custo de I/O) e o número de cálculos de distância (custo de CPU) para consultas por similaridade executadas sobre métodos de acesso métricos dinâmicos. O objetivo da criação do modelo é a otimização de consultas por similaridade em Sistemas de Gerenciamento de Bases de Dados relacionais e objeto-relacionais. Foram considerados dois tipos de consultas por similaridade: consulta por abrangência e consulta aos k-vizinhos mais próximos. Como base para a criação do modelo de custo foi utilizado o método de acesso métrico dinâmico Slim-Tree. O modelo estima a dimensão intrínseca do conjunto de dados pela sua dimensão de correlação fractal. A validação do modelo é confirmada por experimentos com conjuntos de dados sintéticos e reais, de variados tamanhos e dimensões, que mostram que as estimativas obtidas em geral estão dentro da faixa de variação medida em consultas reais

Ano

2007

Creators

Gisele Busichia Baioco

Extração de características de imagens médicas utilizando wavelets para mineração de imagens e auxílio ao diagnóstico

Sistemas PACS (Picture Archieving and Communication Systems) têm sido desenvolvidos para armazenar de maneira integrada tanto os dados textuais e temporais dos pacientes quanto as imagens dos exames médicos a que eles se submetem para ampliar o uso das imagens no auxílio ao diagnóstico. Outra ferramenta valiosa para o auxílio ao diagnóstico médico são os sistemas CAD (Computer-Aided Diagnosis), para os quais pesquisas recentes mostram que o seu uso melhora significativamente a performance dos radiologistas em detectar corretamente anomalias. Dentro deste contexto, muitos trabalhos têm buscado métodos que possam reduzir o problema do \"gap semântico\", que refere-se ao que é perdido pela descrição sucinta da imagem e o que o usuário espera recuperar/reconhecer utilizando tal descrição. A grande maioria dos sistemas CBIR (do inglês Content-based image retrieval ) utiliza características primárias (baixo nível) para descrever elementos relevantes da imagem e proporcionar recuperação baseada em conteúdo. É necessário \"fundir\" múltiplos vetores com uma caracterí?stica em um vetor composto de características que possui baixa dimensionalidade e que ainda preserve, dentro do possível, as informações necessárias para a recuperação de imagens. O objetivo deste trabalho é propor novos extratores de características, baseados nos subespaços de imagens médicas gerados por transformadas wavelets. Estas características são armazenadas em vetores de características, os quais representam numericamente as imagens e permitindo assim sua busca por semelhança utilizando o conteúdo das próprias imagens. Esses vetores serão usados em um sistema de mineração de imagens em desenvolvimento no GBdI-ICMC-USP, o StARMiner, permitindo encontrar padrões pertencentes às imagens que as levem a ser classificadas em categorias

Ano

2007

Creators

Carolina Yukari Veludo Watanabe da Silva

Um modelo de referência para o desenvolvimento ágil de software

A crescente procura por software de qualidade vem causando grande pressão sobre as empresas que trabalham com desenvolvimento de software. As entregas de produtos de software dentro do prazo e custo previstos vêm se tornando, a cada dia, um diferencial importante nesse ramo de atividade. Nesse sentido, as empresas procuram por metodologias que propiciem o desenvolvimento de produtos com qualidade, e que respeitem o custo e prazo previstos. Em resposta a essas necessidades, surgiu uma nova classe de metodologias de desenvolvimento de software, conhecidas como metodologias ágeis. Este trabalho apresenta um estudo realizado sobre as principais características existentes nessa nova classe de metodologias. Uma análise permitiu a identificação de semelhanças e diferenças existentes entre elas, o que possibilitou a criação de um modelo de referência para o desenvolvimento ágil de software. O modelo foi utilizado em uma avaliação de processo baseada no modelo de avaliação da ISO/IEC 15504. A avaliação permitiu a identificação de forças e fraquezas no processo avaliado e possibilitou a definição de ações de melhoria para que o processo avaliado se assemelhasse à um processo de desenvolvimento ágil. Palavra-chave: Metodologia ágil de desenvolvimento. Modelo de referência. Processo de desenvolvimento de software. Avaliação de processo de software

Ano

2007

Creators

Gustavo Vaz Nascimento

Distribuição de carga flexível e dinâmica para provedores de web services

A SOA está se tornando uma abordagem difundida no desenvolvimento de sistemas. Em sistemas maiores onde se utiliza SOA pode ocorrer problemas de alta demanda, que podem ser resolvidos com arquiteturas distribuídas como clusters. Esta dissertação apresenta a proposta de uma nova arquitetura para distribuição de requisições em clusters de web services. A arquitetura proposta tem foco na distribuição flexível de requisições, possibilitando o emprego de políticas diversificadas, estas voltadas a diferentes objetivos, aplicações e plataformas. A arquitetura também propõe trabalhar de forma dinâmica, possibilitando decisões baseadas na coleta de estado dos elementos que compõem a estrutura de atendimento. A transparência, do ponto de vista do cliente, também é tratada na arquitetura. Os testes da arquitetura foram realizados através de um protótipo que a implementa. O protótipo instancia os objetivos propostos na arquitetura, apresentando ganhos de desempenho em relação à solução existente atualmente. A flexibilidade das políticas de distribuição é destacada através da construção de uma política, cujo objetivo é melhorar a eficiência no consumo de energia de clusters. Dentre as contribuições do trabalho está a criação de uma nova arquitetura de software que atua como facilitadora para a criação de políticas de distribuição de requisições mais eficiente para web services

Ano

2009

Creators

Jonathan de Matos

Desenvolvimento de um mecanismo plug-and-play para o arranjo inteligente de sensores em sistemas aéreos não tripulados

O uso de aeronaves não tripuladas (VANTs) tem crescido substancialmente nos últimos anos, tanto no campo militar quanto no civil. Roadmaps preveem que em um futuro próximo essas aeronaves compartilhem o espaço aéreo com aeronaves convencionais, exigindo novas arquiteturas de sistemas embarcados que possam garantir uma operação coordenada e segura desses robôs. A maior parte das suas missões baseia-se fortemente em um conjunto de sensores transportados pela aeronave como parte da payload da missão. Contudo, não é trivial a integração de diferentes missões em diferentes aeronaves, visto que ainda não há uma padronização para a comunicação nesses robôs. Para possibilitar essa associação foi proposto neste trabalho a criação de um middleware. Para que se pudesse entender sobre a área de conhecimento dos VANTs realizou-se uma pesquisa sobre esses veículos e suas aplicações e então um protocolo chamado Smart Sensor Protocol (SSP) foi modelado, utilizando-se de técnicas formais para isso. O comportamento do protocolo está modelado com diagrama de estados, seguindo uma gramática escrita utilizando a forma BNF. Este modelo foi verificado com a ferramenta UPPAAL e sua implementação testada em placas Arduino. Os resultados dos testes mostraram que o modelo é viável para o ambiente de embarcados críticos visto que ele provê as funcionalidades necessárias neste cenário sem acrescentar um overhead na comunicação

Ano

2014

Creators

Rayner de Melo Pires

Sumarização automática multidocumento: seleção de conteúdo com base no Modelo CST (Cross-document Structure Theory)

A sumarização automática multidocumento consiste em produzir um sumário ou resumo (como mais comumente é conhecido) a partir de um grupo de textos que versam sobre um mesmo assunto, contendo as informações mais relevantes de acordo com o interesse do usuário. No cenário atual, com a quantidade imensa de informação em constante crescimento e atualização, e o tempo cada vez mais reduzido disponível para apreender o conteúdo de interesse, sumários multidocumento têm se tornado um recurso importante. Nesta dissertação, foram explorados métodos de seleção de conteúdo para sumarização multidocumento com base no modelo de relacionamento multidocumento CST (Cross-document Structure Theory), proposto recentemente e já difundido na área de Processamento de Línguas Naturais. Em particular, neste trabalho, foram definidos e formalizados operadores de seleção de conteúdo para sumarização multidocumento com base no modelo CST. Estes operadores representam possíveis preferências de sumarização e focam-se no tratamento dos principais desafios presentes no processamento de múltiplos documentos: redundância, complementaridade e informações contraditórias. Estes operadores são especificados em templates contendo regras e funções que relacionam essas preferências às relações CST. Especificamente, foram definidos operadores para extrair a informação principal, apresentar informação de contexto, identificar autoria, tratar redundâncias e identificar informação contraditória. Também foi avaliado o impacto do uso do modelo CST em métodos de sumarização superficiais. Experimentos foram realizados com textos jornalísticos escritos em português brasileiro. Os resultados das avaliações mostram que o uso da teoria CST melhora a informatividade e a qualidade dos sumários gerados

Ano

2010

Creators

Maria Lucía Del Rosario Castro Jorge