Repositório RCAAP

Features transfer learning between domains for image and video recognition tasks

Feature transfer learning aims to reuse knowledge previously acquired in some source dataset to apply it in another target data and/or task. A requirement for the transfer of knowledge is the quality of feature spaces obtained, in which deep learning methods are widely applied since those provide discriminative and general descriptors. In this context, the main questions include: what to transfer align the data distribution from source and target, and adjusting the parameters to increase the models generalization capability; how to transfer investigating methods that work on the features spaces or also on the learned models; and when to transfer studying which datasets are mode adequate for transferring, considering discrepancies between source and target data, such as they different acquisition settings, clutter and illumination variation, among others. This thesis advocates that the focus should be in transferring feature spaces, learned by convolutional neural networks, in particular investigating the descriptive potential of inner and initial layers of such deep convolutional networks, and the approximation of feature spaces before aligning the data distribution in order to allow for better solutions, as well as the use of both labeled and unlabeled for feature learning. Besides the transfer learning methods, such as fine-tuning and manifold alignment, with use of classical evaluation metrics for recognition performance, a generalization metric between domains is also proposed to evaluate transfer learning. This thesis contributes with: an analysis of multiple descriptors contained in supervised deep networks; a new architecture with a loss function for semi-supervised deep networks (Weighted Label Loss), in which all available data, labeled or unlabeled, are incorporated to provide learning; and a new generalization metric (Cross-domain Feature Space Generalization Measure) that can be applied to any model and evaluation system

Ano

2020

Creators

Fernando Pereira dos Santos

Binary quantification in non-stationary scenarios

Quantification is a Machine Learning task similar to classification in the sense that it learns from a training set with labeled data. However, quantification is not interested in predicting the class of each observation, but rather measure the representativeness of each class in the test set. This subtle difference between classification and quantification requires specific algorithms, performance measures, and experimental designs. Moreover, most of the existing quantification algorithms were developed for well-controlled scenarios that rely on the assumption that the only change from training to test data is in the prior probability of the classes. This thesis focuses on providing improvements in quantification algorithms as well as the experimental design, including more realistic assumptions. Specifically, the main contributions of this thesis are the following: (i) the first algorithm to quantify non-stationary data under the concept drift presence; (ii) an unsupervised drift detector that are insensible to class imbalance explicitly; (iii) a mixture model framework for quantification with a deep experimental study, redefining the best parametrization of this sort of method; (iv) we show that the batch size, an ignored question in the literature, changes the ranking of quantification algorithms and thus we proposed a metalearning framework to select the best quantifier dynamically; (v) we describe how existing quantifiers are affected under score quality variability and, as response of it, we proposed a new algorithm that accurately quantifies while allowing changes in the quality of the scores, and; (vi) we show the applicability of our proposals in real-world problem and the efforts to contribute with development of new mechanism for trapping mosquitoes.

Ano

2019

Creators

André Gustavo Maletzke

Machine learning in complex networks: modeling, analysis, and applications

Machine learning is evidenced as a research area with the main purpose of developing computational methods that are capable of learning with their previously acquired experiences. Although a large amount of machine learning techniques has been proposed and successfully applied in real systems, there are still many challenging issues, which need be addressed. In the last years, an increasing interest in techniques based on complex networks (large-scale graphs with nontrivial connection patterns) has been verified. This emergence is explained by the inherent advantages provided by the complex network representation, which is able to capture the spatial, topological and functional relations of the data. In this work, we investigate the new features and possible advantages offered by complex networks in the machine learning domain. In fact, we do show that the network-based approach really brings interesting features for supervised, semisupervised, and unsupervised learning. Specifically, we reformulate a previously proposed particle competition technique for both unsupervised and semisupervised learning using a stochastic nonlinear dynamical system. Moreover, an analytical analysis is supplied, which enables one to predict the behavior of the proposed technique. In addition to that, data reliability issues are explored in semisupervised learning. Such matter has practical importance and is found to be of little investigation in the literature. With the goal of validating these techniques for solving real problems, simulations on broadly accepted databases are conducted. Still in this work, we propose a hybrid supervised classification technique that combines both low and high orders of learning. The low level term can be implemented by any classification technique, while the high level term is realized by the extraction of features of the underlying network constructed from the input data. Thus, the former classifies the test instances by their physical features, while the latter measures the compliance of the test instances with the pattern formation of the data. Our study shows that the proposed technique not only can realize classification according to the semantic meaning of the data, but also is able to improve the performance of traditional classification techniques. Finally, it is expected that this study will contribute, in a relevant manner, to the machine learning area

Ano

2012

Creators

Thiago Christiano Silva

Métodos de programação quadrática convexa esparsa e suas aplicações em projeções em poliedros

O problema de minimização com restrições lineares e importante, não apenas pelo problema em si, que surge em várias áreas, mas também por ser utilizado como subproblema para resolver problemas mais gerais de programação não-linear. GENLIN e um método eficiente para minimização com restrições lineares para problemas de pequeno e médio porte. Para que seja possível a implementação de um método similar para grande porte, é necessário ter um método eficiente, também para grande porte, para projeção de pontos no conjunto de restrições lineares. O problema de projeção em um conjunto de restrições lineares pode ser escrito como um problema de programação quadrática convexa. Neste trabalho, estudamos e implementamos métodos esparsos para resolução de problemas de programação quadrática convexa apenas com restrições de caixa, em particular o clássico método Moré-Toraldo e o \"método\" NQC. O método Moré-Toraldo usa o método dos Gradientes Conjugados para explorar a face da região factível definida pela iteração atual, e o método do Gradiente Projetado para mudar de face. O \"método\" NQC usa o método do Gradiente Espectral Projetado para definir em que face trabalhar, e o método de Newton para calcular o minimizador da quadrática reduzida a esta face. Utilizamos os métodos esparsos Moré-Toraldo e NQC para resolver o problema de projeção de GENLIN e comparamos seus desempenhos

Ano

2013

Creators

Jeinny Maria Peralta Polo

Uma abordagem de apoio a boas práticas para desenvolvimento de aplicações Web acessíveis

A interação com aplicações Web está se tornando cada vez mais presente no dia-a-dia das pessoas, sendo útil para a disponibilização de recursos que permitem a realização de serviços, estudos ou entretenimento. Porém muitos dos recursos disponibilizados apresentam barreiras em relação à acessibilidade, impedindo que usuários finais, com algum tipo de deficiência, possam utilizá-los de forma eficiente. Como solução para esse problema, têm sido propostas diretrizes para o desenvolvimento de aplicações Web acessíveis. Entretanto, apesar da existência dessas diretrizes, o cenário atual ainda mostra que há dificuldades em relação ao desenvolvimento considerando requisitos de acessibilidade. Neste sentido, esta tese está calcada na criação de uma abordagem que permita o apoio efetivo a boas práticas para desenvolvimento Web, a partir da aproximação de tais diretrizes ao ambiente das equipes de desenvolvimento. Para tanto, são definidas atividades separadas em 3 eixos de preocupações: Treinamento em Acessibilidade, Gerência de Decisões e Desenvolvimento e Ferramental. Para validação da concepção inicial da proposta desta tese, estudos de caso são detalhados, demonstrando como o desenvolvimento Web pode ser beneficiado com melhor apoio ferramental, que incluem o uso de técnicas de modelagem e de padrões para geração de código acessível. São ainda verificados os benefícios da colaboração de experiências e treinamento da equipe de desenvolvimento, para tanto foi desenvolvida a ferramenta AccessibilityUtil. Posteriormente é descrita a abordagem e validada em um experimento controlado em que existiram grupos de participantes utilizando a abordagem e outros que não fizeram uso da mesma. Com isso, observou-se que, com a utilização da abordagem, houve melhor apoio a boas práticas de desenvolvimento em relação à aplicação de requisitos de acessibilidade, o que ocasiona em melhores resultados de qualidade para as aplicações Web.

Ano

2013

Creators

Thiago Jabur Bittar

VerbNet.Br: construção semiautomática de um léxico verbal online e independente de domínio para o português do Brasil

A criação de recursos linguístico-computacionais de base, como é o caso dos léxicos computacionais, é um dos focos da área de Processamento de Línguas Naturais (PLN). Porém, a maioria dos recursos léxicos computacionais existentes é específica da língua inglesa. Dentre os recursos já desenvolvidos para a língua inglesa, tem-se a VerbNet, que é um léxico com informações semânticas e sintáticas dos verbos do inglês, independente de domínio, construído com base nas classes verbais de Levin, além de possuir mapeamentos para a WordNet de Princeton (WordNet). Considerando que há poucos estudos computacionais sobre as classes de Levin, que é a base da VerbNet, para línguas diferentes do inglês, e dada a carência de um léxico para o português nos moldes da VerbNet do inglês, este trabalho teve como objetivo a criação de um recurso léxico para o português do Brasil (chamado VerbNet.Br), semelhante à VerbNet. A construção manual destes recursos geralmente é inviável devido ao tempo gasto e aos erros inseridos pelo autor humano. Portanto, há um grande esforço na área para a criação destes recursos apoiada por técnicas computacionais. Uma técnica reconhecida e bastante usada é o uso de aprendizado de máquina em córpus para extrair informação linguística. A outra é o uso de recursos já existentes para outras línguas, em geral o inglês, visando à construção de um novo recurso alinhado, aproveitando-se de atributos multilíngues/cross-linguísticos (cross-linguistic) (como é o caso da classificação verbal de Levin). O método proposto neste mestrado para a construção da VerbNet.Br é genérico, porque pode ser utilizado para a construção de recursos semelhantes para outras línguas, além do português do Brasil. Além disso, futuramente, será possível estender este recurso via criação de subclasses de conceitos. O método para criação da VerbNet.Br é fundamentado em quatro etapas: três automáticas e uma manual. Porém, também foram realizados experimentos sem o uso da etapa manual, constatando-se, com isso, que ela pode ser descartada sem afetar a precisão e abrangência dos resultados. A avaliação do recurso criado foi realizada de forma intrínseca qualitativa e quantitativa. A avaliação qualitativa consistiu: (a) da análise manual de algumas classes da VerbNet, criando um gold standard para o português do Brasil; (b) da comparação do gold standard criado com os resultados da VerbNet.Br, obtendo resultados promissores, por volta de 60% de f-measure; e (c) da comparação dos resultados da VerbNet.Br com resultados de agrupamento de verbos, concluindo que ambos os métodos apresentam resultados similares. A avaliação quantitativa considerou a taxa de aceitação dos membros das classes da VerbNet.Br, apresentando resultados na faixa de 90% de aceitação dos membros em cada classe. Uma das contribuições deste mestrado é a primeira versão da VerbNet.Br, que precisa de validação linguística, mas que já contém informação para ser utilizada em tarefas de PLN, com precisão e abrangência de 44% e 92,89%, respectivamente

Ano

2013

Creators

Carolina Evaristo Scarton

INTEMA: UM GERADOR DE EXPLICAÇÕES PARA SISTEMAS TUTORES INTELIGENTES

Esta dissertação apresenta o projeto de construção do sistema INTEMA: um gerador de explicações e um ambiente de interação para Sistemas Tutores Inteligentes (sTIs) em Matemática. o INTEMA é parte de uma arquitetura genérica de STIs em Matemática que permite a troca de domínio, sem necessidade de alterar a geração de explicações. As explicações geradas têm por objetivo justificar o comportamento do sistema e informar os usuários, de maneira individualizada, sobre as características e funções do sistema. O estilo de interação fornecido pelo sistema é o de manipulação direta. São discutidos em detalhes os três módulos principais do INTEMA: planejador, realizador e interface. Um exemplo de interação com o sistema no domínio de Lógica de Primeira Ordem é apresentado.

Ano

1995

Creators

Marcus Vinicius Maltempi

Identificação dos sintomas de ferrugem em áreas cultivadas com cana-de-açúcar

Áreas cultivadas com cana-de-açúcar podem sofrer o ataque do fungo Puccinia melanocephala e variedades suscetíveis desenvolvem uma doença conhecida por ferrugem da cana-de-açúcar. Por afetar, geralmente, áreas imensas, os prejuízos são grandes. Atualmente, a avaliação da doença é feita por especialistas que percorrem as áreas plantadas analisando visualmente as folhas e atribuindo à região um determinado grau de infecção. Esse modelo pode ser considerado subjetivo pois, dependendo da experiência e acuidade visual do especialista, a avaliação de uma mesma área pode apresentar resultados divergentes. Diante desta situação, este trabalho apresenta uma abordagem para automatizar o processo de identificação e avaliação, criando alternativas para minimizar os prejuízos. Este trabalho apresenta um método para classificação dos níveis de infecção da ferrugem por meio da análise de imagens aéreas de canaviais, adquiridas por um aeromodelo. Dessas fotos são extraídas características baseadas nas cores, as quais são classificadas por meio de uma rede neural backpropagation. Além disso, foi implementado um método para segmentação de imagens digitais de folhas de cana-de-açúcar infectadas com o intuito de corroborar a avaliação manual feita por especialistas. Os resultados mostram que o método é eficaz na discriminação dos três níveis de infecção disponíveis, além disso, indicam que este pode ser igualmente eficiente na discriminação dos nove níveis de infecção da escala adotada.

Ano

2004

Creators

Desirée Nagliati Dias

Algoritmo kNN para previsão de dados temporais: funções de previsão e critérios de seleção de vizinhos próximos aplicados a variáveis ambientais em limnologia

A análise de dados contendo informações sequenciais é um problema de crescente interesse devido à grande quantidade de informação que é gerada, entre outros, em processos de monitoramento. As séries temporais são um dos tipos mais comuns de dados sequenciais e consistem em observações ao longo do tempo. O algoritmo k-Nearest Neighbor - Time Series Prediction kNN-TSP é um método de previsão de dados temporais. A principal vantagem do algoritmo é a sua simplicidade, e a sua aplicabilidade na análise de séries temporais não-lineares e na previsão de comportamentos sazonais. Entretanto, ainda que ele frequentemente encontre as melhores previsões para séries temporais parcialmente periódicas, várias questões relacionadas com a determinação de seus parâmetros continuam em aberto. Este trabalho, foca-se em dois desses parâmetros, relacionados com a seleção de vizinhos mais próximos e a função de previsão. Para isso, é proposta uma abordagem simples para selecionar vizinhos mais próximos que considera a similaridade e a distância temporal de modo a selecionar os padrões mais similares e mais recentes. Também é proposta uma função de previsão que tem a propriedade de manter bom desempenho na presença de padrões em níveis diferentes da série temporal. Esses parâmetros foram avaliados empiricamente utilizando várias séries temporais, inclusive caóticas, bem como séries temporais reais referentes a variáveis ambientais do reservatório de Itaipu, disponibilizadas pela Itaipu Binacional. Três variáveis limnológicas fortemente correlacionadas são consideradas nos experimentos de previsão: temperatura da água, temperatura do ar e oxigênio dissolvido. Uma análise de correlação é realizada para verificar se os dados previstos mantem a correlação das variáveis. Os resultados mostram que, o critério de seleção de vizinhos próximos e a função de previsão, propostos neste trabalho, são promissores

Ano

2009

Creators

Carlos Andres Ferrero

Uma metodologia para exploração de regras de associação generalizadas integrando técnicas de visualização de informação com medidas de avaliação do conhecimento

O processo de mineração de dados tem como objetivo encontrar o conhecimento implícito em um conjunto de dados para auxiliar a tomada de decisão. Do ponto de vista do usuário, vários problemas podem ser encontrados durante a etapa de pós-processamento e disponibilização do conhecimento extraído, como a enorme quantidade de padrões gerados por alguns algoritmos de extração e a dificuldade na compreensão dos modelos extraídos dos dados. Além do problema da quantidade de regras, os algoritmos tradicionais de regras de associação podem levar à descoberta de conhecimento muito específico. Assim, pode ser realizada a generalização das regras de associação com o intuito de obter um conhecimento mais geral. Neste projeto é proposta uma metodologia interativa que auxilie na avaliação de regras de associação generalizadas, visando melhorar a compreensibilidade e facilitar a identificação de conhecimento interessante. Este auxílio é realizado por meio do uso de técnicas de visualização em conjunto com a aplicação medidas de avaliação objetivas e subjetivas, que estão implementadas no módulo de visualização de regras de associação generalizados denominado RulEE-GARVis, que está integrado ao ambiente de exploração de regras RulEE (Rule Exploration Environment). O ambiente RulEE está sendo desenvolvido no LABIC-ICMC-USP e auxilia a etapa de pós-processamento e disponibilização de conhecimento. Neste contexto, também foi objetivo deste projeto de pesquisa desenvolver o Módulo de Gerenciamento do ambiente de exploração de regras RulEE. Com a realização do estudo dirigido, foi possível verificar que a metodologia proposta realmente facilita a compreensão e a identificação de regras de associação generalizadas interessantes

Ano

2008

Creators

Magaly Lika Fujimoto

Provisão integrada de QoS relativa e absoluta em serviços computacionais interativos com requisitos de responsividade de tempo real

Aplicações de sistemas computacionais emergentes atribuindo requisitos de resposta na forma de tempo de resposta requerem uma abordagem de sistemas de tempo real. Nesses sistemas, a qualidade de serviço é expressa como garantia das restrições temporais. Um amplo leque de técnicas para provisão de QoS encontram-se na literatura. Estas técnicas são baseadas tanto na diferenciação de serviço (QoS relativa), quanto na especificação de garantia de desempenho (QoS absoluta). Porém, a integração de QoS relativa e absoluta em nível de aplicação não tem sido tão explorada. Este trabalho realiza o estudo, a análise e a proposta de um método de escalonamento de tempo real em um ambiente simulado, baseado em contratos virtuais adaptativos e modelo re-alimentado. O objetivo é relaxar as restrições temporais dos usuários menos exigentes e priorizar usuários mais exigentes, sem degradar a qualidade do sistema como um todo. Para tanto, estratégias são exploradas em nível de escalonamento para o cumprimento dos contratos especificados por requisitos de tempo médio de resposta. Os resultados alcançados com o emprego do método proposto sinalizam uma melhoria em termos de qualidade de serviço relativa e absoluta e uma melhor satisfação dos usuários. Este trabalho também propõe uma extensão para os modelos convencionalmente estudados nesse contexto, ampliando a formulação original de duas classes para n classes de serviços

Ano

2010

Creators

Priscila Tiemi Maeda Saito

Gerenciamento de configuração de uma linha de produtos de software de veículos aéreos não tripulados

Veículos Aéreos não Tripulados (VANTs) são aeronaves que voam sem tripulação e são capazes de realizar diversos tipos de missões, como vigilância, coleta de dados topográficos e monitoramento ambiental. Este é um domínio que tem muito a ganhar com a aplicação da abordagem de Linha de Produtos de Software (LPS), uma vez que é rico em variabilidades e cada modelo de VANT tem também muitas partes comuns. Neste trabalho é apresentada uma infraestrutura tecnológica e de configuração de ativos em Simulink, gerenciados pelas ferramentas Pure::variant e Hephaestos para uma LPS de VANTs. Um conjunto de padrões para especificação de variabilidades em Simulink é proposto, bem como uma extensão para a ferramenta Hephaestus. Uma comparação entre as ferramentas Pure::variants e Hephaestus é apresentada

Ano

2012

Creators

Eduardo Miranda Steiner

Abordagem Bayesiana na inferência das probabilidades de transição em cadeias de Markov discretas: uma aplicação no modelo de fluxo escolar

Atualmente, os principais indicadores sobre a educação básica no Brasil são calculados a partir dos resultados apurados pelo Censo Escolar, fonte que apresenta inconsistências nos resultados, principalmente na obtenção das Taxas do Fluxo Escolar e nos totais de matrículas dos alunos. O modelo de Fluxo Escolar tem como função descrever o movimento dos alunos dentro do Sistema de Ensino, reconstruindo a evolução dos mesmos nas séries do ensino fundamental ao longo dos anos mediante as Taxas de Transição. É desenvolvida uma metodologia baseados numa proposta demográfica, onde é mostrada a dinâmica do processo de transição das séries que regulam o fluxo dos alunos medindo as taxas de promoções, repetências e desistências, de forma a estimar o fluxo dos estudantes para uma coorte hipotética de uma determinada idade. O presente trabalho tenta encontrar uma ponte entre a explicação da atual realidade educacional do país com a teoria e as ferramentas estatísticas, as quais tentam conseguir uma melhor visão da dimensão do desempenho do Sistema Educativo. O ponto central do trabalho trata das estimativas e previsões de matrículas que possam explicar esta dimensão, a traves da estimação das chamadas taxas do Fluxo Escolar. É descrito o tratamento de Cadeias de Markov Discretas mediante a Inferência Clássica, dado que o número de alunos aprovados, repetentes e evadidos podem ser vistos como tal. São calculados os Estimadores de Máxima Verossimilhança das taxas e são mostradas as propriedades asintóticas das mesmas e encontrada a distribuição asintótica com correlação serial, dado que os dados tem certa medida de dependência entre pares sucessivos de observações, são construídos testes de hipóteses e é feita uma abordagem Bayesiana considerando que o número de alunos aprovados, repetentes e evadidos tem uma distribuição multinomial sendo os parâmetros as probabilidades de transição (taxas de transição do fluxo). É feita a análise considerando primeiro como priori não informativa a priori de Jeffrey, logo é considerada como priori conjugada uma distribuição beta multivariada, conhecida também como distribuição de Dirichlet, esta distribuição pode ser interpretada como contendo informação equivalente ao número total de matrículas. As taxas do fluxo são estimadas usando função de perda quadrática. Também é considerado como estimador das taxas a moda da posteriori, em ausência de uma função de perda específica. São desenhadas propostas futuras dando alguns tópicos de Inferência Bayesiana para Processos estocâsticos. As taxas do Fluxo escolar são calculadas para diversas regiões do país e é considerado um modelo hierárquico com parâmetros comuns para cada região. Dessa forma o presente estudo busca contribuir no sentido de apresentar e discutir as possibilidades do modelo de Profluxo e, ao mesmo tempo, propor uma metodologia que combine os resultados deste método com as tendências demográficas e a teoria estatística, de maneira a se ter um quadro mais fidedigno na demanda por ensino fundamental no Brasil para os anos seguintes.

Ano

2002

Creators

Manuel Orlando Orrillo Ascama

Inferência em processos de difusão com observações parciais e determinação da medida martingale equivalente na precificação de opções

Neste trabalho foi feita uma aplicação das Equações Diferenciais Estocásticas á teoria da Precificação de Opções. Esta teoria teve grande impulso com o trabalho [Black & Scholes, 73], Black e Scholes em seu trabalho entre outra premissas feitas consideraram que os log-retornos dos ativos tinha uma distribuição normal. Aqui neste trabalho foram considerados três modelos, um deles é a difusão log- normal utilizada por Black-Scholes os outros dois modelos são a difusão linear e o processo de Ornstein-Uhlenbeck. Para estes três modelos foram determinadas as Medidas Martingales Equivalentes, isto foi feito utilizando o Teorema de Cameron-Martin- Girsanov, veja [Friedman, 75], Também foram analisadas versões discretas destes modelos obtidas pela aproximação de Euler, veja [Kloeden & Platen, 95]. O objetivo foi comparar os resultados obtidos com os modelos contínuos com os resultados obtidos com os modelos discretos. Também se fez uma análise dos estimadores dos parâmetros dos modelos contínuos. Nesta análise foi utilizada a abordagem Clássica e a abordagem Bayesiana. Primeiramente se fez uma comparação das estimativas obtidas por estas duas abordagens e posteriormente uma análise do comportamento assintótico desses estimadores.

Ano

2002

Creators

Ulisses Umbelino dos Anjos

Abordagens para otimização integrada dos problemas de geração e seqüenciamento de padrões de corte

O problema de corte de estoque consiste em cortar unidades maiores (objetos) em unidades menores (itens) de maneira a satisfazer uma demanda e otimizar algum critério, por exemplo, minimizar a perda gerada pelos padrões de corte (um padrão descreve como arranjar itens dentro de um objeto). O problema dc sequenciamento de padrões de corte consiste em determinar uma sequência, na qual os padrões serão processados a fim de otimizar algum critério, por exemplo, minimizar o número máximo de pilhas abertas (itens que ainda serão cortados de um ou mais padrões na sequência) durante o corte dos padrões. Em alguns processos industriais os problemas de geração e sequenciamento de padrões de corte não podem ser resolvidos de forma independente pois, em geral, uma boa solução para o problema de corte (isto é, com pequena perda de material) não corresponde a uma boa solução para o problema de sequenciamento (isto é, com um pequeno número de pilhas abertas) e vice-versa. Existe, na verdade, um trade-off entre os objetivos desses dois problemas. Neste trabalho três abordagens heurísticas são apresentadas para resolver de forma integrada os problemas de geração e sequenciamento de padrões. Os resultados computacionais apresentados mostram que as abordagens geram boas soluções e são eficazes para analisar o trade-off entre esses dois problemas.

Ano

2002

Creators

Gisele Castro Fontanella Pileggi

Indexação e recuperação de informações utilizando redes neurais da família ART

Os Sistemas de Gerenciamento de Banco de Dados (SGBDs) existentes são muito sofisticados, eficientes e rápidos na recuperação de informações envolvendo dados de tipos tradicionais, tais como números, texto, etc., mas existem muitas limitações em se tratando de recuperar informações quando os tipos de dados são mais complexos, isto é, dados multi-dimensionais. Considerando os problemas existentes com a indexação e recuperação de dados multi-dimensionais, este trabalho propõe um sistema híbrido que combina um modelo de Redes Neurais da família ART, ART2-A, com uma estrutura de dados, Slim-Tree, que é um método de acesso a dados no espaço métrico. Esta proposta é uma alternativa para realizar o processo de agrupamento de dados de forma \"inteligente\" tal que os dados pertencentes aos agrupamentos (clusters) possam ser recuperados a partir da Slim-Tree correspondente. O sistema híbrido proposto é capaz de realizar consultas do tipo: busca por abrangência e dos k-vizinhos mais próximos, o que não é característica comum das redes neurais artificiais. Além disto, os experimentos realizados mostram que o desempenho do sistema foi igual ou superior ao desempenho obtido pela Slim-Tree.

Ano

2002

Creators

José Flavio Vicentini

Caracterização de classes e detecção de outliers em redes complexa

As redes complexas surgiram como uma nova e importante maneira de representação e abstração de dados capaz de capturar as relações espaciais, topológicas, funcionais, entre outras características presentes em muitas bases de dados. Dentre as várias abordagens para a análise de dados, destacam-se a classificação e a detecção de outliers. A classificação de dados permite atribuir uma classe aos dados, baseada nas características de seus atributos e a detecção de outliers busca por dados cujas características se diferem dos demais. Métodos de classificação de dados e de detecção de outliers baseados em redes complexas ainda são pouco estudados. Tendo em vista os benefícios proporcionados pelo uso de redes complexas na representação de dados, o presente trabalho apresenta o desenvolvimento de um método baseado em redes complexas para detecção de outliers que utiliza a caminhada aleatória e um índice de dissimilaridade. Este método possibilita a identificação de diferentes tipos de outliers usando a mesma medida. Dependendo da estrutura da rede, os vértices outliers podem ser tanto aqueles distantes do centro como os centrais, podem ser hubs ou vértices com poucas ligações. De um modo geral, a medida proposta é uma boa estimadora de vértices outliers em uma rede, identificando, de maneira adequada, vértices com uma estrutura diferenciada ou com uma função especial na rede. Foi proposta também uma técnica de construção de redes capaz de representar relações de similaridade entre classes de dados, baseada em uma função de energia que considera medidas de pureza e extensão da rede. Esta rede construída foi utilizada para caracterizar mistura entre classes de dados. A caracterização de classes é uma questão importante na classificação de dados, porém ainda é pouco explorada. Considera-se que o trabalho desenvolvido é uma das primeiras tentativas nesta direção

Um estudo comparativo das especificações de segurança aplicadas a uma arquitetura orientada a serviços

Neste projeto é proposta uma avaliação e comparação de diretrizes e a adequação de técnicas que permitam não somente a criação de Web services seguros, mas também a validação dos serviços utilizados para determinar se a aplicação possui as características almejadas relacionadas ao desempenho e à segurança. Neste sentido, é primordial analisar as principais especificações de segurança empregadas em Web services no contexto atual, bem como avaliar os algoritmos criptográficos e o comprimento das chaves utilizadas. Os resultados obtidos permitem determinar, com base nos objetivos especificados, qual o impacto dos mecanismos de segurança utilizados no desempenho da aplicação

Ano

2011

Creators

Douglas Rodrigues

Resolução de correferência em múltiplos documentos utilizando aprendizado não supervisionado

Um dos problemas encontrados em sistemas de Processamento de Línguas Naturais (PLN) é a dificuldade de se identificar que elementos textuais referem-se à mesma entidade. Esse fenômeno, no qual o conjunto de elementos textuais remete a uma mesma entidade, é denominado de correferência. Sistemas de resolução de correferência podem melhorar o desempenho de diversas aplicações do PLN, como: sumarização, extração de informação, sistemas de perguntas e respostas. Recentemente, pesquisas em PLN têm explorado a possibilidade de identificar os elementos correferentes em múltiplos documentos. Neste contexto, este trabalho tem como foco o desenvolvimento de um método aprendizado não supervisionado para resolução de correferência em múltiplos documentos, utilizando como língua-alvo o português. Não se conhece, até o momento, nenhum sistema com essa finalidade para o português. Os resultados dos experimentos feitos com o sistema sugerem que o método desenvolvido é superior a métodos baseados em concordância de cadeias de caracteres

Ano

2011

Creators

Jefferson Fontinele da Silva

Seleção de características por meio de algoritmos genéticos para aprimoramento de rankings e de modelos de classificação

Sistemas de recuperação de imagens por conteúdo (Content-based image retrieval { CBIR) e de classificação dependem fortemente de vetores de características que são extraídos das imagens considerando critérios visuais específicos. É comum que o tamanho dos vetores de características seja da ordem de centenas de elementos. Conforme se aumenta o tamanho (dimensionalidade) do vetor de características, também se aumentam os graus de irrelevâncias e redundâncias, levando ao problema da \"maldição da dimensionalidade\". Desse modo, a seleção das características relevantes é um passo primordial para o bom funcionamento de sistemas CBIR e de classificação. Nesta tese são apresentados novos métodos de seleção de características baseados em algoritmos genéticos (do inglês genetic algorithms - GA), visando o aprimoramento de consultas por similaridade e modelos de classificação. A família Fc (\"Fitness coach\") de funções de avaliação proposta vale-se de funções de avaliação de ranking, para desenvolver uma nova abordagem de seleção de características baseada em GA que visa aprimorar a acurácia de sistemas CBIR. A habilidade de busca de GA considerando os critérios de avaliação propostos (família Fc) trouxe uma melhora de precisão de consultas por similaridade de até 22% quando comparado com métodos wrapper tradicionais para seleção de características baseados em decision-trees (C4.5), naive bayes, support vector machine, 1-nearest neighbor e mineração de regras de associação. Outras contribuições desta tese são dois métodos de seleção de características baseados em filtragem, com aplicações em classificação de imagens, que utilizam o cálculo supervisionado da estatística de silhueta simplificada como função de avaliação: o silhouette-based greedy search (SiGS) e o silhouette-based genetic algorithm search (SiGAS). Os métodos propostos superaram os métodos concorrentes na literatura (CFS, FCBF, ReliefF, entre outros). É importante também ressaltar que o ganho em acurácia obtido pela família Fc, e pelos métodos SiGS e SiGAS propostos proporcionam também um decréscimo significativo no tamanho do vetor de características, de até 90%

Ano

2011

Creators

Sérgio Francisco da Silva