RCAAP Repository

"Extração de conhecimento de redes neurais artificiais utilizando sistemas de aprendizado simbólico e algoritmos genéticos"

Em Aprendizado de Máquina - AM não existe um único algoritmo que é sempre melhor para todos os domínios de aplicação. Na prática, diversas pesquisas mostram que Redes Neurais Artificiais - RNAs têm um 'bias' indutivo apropriado para diversos domínios. Em razão disso, RNAs têm sido aplicadas na resolução de vários problemas com desempenho satisfatório. Sistemas de AM simbólico possuem um 'bias' indutivo menos flexível do que as RNAs. Enquanto que as RNAs são capazes de aprender qualquer função, sistemas de AM simbólico geralmente aprendem conceitos que podem ser descritos na forma de hiperplanos. Por outro lado, sistemas de AM simbólico representam o conceito induzido por meio de estruturas simbólicas, as quais são geralmente compreensíveis pelos seres humanos. Assim, sistemas de AM simbólico são preferíveis quando é essencial a compreensibilidade do conceito induzido. RNAs carecem da capacidade de explicar suas decisões, uma vez que o conhecimento é codificado na forma de valores de seus pesos e 'thresholds'. Essa codificação é difícil de ser interpretada por seres humanos. Em diversos domínios de aplicação, tal como aprovação de crédito e diagnóstico médico, prover uma explicação sobre a classificação dada a um determinado caso é de crucial importância. De um modo similar, diversos usuários de sistemas de AM simbólico desejam validar o conhecimento induzido, com o objetivo de assegurar que a generalização feita pelo algoritmo é correta. Para que RNAs sejam aplicadas em um maior número de domínios, diversos pesquisadores têm proposto métodos para extrair conhecimento compreensível de RNAs. As principais contribuições desta tese são dois métodos que extraem conhecimento simbólico de RNAs. Os métodos propostos possuem diversas vantagens sobre outros métodos propostos previamente, tal como ser aplicáveis a qualquer arquitetura ou algoritmo de aprendizado de RNAs supervisionadas. O primeiro método proposto utiliza sistemas de AM simbólico para extrair conhecimento de RNAs, e o segundo método proposto estende o primeiro, combinado o conhecimento induzido por diversos sistemas de AM simbólico por meio de um Algoritmo Genético - AG. Os métodos propostos são analisados experimentalmente em diversos domínios de aplicação. Ambos os métodos são capazes de extrair conhecimento simbólico com alta fidelidade em relação à RNA treinada. Os métodos propostos são comparados com o método TREPAN, apresentando resultados promissores. TREPAN é um método bastante conhecido para extrair conhecimento de RNAs.

Year

2003

Creators

Claudia Regina Milaré

Identificação de covers a partir de grandes bases de dados de músicas

Acrescente capacidade de armazenamento introduziu novos desafios no contexto de exploração de grandes bases de dados de músicas. Esse trabalho consiste em investigar técnicas de comparação de músicas representadas por sinais polifônicos, com o objetivo de encontrar similaridades, permitindo a identificação de músicas cover em grandes bases de dados. Técnicas de extração de características a partir de sinais musicais foram estudas, como também métricas de comparação a partir das características obtidas. Os resultados mostraram que é possível encontrar um novo método de identificação de covers com um menor custo computacional do que os existentes, mantendo uma boa precisão

Year

2014

Creators

Martha Dais Ferreira

Extração automática de termos simples baseada em aprendizado de máquina

A Mineração de Textos (MT) visa descobrir conhecimento inovador nos textos não estruturados. A extração dos termos que representam os textos de um domínio é um dos passos mais importantes da MT, uma vez que os resultados de todo o processo da MT dependerão, em grande parte, da qualidade dos termos obtidos. Nesta tese, considera-se como termos as unidades lexicais realizadas para designar conceitos em um cenário tematicamente restrito. Para a extração dos termos, pode-se fazer uso de abordagens como: estatística, linguística ou híbrida. Normalmente, para a Mineração de Textos, são utilizados métodos estatísticos. A aplicação desses métodos é computacionalmente menos custosa que a dos métodos linguísticos, entretanto seus resultados são geralmente menos interpretáveis. Ambos métodos, muitas vezes, não são capazes de identificar diferenças entre termos e não-termos, por exemplo, os estatísticos podem não identificar termos raros ou que têm a mesma frequência de não-termos e os linguísticos podem não distinguir entre termos que seguem os mesmo padrões linguísticos dos não-termos. Uma solução para esse problema é utilizar métodos híbridos, de forma a combinar as estratégias dos métodos linguísticos e estatísticos, visando atenuar os problemas inerentes a cada um deles. Considerando as características dos métodos de extração de termos, nesta tese, foram investigados métodos estatísticos, formas de obtenção de conhecimento linguístico e métodos híbridos para a extração de termos simples - aqueles constituídos de somente um radical, com ou sem afixos - na língua portuguesa do Brasil. Quatro medidas estatísticas (tvq, tv, tc e comGram), originalmente utilizadas em outras tarefas, foram avaliadas na extração de termos simples, sendo que duas delas (tvq e tv) foram consideradas relevantes para essa tarefa. Quatro novas medidas híbridas (n_subst., n_adj., n_po e n_verbo) foram propostas, sendo que três delas (n_subst,. n_adj., e n_po) auxiliaram na extração de termos. Normalmente os métodos de extração de termos selecionam candidatos a termos com base em algum conhecimento linguístico. Depois disso, eles aplicam a esses candidatos medidas ou combinação de medidas (e/ou heurísticas) para gerar um ranking com tais candidatos. Quanto mais ao topo desse ranking os candidatos estão, maior a chance de que eles sejam termos. A escolha do liminar a ser considerado nesse ranking é feita, em geral de forma manual ou semiautomática por especialistas do domínio e/ou terminólogos. Automatizar a forma de escolha dos candidatos a termos é a primeira motivação da extração de termos realizada nesta pesquisa. A segunda motivação desta pesquisa é minimizar o elevado número de candidatos a termos presente na extração de termos. Esse alto número, causado pela grande quantidade de palavras contidas em um corpus, pode aumentar a complexidade de tempo e os recursos computacionais utilizados para se extrair os termos. A terceira motivação considerada nesta pesquisa é melhorar o estado da arte da extração automática de termos simples da língua portuguesa do Brasil, uma vez que os resultados dessa extração (medida F = 16%) ainda são inferiores se comparados com a extração de termos em línguas como a inglesa (medida F = 92%) e a espanhola (medida F = 68%). Considerando essas motivações, nesta tese, foi proposto o método MATE-ML (Automatic Term Extraction based on Machine Learning) que visa extrair automaticamente termos utilizando técnicas da área de aprendizado de máquina. No método MATE-ML, é sugerido o uso de filtros para reduzir o elevado número de candidatos a termos durante a extração de termos sem prejudicar a representação do domínio em questão. Com isso, acredita-se que os extratores de termos podem gerar listas menores de candidatos extraídos, demandando, assim , menos tempo dos especialistas para avaliar esses candidatos. Ainda, o método MATE-ML foi instanciado em duas abordagens: (i) ILATE (Inductive Learning for Automatic Term Extraction), que utiliza a classificação supervisionada indutiva para rotular os candidatos a termos em termos e não termos, e (ii) TLATE (Transductive Learning for Automatic Term Extraction), que faz uso da classificação semissupervisionada transdutiva para propagar os rótulos dos candidatos rotulados para os não rotulados. A aplicação do aprendizado transdutivo na extração de termos e a aplicação ao mesmo tempo de um conjunto rico de características de candidatos pertencentes a diferentes níveis de conhecimento - linguístico, estatístico e híbrido também são consideradas contribuições desta tese. Nesta tese, são discutidas as vantagens e limitações dessas duas abordagens propostas, ILATE e TLATE. Ressalta-se que o uso dessas abordagens alcança geralmente resultados mais altos de precisão (os melhores casos alcançam mais de 81%), altos resultados de cobertura (os melhores casos atingem mai de 87%) e bons valores de medida F (máximo de 41%) em relação aos métodos e medidas comparados nas avaliações experimentais realizadas considerando três corpora de diferentes domínios na língua portuguesa do Brasil

Year

2014

Creators

Merley da Silva Conrado Laguna

Activity recognition and bioinspired approaches for robotics in intelligent environments

Home automation projects have been developed for some time, having evolved into the socalled smart environments. These environments are characterised by the presence of sets of sensors and actuators, connected in order to respond appropriately and proactively to different situations. The integration of intelligent environments with robots allows for the introduction of additional sensing capabilities, besides performing tasks with greater flexibility and less mechanical complexity than traditional monolithic robots. To endow such environments with truly autonomous behaviours, algorithms must extract semantically meaningful information from whichever sensor data is available. Human activity recognition is one of the most active fields of research within this context. In this project, the design and evaluations of learning techniques for human activity recognition was addressed, considering different sensor modalities. Two types of neural networks, based on combinations of Convolutional Neural Networks to Recurrent Networks with Long Short-Term Memory or Temporal Convolutional Networks, were proposed and evaluated on two public datasets for multimodal activity recognition from videos and inertial sensors. The resulting framework was then introduced to a new dataset, the HWU-USP activities dataset, collected as part of this work, in an actual environment endowed with videos, inertial units, and ambient sensors. This design allowed for assessing the influence of ambient sensors, synchronised to the inertial and video data, to the accuracy of the results, which has proven to be a promising approach. Also, the new dataset provided complex activities with long-term dependencies, evaluated through segment-wise classifiers simulating the results for real-time applications. In a second moment, works were developed on neurophysiological data from primates induced to Parkinsons disease. Those studies ranged from data analysis and classification, using neural networks, to the construction of a computational model of the affected structures within the brain. Although different from the studies on activity recognition and assistive technologies, which were the focus of this thesis, these works were related in the nature of the techniques used, and their results were part of the application scenario developed next. Finally, an application scenario was designed and implemented as a robot simulation, so that the developed module could be evaluated in practical situations. For the behaviour selection mechanism, a bioinspired approach based on computational models of the basal ganglia-thalamus-cortex circuit was evaluated and compared to non-bioinspired approaches based on simple heuristics.

Year

2021

Creators

Caetano Mazzoni Ranieri

Reconfigurabilidade dinâmica e remota de FPGAs.

Neste trabalho estudou-se diversas arquiteturas de dispositivos FPGAs presentes no mercado, visando a utilização desta tecnologia em arquiteturas de computação reconfigurável. Especificamente foram investigados recursos e técnicas de reconfigurabilidade dinâmica destes dispositivos. A possibilidade de reconfigurar dinamicamente o hardware cria diversas expectativas de superação das arquiteturas de computação tradicional. Surge o conceito de hardware virtual, assim como inúmeras dificuldades em utilizar efetivamente esta tecnologia. Outra característica promissora que a tecnologia FPGA oferece é a possibilidade de realizar upgrades remotos do hardware, sem a necessidade de substituição física de equipamentos ou parte deles. Em adicional, foi implementado um sistema multi-FPGAs com dispositivos reconfiguráveis individualmente de forma local ou remota. Este sistema poderá ser a base para uma arquitetura de computação reconfigurável, sendo ela dinâmica ou não.

Year

2002

Creators

Alexandre Alves de Lima Ribeiro

Técnicas de reconfigurabilidade dos FPGAs da família APEX 20K - Altera.

Os dispositivos lógicos programáveis pertencentes à família APEX 20K, são configurados no momento da inicialização do sistema com dados armazenados em dispositivos especificamente desenvolvidos para esse fim. Esta família de FPGAs possui uma interface otimizada, permitindo também que microprocessadores os configure de maneira serial ou paralela, síncrona ou assíncronamente. Depois de configurados, estes FPGAs podem ser reconfigurados em tempo real com novos dados de configuração. A reconfiguração em tempo real conduz a inovadoras aplicações de computação reconfigurável. Os dispositivos de configuração disponíveis comercialmente, limitam-se a configurar os FPGAs apenas no momento da inicialização do sistema e sempre com o mesmo arquivo de configuração. Este trabalho apresenta a implementação de um controlador de configuração capaz de gerenciar a configuração e reconfiguração de múltiplos FPGAs, a partir de vários arquivos distintos de configuração. Todo o projeto é desenvolvido, testado e validado através da ferramenta EDA Quartus™ II, que propicia um ambiente de desenvolvimento integrado de projeto, compilação e síntese lógica, simulação e análise de tempo.

Year

2002

Creators

Marco Antonio Teixeira

"Funções e polinômios univalentes: algumas propriedades e aplicações"

O objetivo principal deste trabalho é o estudo das funções univalentes e de suas propriedades. Este estudo é direcionado principalmente aos polinômios univalentes e à investigação de prolemas extremos envolvendo seus coeficientes, seus zeros e suas propriedades geométricas. Encontramos uma relação interessante entre os polinômios univalentes e os polinômios univalentes definida por Suffridge. Geramos várias funções univalentes estreladas e convexas através de suas propriedades geométricas e da localização de seus zeros.

Year

2006

Creators

Vanessa Bertoni

Consultas por similaridade no modelo relacional

Os Sistemas de Gerenciamento de Bases de Dados Relacionais (SGBDR) foram concebidos para o armazenamento e recuperação de grandes volumes de dados. Tradicionalmente, estes sistemas suportam números, pequenas cadeias de caracteres e datas (que podem ser comparados por identidade ou por relações de ordem { RO), porém vem se tornando necessário organizar, armazenar e recuperar dados mais complexos, como por exemplo dados multimídia (imagens, áudio e vídeo), séries temporais etc. Quando se trata de dados complexos há uma mudança de paradigma, pois as comparações entre elementos são feitas por similaridade em vez das RO utilizadas tradicionalmente, tendo como mais frequentemente utilizados os operadores de comparação por abrangência (Rq) e por k-vizinhos mais próximos (k-NN). Embora muitos estudos estejam sendo feitos nessa área, quando lidando com consultas por similaridade grande parte do esforço é direcionado para criar as estruturas de indexação e dar suporte às operações necessárias para executar apenas o aspecto da consulta que trata da similaridade, sem focar em realizar uma integração homogênea das consultas que envolvam ambos os tipos de operadores simultaneamente nos ambientes dos SGDBRs. Um dos principais problemas nessa integração é lidar com as peculiaridades do operador de busca por k-NN. Todos os operadores de comparação por identidade e por RO são comutativos e associativos entre si. No entanto o operador de busca por k-NN não atende a nenhuma dessas propriedades. Com isso, a expressão de consultas em SQL, que usualmente pode ser feita sem que a expressão da ordem entre os predicados seja importante, precisa passar a considerar a ordem. Além disso, consultas que utilizam comparações por k-NN podem gerar múltiplos empates, e a falta de uma metodologia para resolvê-los pode levar a um processo de desempate arbitrário ou insensível ao contexto da consulta, onde usuários não tem poder para intervir de maneira significativa. Em alguns casos, isso pode levar a uma mesma consulta a retornar resultados distintos em casos onde a estrutura interna dos dados estiver sujeita a modificações, como por exemplo em casos de transações concorrentes em um SGBDR. Este trabalho aborda os problemas gerados pela inserção de operadores de busca por similaridade nos SGBDR, mais especificamente o k-NN, e propõe novas maneiras de representação de consultas com múltiplos predicados, por similaridade ou RO, assim como novos operadores derivados do k-NN que são mais adequados para um ambiente relacional que permita consultas híbridas, e permitem também controle sobre o tratamento de empates.

Year

2015

Creators

Gabriel Vicente de Pierro

Visual analytics of topics in twitter in connection with political debates

Social media channels such as Twitter and Facebook often contribute to disseminate initiatives that seek to inform and empower citizens concerned with government actions. On the other hand, certain actions and statements by governmental institutions, or parliament members and political journalists that appear on the conventional media tend to reverberate on the social media. This scenario produces a lot of textual data that can reveal relevant information on governmental actions and policies. Nonetheless, the target audience still lacks appropriate tools capable of supporting the acquisition, correlation and interpretation of potentially useful information embedded in such text sources. In this scenario, this work presents two system for the analysis of government and social media data. One of the systems introduces a new visualization, based on the river metaphor, for the analysis of the temporal evolution of topics in Twitter in connection with political debates. For this purpose, the problem was initially modeled as a clustering problem and a domain-independent text segmentation method was adapted to associate (by clustering) Twitter content with parliamentary speeches. Moreover, a version of the MONIC framework for cluster transition detection was employed to track the temporal evolution of debates (or clusters) and to produce a set of time-stamped clusters. The other system, named ATR-Vis, combines visualization techniques with active retrieval strategies to involve the user in the retrieval of Twitters posts related to political debates and associate them to the specific debate they refer to. The framework proposed introduces four active retrieval strategies that make use of the Twitters structural information increasing retrieval accuracy while minimizing user involvement by keeping the number of labeling requests to a minimum. Evaluations through use cases and quantitative experiments, as well as qualitative analysis conducted with three domain experts, illustrates the effectiveness of ATR-Vis in the retrieval of relevant tweets. For the evaluation, two Twitter datasets were collected, related to parliamentary debates being held in Brazil and Canada, and a dataset comprising a set of top news stories that received great media attention at the time.

Year

2017

Creators

Eder José de Carvalho

Mining User Activity Data in Social Media Services

Social media services have a growing impact in our society. Individuals often rely on social media to get their news, decide which products to buy or to communicate with their friends. As consequence of the widespread adoption of social media, a large volume of data on how users behave is created every day and stored into large databases. Learning how to analyze and extract useful knowledge from this data has a number of potential applications. For instance, a deeper understanding on how legitimate users interact with social media services could be explored to design more accurate spam and fraud detection methods. This PhD research is based on the following hypothesis: data generated by social media users present patterns that can be exploited to improve the effectiveness of tasks such as prediction, forecasting and modeling in the domain of social media. To validate our hypothesis, we focus on designing data mining methods tailored to social media data. The main contributions of this PhD can be divided into three parts. First, we propose Act-M, a mathematical model that describes the timing of users actions. We also show that Act-M can be used to automatically detect bots among social media users based only on the timing (i.e. time-stamp) data. Our second contribution is VnC (Vote-and-Comment), a model that explains how the volume of different types of user interactions evolve over time when a piece of content is submitted to a social media service. In addition to accurately matching real data, VnC is useful, as it can be employed to forecast the number of interactions received by social media content. Finally, our third contribution is the MFS-Map method. MFS-Map automatically provides textual annotations to social media images by efficiently combining visual and metadata features. Our contributions were validated using real data from several social media services. Our experiments show that the Act-M and VnC models provided a more accurate fit to the data than existing models for communication dynamics and information diffusion, respectively. MFS-Map obtained both superior precision and faster speed when compared to other widely employed image annotation methods.

Year

2017

Creators

Alceu Ferraz Costa

TRIVIR: A Visualization System to Support Document Retrieval with High Recall

A high recall problem in document retrieval is described by scenarios in which one wants to ensure that, given one (or multiple) query document(s), (nearly) all relevant related documents are retrieved, with minimum human effort. The problem may be expressed as a document similarity search: a user picks an example document (or multiple ones), and an automatic system recovers similar ones from a collection. This problem is often handled with a so-called Continuous Active Learning strategy: given the initial query, which is a document described by a set of relevant terms, a learning method returns the most-likely relevant documents (e.g., the most similar) to the reviewer in batches, the reviewer labels each document as relevant/not relevant and this information is fed back into the learning algorithm, which uses it to refine its predictions. This iterative process goes on until some quality condition is satisfied, which might demand high human effort, since documents are displayed as ranked lists and need to be labeled individually, and impact negatively the convergence of the learning algorithm. Besides, the vocabulary mismatch issue, i.e., when distinct terminologies are employed to describe semantically related or equivalent concepts, can impair recall capability. We propose TRIVIR, a novel interactive visualization tool powered by an information retrieval (IR) engine that implements an active learning protocol to support IR with high recall. The system integrates multiple graphical views in order to assist the user identifying the relevant documents in a collection. Given representative documents as queries, users can interact with the views to label documents as relevant/not relevant, and this information is used to train a machine learning (ML) algorithm which suggests other potentially relevant documents. TRIVIR offers two major advantages over existing visualization systems for IR. First, it merges the ML algorithm output into the visualization, while supporting several user interactions in order to enhance and speed up its convergence. Second, it tackles the vocabulary mismatch problem, by providing terms synonyms and a view that conveys how the terms are used within the collection. Besides, TRIVIR has been developed as a flexible front-end interface that can be associated with distinct text representations and multidimensional projection techniques. We describe two use cases conducted with collaborators who are potential users of TRIVIR. Results show that the system simplified the search for relevant documents in large collections, based on the context in which the terms occur.

Year

2019

Creators

Amanda Gonçalves Dias

MaSTA: a text-based machine learning approach for systems-of-systems in the big data context

Systems-of-systems (SoS) have gained a very important status in industry and academia as an answer to the growing complexity of software-intensive systems. SoS are particular in the sense that their capabilities transcend the mere sum of the capacities of their diverse independent constituents. In parallel, the current growth in the amount of data collected in different formats is impressive and imposes a considerable challenge for researchers and professionals, characterizing hence the Big Data context. In this scenario, Machine Learning techniques have been increasingly explored to analyze and extract relevant knowledge from such data. SoS have also generated a large amount of data and text information and, in many situations, users of SoS need to manually register unstructured, critical texts, e.g., work orders and service requests, and also need to map them to structured information. Besides that, these are repetitive, time-/effort-consuming, and even error-prone tasks. The main objective of this Thesis is to present MaSTA, an approach composed of an innovative classification method to infer classifiers from large textual collections and an evaluation method that measures the reliability and performance levels of such classifiers. To evaluate the effectiveness of MaSTA, we conducted an experiment with a commercial SoS used by large companies that provided us four datasets containing near one million records related with three classification tasks. As a result, this experiment indicated that MaSTA is capable of automatically classifying the documents and also improve the user assertiveness by reducing the list of possible classifications. Moreover, this experiment indicated that MaSTA is a scalable solution for the Big Data scenarios in which document collections have hundreds of thousands (even millions) of documents, even produced by different constituents of an SoS.

Year

2019

Creators

Thiago Bianchi

Modelagem matemática de baterias redox de vanádio

A modelagem matemática por meio de equações diferenciais é uma importante ferramenta para prever o comportamento de baterias redox de vanádio, pois ela pode contribuir para o aperfeiçoamento do produto e melhor entendimento dos princípios da sua operação. Os estudos de modelagem podem ser aliados à análise assintótica no intuito de promover reduções ou simplificações que tornem os modelos menos complexos, isso é feito a partir da observação da importância que cada termo exerce sobre as equações. Tais simplificações são úteis neste contexto, visto que os modelos geralmente abordam uma célula apenas - a menor unidade operacional da bateria - enquanto aplicações reais exigem o uso de dezenas ou centenas delas implicando em uma maximização do uso de recursos computacionais. Neste trabalho, foram investigadas múltiplas formas de reduções assintóticas que empregadas na construção dos modelos puderam acelerar o tempo de processamento em até 2,46 vezes ou reduzir os requisitos de memória principal em até 11,39%. As simulações computacionais foram executadas pelo software COMSOL Multiphysics v. 4.4, e também por scripts desenvolvidos em ambiente de programação MATLAB. A validação dos resultados foi feita comparando-os a dados experimentais presentes na literatura. Tal abordagem permitiu também validar as rotinas implementadas para a simulação dos modelos comparando suas soluções com aquelas providas pelo COMSOL.

Year

2015

Creators

Milton de Oliveira Assunção Junior

Implementação de mecanismos tolerantes a falhas em uma arquitetura SOA com Qos

Esta dissertação de mestrado tem como objetivo avaliar a integração de políticas de tolerância a falhas em uma arquitetura de Web Services com múltiplos módulos. A arquitetura utilizada é denominada WSARCH, e foi desenvolvida para o estudo das relações e interoperabilidade entre serviçcos. Os mecanismos de tolerência a falhas foram integrados aos módulos da arquitetura, testados, comparados e avaliados. A avaliação de desempenho mostrou que os mecanismos de tolerância a falhas introduzidos foram eficientes e apresentaram resultados adequados. As técnicas de reputação utilizadas na seleção de serviço atuaram satisfatoriamente e foram consideradas um importante avanço nos mecanismos da arquitetura

Year

2013

Creators

Edvard Martins de Oliveira

Técnica híbrida de visualização para exploração de dados volumétricos não estruturados

Este trabalho apresenta uma nova técnica de visualização que aproveita as vantagens do rendering volumétrico direto e do rendering de superfícies em um ambiente híbrido. O método faz uso de uma pré-visualização sobre o bordo do volume que viabiliza uma interação em tempo real com objetos volumétricos modelados por meio de malhas não estruturadas. Além disso, essa nova abordagem de visualização é paralelizável e pode se acelerada com placas gráficas comuns.

Year

2003

Creators

Patricia Shirley Herrera Cateriano

Método de diferenças finitas generalizadas por mínimos quadrados

Neste trabalho é apresentado o Método de Diferenças Finitas Geralizadas (MDFG), como uma alternativa de método meshless para solucionar equações diferenciais parciais. Este método está baseado na aproximação local por mínimos quadrados a partir de nós espalhados sobre o domínio. E proposto um critério de seleção dos nós utilizados na aproximação, garantindo que o erro de truncamento gerado pelo MDFG é baixo. Demonstra-se teoricamente a convergência do método em certos problemas elípticos e parabólicos, e alguns exemplos são apresentados para comprovar este fato. A aplicação do método na solução de EDP em domínios de alta complexidade é mostrada num exemplo de escoamento de fluido numa artéria.

Year

2003

Creators

Daniel Ricardo Izquierdo Peña

Visualização como suporte à exploração de uma base de dados pluviométricos

A atual evolução tecnológica permite gerar, coletar e armazenar uma enorme quantidade de dados, resultando em um grande acúmulo de informações. Isto possibilita vislumbrar a extração de conhecimento útil por meio de um processo próprio denominado Descoberta de Conhecimento em Bases de Dados e, como passo deste, mineração de dados. Técnicas de Visualização podem ser utilizadas neste contexto, fornecendo representações visuais e mecanismos de interação que exploram características próprias do ser humano para apoiar este processo. Da união destes dois aspectos, mineração de dados e Visualização, surge um novo tema de estudo que vem recebendo destaque no meio académico: Mineração Visual de Dados. Dependendo do domínio em que esta é aplicada, diversas particularidades sobressaem. Dados de domínio geográfico apresentam características espaciais e temporais que tornam a descoberta de conhecimento difícil de ser realizada e lhe conferem propriedades únicas diante dos demais domínios. O presente trabalho aborda o uso de técnicas de Visualização em atividades de exploração e análise de dados com atributos espaciais e temporais, enfatizando as técnicas de interação inerentes à Visualização. O trabalho tem enfoque na aplicação de técnicas de visualização e interação para promover o tratamento dos dados contidos numa volumosa base de dados pluviométricos.

Year

2003

Creators

Vinicius Marques Alves Branco

Reconhecimento de padrões multi-valorados por redes neurais caóticas

Nas últimos décadas, estudos em neurobiologia evidenciam a existência de comportamentos caóticos no cérebro humano e animal, tanto a nível microscópico (neurônio) quanto a nível macroscópico (atividade global de cérebro). Essas evidencias motivam a exploração de sistemas caóticos em redes neurais artificiais. Diante deste contexto, o presente trabalho tem como objetivo estudar as redes neurais caóticas existentes e desenvolver novas redes neurais caóticas para reconhecimento de padrões multi-valorados. Dois novos modelos são propostos, cujos funcionamentos são divididos em duas fases: fase de armazenamento e fase de reconhecimento. Na primeira fase, um conjunto de padrões é armazenado em pontos fixos pelo algoritmo de aprendizado de matriz pseudo-inversa. Na segunda fase, a dinâmica periódica e caótica que existem em mapas caóticos são utilizadas. Em ambos modelos propostos, a órbita periódica representa um padrão recuperado, enquanto a órbita caótica oferece um mecanismo de busca eficiente. Uma das vantagens dos modelos propostos em relação às redes neurais caóticas existentes é que os primeiros não só podem reconhecer padrões binários, mas também podem reconhecer padrões multi-valorados, o que é uma característica importante em aplicações práticas.

Year

2003

Creators

Juan Carlos Gutierrez Caceres

Simulação numérica de escoamentos com superfícies livres e obstáculos em movimento

Um problema relevante na modelagem de escoamentos com movimento de corpo rígido consiste na consideração de forças externas bem como forças que o fluido exerce sobre o próprio corpo rígido. Um outro problema importante refere-se à descrição da trajetória dos corpos rígidos. Essas duas questões são o objeto de estudo deste trabalho. No sentido de solucioná-las, foram implementadas duas extensões ao modelador de movimentos do sistema Freeflow-3D. A primeira incorpora um tipo de movimento definido por forças externas e a segunda um tipo de movimento definido por interpolação linear por partes.

Year

2003

Creators

Hévilla Nobre Cezar

Uso de data warehousing e data mining na busca de relações e conhecimento em um ambiente de comércio eletrônico

O presente trabalho explora a integração dos processos de data warehousing e data mining em um sistema de comércio eletrônico multi-agente (especificamente o projeto DEEPSIA - Dynamic on-linE IntErnet Purchasing System based on Intelligent Agents) através da implementação de um protótipo que interliga diferentes fontes de dados procedentes dos distintos subsistemas presentes no projeto. Como resultado deste trabalho, é apresentado um protótipo para a análise da navegação dos usuários utilizando a exploração de regras de associação e análise de conglomerados (clustering).

Year

2003

Creators

Jorge Anthony Félix Herrera