Repositório RCAAP

UTILIZAÇÃO DE DISCO ÓTICO (WORM) COMO MEDIDA SEGURANÇA DE ARQUIVOS EM REDES LOCAIS DE COMPUTADORES

Esta dissertação apresenta um sistema auxiliar de arquivos baseado em disco WORM, desenvolvido com o propósito de proporcionar aos servidores de arquivos de um ambiente computacional distribuído, procedimentos para transferência de arquivos originalmente armazenados em disco magnético, para disco WORM. O mecanismo proposto é transparente ao usuário e tem como objetivos aumentar tanto a segurança quanto a disponibilidade de espaço no servidor de arquivos. Estes objetivos são atingidos através da replicação de arquivos importantes e da transferência de arquivos de baixa probabilidade de acesso. Considerando-se os aspectos de segurança e de disponibilidade de espaço, três tipos de arquivos para gravação em WORM são propostos: crítico (quando o usuário necessita da disponibilidade do arquivo mesmo em presença de falhas), normal (qualquer arquivo regular do sistema) e morto (alguns arquivos eliminados do sistema). O sistema auxiliar de arquivos WORM foi implementado utilizando-se recursos da linguagem de programação C e do sistema operacional MINIX, simulando- se o disco ótico WORM através de disquete.

Ano

1993

Creators

Luiz Antonio Framartino Bezerra

Interactive keyterm-based document clustering and visualization via neural language models

Interactive data clustering techniques put the user in the clustering algorithm loop, allowing not only better clustering quality, but also supporting the knowledge discovery task in large textual corpora. The keyterm guided approach is arguably intuitive, allowing the user to interact with representative words instead of interacting with a large volume of full-length documents or complex topic models. More than making the clustering algorithm adjustable with little user-effort, the visual interactive clustering approach allows the user to focus on exploring the corpus as an incremental task. After each interaction, the user can obtain new information about the corpus, and expresses it as feedback to the clustering algorithm. The visual analytics system Vis-Kt presents itself as an interactive keyterm-based document clustering system, embedded with techniques that overcome the state-of-the-art ones, such as Latent Dirichlet Allocation and the Non-negative Matrix Factorization. With a user-guided approach, Vis-Kt allows the user to draw her insights into the corpus by describing document clusters with a small set of significative terms. However, Vis-Kt and its underlying clustering algorithms depend on the Bag-of-Words model, which has several limitations concerning the information extractions scalability, the process incrementality, and the datas semantic representation. In order to overcome the limitations inherent to the Bag-of-Words model, we propose an update for the keyterm-based representation model to a machine learning approach based on neural language models. Such a model can extract semantic information and relationships from the words that are included in the corpus. This projects main contribution is a novel interactive document clustering algorithm guided by keyterms and based on neural language models. This approach shows a significant improvement compared to the baseline algorithms, considered state-of-the-art. The proposed clustering algorithm allows Vis-Kt to work incrementally, without the need to repeat the entire learning and clustering processes from the beginning. This makes the system suitable for analyzing text streams. In order to contribute to the task of knowledge discovery and to support its incremental aspect, a visual component based on the Sankey diagram was developed to depict the clustering membership changes throughout the clustering loop after each interaction with the corpus. A set of quantitative experiments on publicly available text datasets was performed to evaluate the obtained clustering results. The results reported in this work show that, in most of the experimented cases, the proposed algorithm presents a significant improvement in clustering quality measures in comparison with the baseline algorithms. In all cases, the proposed algorithm showed a gain in processing time, especially in the largest datasets. We also report two usage scenarios to qualitatively evaluate the proposed visual component.

Ano

2020

Creators

Eric Macedo Cabral

A Two-Stage Particle Competition Model for Unbalanced Community Detection in Complex Networks

The usage of Complex Networks has proved to be an excellent tool in reveling prevalent information from complex systems due to its ability to describe spatial, functional, and topological relations among the data. One inherent characteristic of Complex Networks, which is an excellent source of information, is its community structurecommonly defined as a set of nodes more densely connected than to other nodes of the networks. In order to extract this information, many techniques have been proposed. One interesting technique is the Particle Competition method, which is a bio-inspired approach in which a set of particles are inserted into the network and must compete with themselves to capture as many nodes as possible. Competition, here represented as a stochastic dynamic system that controls the particles, is a behavior widely encountered in nature when there is a shortage of resources, such as water, food, or matesthe nodes of the graph are the limited resources each particle must conquer. However, unbalanced communities commonly appear in real complex networks. Although many community detection techniques have been developed, and some of them possess a certain degree of tolerance to unbalance, there is still lacking an explicit and efficient mechanism to treat this problem. In this document, we proposed a Two-Stage Particle Competition model to detect unbalanced communities. At the first stage, named Competition, the particles compete with themselves to occupy as many nodes as possible. At the second stage, a diffusion-like regularization mechanism is introduced to determine the dominance level of each particle at a neighborhood of each node. The two stages work alternatively until the regularization process converges. In the original Particle Competition model, all particles have the same behavior; therefore, there is no way to correctly occupy the communities with different sizes or structures by the particles. In the proposed model, the regularization mechanism makes each particle to have a different behavior according to the network structure. Consequently, communities with different sizes or structures can be correctly detected by the particles. Computer simulations show promising results of the proposed model. Moreover, the regularization mechanism improves both the accuracy and computational speed of the method as fewer iterations are required until convergence when compared to previous Particle Competition methods

Ano

2020

Creators

Luan Vinicius de Carvalho Martins

FÓRMULAS DE QUADRATURA DE CHEBYSHEV E DO TIPO CHEBYSHEV

O objetivo deste trabalho é estudar e apresentar funções pesos que admitem fórmulas de quadratura de Chebyshev e do tipo Chebyshev. Serão apresentados, além de algumas contribuições interessantes sobre esse assunto, métodos matemáticos existentes para a construção de fórmulas e a verificação da não existência das mesmas. Apresentamos, ainda, os estudos feitos sobre as fórmulas de quadratura do tipo Chebyshev, com w(x) = 1.

Ano

1992

Creators

Marisa Veiga Capela

ABORDAGENS INTERATIVAS PARA O PROBLEMA DE CORTES DE PEÇAS IRREGULARES BIDIMENSIONAIS

O problema de cortes irregulares consiste em determinar a melhor maneira de cortar placas retangulares para produzir peças irregulares. Cada peça deve ser produzida para atender a uma demanda pré-definida. A perda total de material deve ser minimizada. A estratégia de resolução consiste em agrupar peças irregulares em módulos retangulares e definir padrões de corte regulares. A partir de então, define-se um padrão de corte irregular. O modelo de geração de colunas de Gilmore e Gomory foi utilizado.

Ano

1992

Creators

Maxwell Adolpho Orlandi

UTILIZAÇÃO DA TRANSFORMADA KARHUMEM-LOEVE EM SÍNTESE DE TONS MUSICAIS

Sinais podem ser amostrados, armazenados e reproduzidos por computadores digitais. Adicionalmente, sinais podem ser analisados de modo que formas comportadas de sua representação possam ser extraídas, economizando o espaço de memória necessário para o armazenamento. A transformada de Fourier tem sido tradicionalmente utilizada para este fim. Este trabalho trata da utilização da transformada Karhunen-Loeve como método alternativo de representação de tons musicais, possibilitando grande economia de recursos computacionais comparada com a transformada de Fourier.

Ano

1992

Creators

João Fernando Marar

Sobre coleções e aspectos de centralidade em dados multidimensionais

A análise de dados multidimensionais tem sido por muitos anos tópico de contínua investigação e uma das razões se deve ao fato desse tipo de dados ser encontrado em diversas áreas da ciência. Uma tarefa comum ao se analisar esse tipo de dados é a investigação de padrões pela interação em projeções multidimensionais dos dados para o espaço visual. O entendimento da relação entre as características do conjunto de dados (dataset) e a técnica utilizada para se obter uma representação visual desse dataset é de fundamental importância uma vez que esse entendimento pode fornecer uma melhor intuição a respeito do que se esperar da projeção. Por isso motivado, no presente trabalho investiga-se alguns aspectos de centralidade dos dados em dois cenários distintos: coleções de documentos com grafos de coautoria; dados multidimensionais mais gerais. No primeiro cenário, o dado multidimensional que representa os documentos possui informações mais específicas, o que possibilita a combinação de diferentes aspectos para analisá-los de forma sumarizada, bem como a noção de centralidade e relevância dentro da coleção. Isso é levado em consideração para propor uma metáfora visual combinada que possibilite a exploração de toda a coleção, bem como de documentos individuais. No segundo cenário, de dados multidimensionais gerais, assume-se que tais informações não estão disponíveis. Ainda assim, utilizando um conceito de estatística não-paramétrica, deno- minado funções de profundidade de dados (data-depth functions), é feita a avaliação da ação de técnicas de projeção multidimensionais sobre os dados, possibilitando entender como suas medidas de profundidade (centralidade) foram alteradas ao longo do processo, definindo uma também medida de qualidade para projeções.

Ano

2016

Creators

Douglas Cedrim Oliveira

Detecção de anomalias utilizando métodos paramétricos e múltiplos classificadores

Anomalias ou outliers são exemplos ou grupo de exemplos que apresentam comportamento diferente do esperado. Na prática,esses exemplos podem representar doenças em um indivíduo ou em uma população, além de outros eventos como fraudes em operações bancárias e falhas em sistemas. Diversas técnicas existentes buscam identificar essas anomalias, incluindo adaptações de métodos de classificação e métodos estatísticos. Os principais desafios são o desbalanceamento do número de exemplos em cada uma das classes e a definição do comportamento normal associada à formalização de um modelo para esse comportamento. Nesta dissertação propõe-se a utilização de um novo espaço para realizar a detecção,esse espaço é chamado espaço de parâmetros. Um espaço de parâmetros é criado utilizando parâmetros estimados a partir da concatenação(encadeamento) de dois exemplos. Apresenta-se,então,um novo framework para realizar a detecção de anomalias através da fusão de detectores que utilizam fechos convexos em múltiplos espaços de parâmetros para realizar a detecção. O método é considerado um framework pois é possível escolher quais os espaços de parâmetros que serão utilizados pelo método de acordo como comportamento da base de dados alvo. Nesse trabalho utilizou-se,para experimentos,dois conjuntos de parâmetros(média e desvio padrão; média, variância, obliquidade e curtose) e os resultados obtidos foram comparados com alguns métodos comumente utilizados para detecção de anomalias. Os resultados atingidos foram comparáveis ou melhores aos obtidos pelos demais métodos. Além disso, acredita-se que a utilização de espaços de parâmetros cria uma grande flexibilidade do método proposto, já que o usuário pode escolher um espaço de parâmetros que se adeque a sua aplicação. Tanto a flexibilidade quanto a extensibilidade disponibilizada pelo espaço de parâmetros, em conjunto como bom desempenho do método proposto nos experimentos realizados, tornam atrativa a utilização de espaços de parâmetros e, mais especificamente, dos métodos apresentados na solução de problemas de detecção de anomalias.

Ano

2014

Creators

Gabriel de Barros Paranhos da Costa

Modelos estocásticos com heterocedasticidade para séries temporais em finanças

Neste trabalho desenvolvemos um estudo sobre modelos auto-regressivos com heterocedasticidade (ARCH) e modelos auto-regressivos com erros ARCH (AR-ARCH). Apresentamos os procedimentos para a estimação dos modelos e para a seleção da ordem dos mesmos. As estimativas dos parâmetros dos modelos são obtidas utilizando duas técnicas distintas: a inferência Clássica e a inferência Bayesiana. Na abordagem de Máxima Verossimilhança obtivemos intervalos de confiança usando a técnica Bootstrap e, na abordagem Bayesiana, adotamos uma distribuição a priori informativa e uma distribuição a priori não-informativa, considerando uma reparametrização dos modelos para mapear o espaço dos parâmetros no espaço real. Este procedimento nos permite adotar distribuição a priori normal para os parâmetros transformados. As distribuições a posteriori são obtidas através dos métodos de simulação de Monte Carlo em Cadeias de Markov (MCMC). A metodologia é exemplificada considerando séries simuladas e séries do mercado financeiro brasileiro

Ano

2005

Creators

Sandra Cristina de Oliveira

Um sistema de comunicação para transmissão de dados a longa distância em aeronaves do Projeto ARARA

Veículos aéreos não tripulados (UAVs - Unmanned Aerial Vehicles) têm sido projetados para cumprir missões de reconhecimento e transporte. Podem ser controlados do solo ou operar de forma autônoma em missões pré-programadas. O projeto ARARA - Autonomous and Radiu-Assisted Reconnaissance Aircrafi (Aeronaves de Reconhecimento Assistidas por Rádio e Autônomas), está centrado no desenvolvimento de UAVs para aplicação em agricultura de precisão e monitoramento ecológico, entre outras possibilidades. O projeto está dividido em quatro fases. Cada fase representa um marco na direção do objetivo final que consiste no cumprimento de missões completamente automáticas. Sistemas diferentes são definidos em cada fase com níveis crescentes de complexidade e aplicação. Este trabalho está inserido na fase III do projeto ARARA. Seu objetivo principal é o desenvolvimento de um sistema de comunicação entre uma aeronave autônoma e uma estação no solo. O sistema de comunicação desenvolvido é baseado em comunicação por satélite, provendo um canal confiável de comunicação de ampla cobertura geográfica para controle e monitoramento da missão realizada pela aeronave. Além de ser capaz de transmitir comandos para intervenção em missões previamente programadas, o sistema também permite o recebimento de imagens e dados dos sensores a bordo da aeronave.

Ano

2003

Creators

Daniela de Oliveira Sbizera

Métodos de pontos interiores aplicados ao fluxo de carga ótimo utilizando coordenadas cartesianas

Os métodos de pontos interiores primal-dual c preditor-corretor são desenvolvidos para o problema, de fluxo de potência ótimo AC e a estrutura, matricial resultante é estudada. Foi adotada a, representação do problema, através de coordenadas cartesianas das tensões uma vez que neste modelo a Hessiana do problema é constante e a expansão em Taylor é exata para o termo de ordem dois. Além disso, o cálculo do termo de correção do método preditor-corretor pode ser feito de forma menos custosa computacionalmente. Por outro lado, a vantagem em se trabalhar com coordenadas polares, que modelam mais facilmente os limites de magnitude de tensão, perde importância devido ao tratamento de desigualdades eficiente proporcionado pelos métodos de pontos interiores, permitindo uma, revisão dos procedimentos geralmente adotados. Assim, a utilização de coordenadas cartesianas surge como uma abordagem natural, pois apresenta uma formulação mais simples que as coordenadas polares. A aplicação do método de Newton às condições de otimalidade leva a um método de pontos interiores primal-dual específico para, este modelo. As condições de otimalidade por sua, vez podem ser obtidas através da função lagrangiana, do problema onde; as restrições de desigualdade são representadas por funções de barreira logarítmicas das variáveis de folga. Antes da aplicação do método, o número de variáveis do problema é reduzido através da, eliminação de variáveis duais livres, que serão calculadas no final. Esta redução não altera, a estrutura esparsa do problema. O sistema linear resultante pode então ser reduzido a duas vezes a quantidade do número de barras da rede de transmissão. Além disso, a matriz resultante é simétrica em estrutura. Esta característica pode ser explorada de forma eficiente reduzindo o esforço computacional por iteração.

Modelos lineares para dados qualitativos: revisão bibliográfica e aplicações em experimentos agronômicos

Em algumas situações dentro da Estatística Experimental, a variável em estudo é qualitativa e suas mensurações podem ser apresentadas na forma de uma tabela de contingências (sxr). Nesses casos o estudo estatístico dessa variável pode ser feito através de modelos lineares para dados qualitativos, utilizando a metodologia proposta por GRIZZLE, STARMER e KOCH (1969), também como método GSK. Em nosso trabalho, discutiremos o artigo básico dessa metodologia, que será apresentado em capítulo especial, bem como os mais recentes trabalhos nessa área, a partir dos quais se programará, em linguagem BASIC, o método GSK. Finalizaremos nosso trabalho, apresentando exemplos aplicados a agronomia, relativos à produção de laranja e rendimento médio agrícola em kg/ha de cana-de-açúcar

Ano

1988

Creators

Rui Vieira de Moraes

Servidor web distribuído com diferenciação de serviços - implementação e avaliação de um protótipo

Este trabalho apresenta um estudo, implementação e avaliação em ambiente real de um protótipo de servidor Web com diferenciação de serviços (SWDS) para provisão de QoS relativa em servidores Web. Para tanto foram considerados algoritmos de reserva de recursos e escalonamento baseado em prioridades para prover diferenciação entre as classes de serviço, além de mecanismos de controle de admissão a fim de controlar a carga no sistema. A meta é oferecer melhor tratamento para requisições de maior prioridade, sem prejudicar em excesso as requisições de prioridade menor. Foi observado que os algoritmos de reserva de recursos (RSV e RSVadap) são eficientes para prover diferenciação entre as classes consideradas, no entanto seus desempenhos não foram satisfatórios em alguns casos, tanto devido a arquitetura em que foram implementados, como por motivos inerentes à própria natureza do algoritmo. O algoritmo de escalonamento baseado em prioridades considerado (PriProcess), mostrou-se eficiente tanto no sentido de prover diferenciação de serviços entre as classes, como na questão de desempenho, com a classe de maior prioridade sempre sendo melhor atendida em relação à classe de menor prioridade. Também foi alvo do estudo a criação de um mecanismo de controle de admissão com diferenciação de serviços. Os resultados alcançados sinalizam uma melhora em termos de tempos de respostas e número de requisições completadas para a classe de maior prioridade

Ano

2007

Creators

Valter Rogério Messias

Classificação e detecção de variações de comportamento: uma abordagem aplicada à identificação de perfis de usuários

Estudos comportamentais têm sido conduzidos, há séculos, por cientistas e filósofos, abordando assuntos tais como trajetórias de estrelas e planetas, organizações da sociedade, evolução dos seres vivos, comportamento e linguagem humana. Com o advento da computação, grandes quantidades de informação tornaram-se disponíveis, as quais geram novos desafios a fim de explorar e compreender variações comportamentais de interação com esses sistemas. Motivado por esses desafios e pela disponibilidade de informações, esta dissertação de mestrado propõe uma metodologia com objetivo de classificar, detectar e identificar padrões de comportamento. A fim de validar essa metodologia, modelou-se conhecimentos embutidos em informações relativas a interações de usuários durante a grafia digital de assinaturas (tais informações foram obtidas de uma base de dados do campeonato SVC2004 -- First International Signature Verification Competition). Os modelos de conhecimento gerados foram, posteriormente, empregados em experimentos visando o reconhecimento de assinaturas. Resultados obtidos foram comparados a outras abordagens propostas na literatura

Ano

2008

Creators

Matheus Lorenzo dos Santos

Teaching Parallel Programming in Containers: Virtualization of a Heterogeneous Local Infrastructure

Providing parallel programming education is an emerging challenge, requires teaching approaches to further the learning process and a complex infrastructure to provide a suitable environment for the laboratory practical classes. Do not prioritize parallel programming requirements in future computing professionals learning can lead to a significant training gap, negatively impacting the efficient use of current computing platforms. To popularize \"parallel thinking,\" it is essential to adopt practical learning approaches and means to facilitate software configuration and the infrastructure necessary for laboratory classes. Unfortunately, many public and private institutions do not have a cluster or an infrastructure to run parallel programs. Also, there is an operational cost to create and maintain a required environment for these laboratory classes. The lack of lecturers who work in research related to high-performance computing and the difficulties inherent in managing the execution environment are two other factors that create barriers to teaching parallel programming. Thus, this thesis aims to evaluate whether the virtualization of heterogeneous parallel architectures contributes to the teaching of parallel programming by computing students in educational institutions, which do not have such parallel architectures or qualified personnel to manage these environments. This research started with a study of existing works in the literature to determine how the practical teaching of parallel programming is carried out today. After this survey, we found that no tool met the idealized virtualization needs. Next, we defined the virtualization requirements, and a tool was developed using containers. Subsequently, experiments were carried out with professionals in the field and students to evaluate the effectiveness of this tool in the practical teaching of parallel programming. As a result, Iguana was created, an open-source tool for teaching parallel programming, thinking about low-income students who do not have access to parallel architectures. The tool allows students to develop and run their parallel code through a real-time web interface without the need to access command-line terminals or wait for batch processing. Furthermore, Iguana can operate without the Internet in a simple virtual machine, requiring only essential computer resources, allowing its use by any first-year undergraduate student.

Ano

2021

Creators

Naylor Garcia Bachiega

Relational Conditional Set Operations

A set is a collection of different objects. Some basic operations from the Theory of Sets are the set membership (), subset (), intersection (), and difference (). The relational Algebra adapts the set operations to work with relations. However, as we show in this work, the set operations have limitations because of the implicit use of the identity predicate. That is, a tuple is a member of a set if it is identical to any tuple in the set. For example, lets consider two relations. The first one is a list of products that a person wants to buy. The second one is a list of products that one store has. Now, we could get any item from the desired products list and query can we buy this item in the store? with the set membership operator (), being true if the item is a member of the second set or false if not. With the set membership operator as a basis, we can also perform other queries such as subset, intersection, and difference. The subset () query would answer to can I buy all the desired products in the store?. The intersection () would answer to what products can I buy in the store? And finally, the difference () would answer to what are the desired products that I cannot buy in the store?. Still, many applications need other comparison predicates that are not limited to identity. For example, if we add quantity and price to the sets of desired products and stores products, comparing the tuples by identity wont have much sense, since a product in the store with stock greater than the required should be valid, and it is also valid a product with a price lower than the users maximum budget for that product. This MSc work presents the new Relational Conditional Set Operations. The novel operators encapsulate the idea of set operations with conditional queries, facilitating specific operators for them, and allowing their optimization. For example, they are potentially useful in applications of product sales with units and prices, job promotions with skills that have enough experience or certification level, and internships with minimum grades. We validate our proposals semantics and scalability by studying the first of these applications. Also, we open path for future works such as: to implement the operators in a DBMS; to propose SQL queries able to answer these kind of queries and compare it with our current approach; to extend the idea for bag algebra; to explore a whole new path of optimization for our algorithms; to add support for complex data, allowing similarity comparisons in the predicate; and, to study the use of these operators as basis for other operations that currently use the traditional set operation as basis; among others.

Ano

2021

Creators

Alexis Iván Aspauza Lescano

A novel cloud and fog-based architecture to support spatial analytics in smart cities

Providing an infrastructure to accommodate a large number of people in cities is a major challenge for public authorities and private companies. Thereby, the concept of smart cities emerged, which use technologies like sensors and Internet of Things (IoT) devices to aid in urban growth. These devices generate spatial data that can be used for spatial analytics by smart city managers to improve the populations quality of life. However, these IoT devices quickly generate a large volume of spatial data, causing big data problems. A smart city manager can benefit from using concepts such as fog computing, spatial data warehouses, data lakes, and parallel and distributed storage and processing environments to handle this massive amount of data. Based on a systematic review, there are no studies in the literature that consider all of these concepts in the context of smart cities. Therefore, we propose a novel architecture that aims smart city managers in spatial analytics. This architecture is composed of four layers: (i) terminal, which consists of a network of IoT devices; (ii) fog computing, which contains data lakes for real-time data processing; (iii) cloud computing, in which spatial data warehouses are used to support SOLAP (Spatial Online Analytical Processing) queries carried out in batch; and (iv) analytical tools, which incorporate data visualisation and analysis tools. Furthermore, we introduce a set of guidelines to aid smart cities managers to implement the proposed architecture, by describing and discussing important issues and examples of tools and technologies. The proposed architecture and guidelines were validated through two case studies that use real data generated by IoT devices disposed in smart cities. We investigated the execution of three categories of spatial queries, as well as the execution of queries in the fog, in the cloud, and in both environments. These case studies demonstrated the architectures efficiency and effectiveness to support spatial analytics in the context of smart cities.

Ano

2021

Creators

João Paulo Clarindo dos Santos

Explorando variedade em consultas por similaridade

A complexidade dos dados armazenados em grandes bases de dados aumenta sempre, criando a necessidade de novas formas de consulta. As consultas por similaridade vêm apresentando crescente interesse para tratar de dados complexos, sendo as mais representativas a consulta por abrangência (\'R IND. q\' Range query) e a consulta aos k-vizinhos mais próximos (k-\'NN IND. q\' k-Nearest Neighboor query). Até recentemente, essas consultas não estavam disponíveis nos Sistemas de Gerenciamento de Bases de Dados (SGBD). Agora, com o início de sua disponibilidade, tem se tornado claro que os operadores de busca fundamentais usados para executá-las não são suficientes para atender às necessidades das aplicações que as demandam. Assim, estão sendo estudadas variações e extensões aos operadores fundamentais, em geral voltados às necessidades de domínios de aplicações específicas. Além disso, os seguintes problemas vêm impactando diretamente sua aceitação por parte dos usuários e, portanto, sua usabilidade: (i) os operadores fundamentais são pouco expressivos em situações reais; (ii) a cardinalidade dos resultados tende a ser grande, obrigando o usuário analisar muitos elementos; e (iii) os resultados nem sempre atendem ao interesse do usuário, implicando na reformulação e ajuste frequente das consultas. O objetivo desta dissertação é o desenvolvimento de uma técnica inédita para exibir um grau de variedade nas respostas às consultas aos k-vizinhos mais próximos em domínios de dados métricos, explorando aspectos de diversidade em extensões dos operadores fundamentais usando apenas as propriedades básicas do espaço métrico sem a solicitação de outra informação por parte do usuário. Neste sentido, são apresentados: a formalização de um modelo de variedade que possibilita inserir diversidade nas consultas por similaridade sem a definição de parâmetros por parte do usuário; um algoritmo incremental para responder às consultas aos k-vizinhos mais próximos com variedade; um método de avaliação de sobreposição de variedade para as consultas por similaridade. As propriedades desses resultados permitem usar as técnicas desenvolvidas para apoiar a propriedade de variedade nas consultas aos k-vizinhos mais próximos em Sistemas de Gerenciamento de Bases de Dados

Ano

2012

Creators

Lúcio Fernandes Dutra Santos

APRENDIZADO DE MÁQUINA POR EXEMPLOS USANDO ÁRVORES DE DECISÃO

O Aprendizado de Máquina é uma importante área de pesquisa em Inteligência Artificial pois a capacidade de aprender é essencial para um comportamento inteligente. Em particular, um dos objetivos da pesquisa em Aprendizado de Máquina é o de auxiliar o processo de aquisição de conhecimento facilitando a construção de Sistemas Baseados em Conhecimento. Uma das formas de aprendizagem é por generalizações, isto é, através de processos indutivos. São várias as estratégias desenvolvidas para Aprendizado de Máquina por Indução. Uma delas está baseada na construção de árvores de decisão. Esta estratégia abrange uma determinada família de sistemas de aprendizado por indução: a família TDIDT - Top Down Decision Trees. Neste trabalho são apresentadas algumas estratégias de Aprendizado de Máquina, dando ênfase aos sistemas da família TDIDT, bem como detalhes da implementação realizada. Mostra-se que é possível realizar uma implementação geral dos algoritmos desta família. Mostra-se também a importância dos diversos mecanismos de poda em árvores de decisão. Um método de poda específico é usado para podar árvores geradas em diversos domínios. Os resultados obtidos evidenciam que este método reduz a complexidade da árvore e produz ganhos significativos na classificação por ela realizada.

Ano

1990

Creators

Maria Inés Castiñeira

UM AMBIENTE PARA AUXILIAR A CONSTRUÇÃO DE NÚCLEOS DE SISTEMAS ESPECIALISTAS

A construção do Núcleo de um Sistema Especialista pode ser facilitada se for realizada dentro de um ambiente que permita articular, bem como alterar os diversos subsistemas que o constituem tal que estes possuam características apropriadas para manipular Bases de Conhecimentos com características diferentes. Neste trabalho é apresentada a implementação de cada um dos subsistemas que constitui este ambiente. As implementações realizadas são abertas, ou seja, é permitido que o projetista do SE se utilize tanto de um subconjunto das facilidades fornecidas, bem como respeitando algumas condições que troque algumas estruturas e redefina e/ou incremente o código dos subsistemas. O usuário pode interagir com este ambiente, de maneira a adequar o Núcleo de Sistema Especialista à manipulação da Base de Conhecimento de seu interesse. Este ambiente, implementado na linguagem de programação lógica Prolog para microcomputadores IBM PC - compatível, leva em consideração a maioria dos problemas encontrados na construção de núcleos específicos e é dirigido a usuários não leigos em Sistemas Especialistas e Prolog.

Ano

1990

Creators

Solange Oliveira Rezende