Repositório RCAAP
Simulador extensível para navegação de agentes baseado em inteligência de enxames
A visão de muitas pessoas sobre uma colônia de formigas, em geral, é de que estes pequenos e inofensivos insetos somente se movem aleatoriamente para coletar alimento e conservá-los em seus ninhos. Um olhar destreinado não conseguiria notar o nível de complexidade e organização que é requerido por uma colônia de formigas para sua sobrevivência. Uma formiga simples é parte de um grande grupo que coopera entre si para criar um superorganismo. Sem uma autoridade central ou indivíduos com habilidade de um pensamento cognitivo complexo, a colônia se auto-organiza, e, de fato, ajusta seus recursos de uma maneira muito eficiente. Essa dissertação investiga o papel da comunicação indireta nas tarefas de exploração e forrageamento, e como isso afeta as decisões de um agente simples e traz um comportamento emergente útil à toda colônia. Por fim, este trabalho implementa uma plataforma de simulação multi-agente inspirado em formigas
2022-12-06T14:47:11Z
Danilo Nogueira Costa
A programação de produção em fundições de pequeno porte: modelagem matemática e métodos de solução
Este trabalho trata de um problema de programação da produção em fundições de pequeno porte, que consiste em programar as ligas que devem ser produzidas em cada período do planejamento e como tais ligas devem ser usadas para a produção de itens sob encomenda, de modo que atrasos e custos operacionais sejam minimizados. Devido à certa incerteza nos dados do problema, a estratégia de horizonte rolante foi empregada. Este problema é representado por um modelo matemático de programação linear inteira mista. Neste trabalho foi desenvolvida uma heurística do tipo residual para obter uma boa solução inteira factível do problema, partindo da solução contínua encontrada pelos métodos relaxe-e-fixe e busca local
2022-12-06T14:47:11Z
Claudia Fink
Projeto de um estimador de potência para o processador Nios II da Altera
Atualmente, otimizar uma arquitetura ou um sistema de software não significa, necessariamente, aumentar o seu desempenho computacional. Devido a popularização de sistemas embutidos energizados por bateria, um item de grande importância a ser otimizado é o consumo de energia. De forma a obedecer às restrições de consumo, pesquisadores têm concentrado seus esforços na criação de ferramentas que possibilitam a modelagem, a otimização e a estimação do consumo de energia. Nos últimos anos, FPGAs têm apresentado um grande desenvolvimento nos quesitos densidade, velocidade e capacidade de armazenamento. Essas características tornaram possível a construção de sistemas complexos formados por um ou mais processadores soft-core. Esse tipo de processador permite uma personalização detalhada de suas características arquiteturais, possibilitando uma melhor adequação às restrições de tempo e espaço em um projeto. O objetivo deste trabalho é construir um estimador de potência para softwares que têm como alvo o processador soft-core Nios II da Altera, permitindo saber com antecedência quanta energia será consumida devido à execução de programas e aplicações de robótica móvel. O modelo implementado neste trabalho foi testado com vários benchmarks padronizados e os resultados obtidos provaram ser bastante adequados para estimar a energia consumida por um programa, obtendo erros de estimação máximos de 4,78%
2022-12-06T14:47:11Z
Jose Arnaldo Mascagni de Holanda
Algumas extensões do problema de corte de estoque com sobras de material aproveitáveis
Os problemas de corte de estoque consistem em cortar um conjunto de objetos dispon´veis em estoque para produzir um conjunto de itens em quantidades e tamanhos especificados, de modo a otimizar uma fun¸cao objetivo. Tais problemas tem in´umeras aplica¸coes industriais e tem sido bastante estudados na literatura. Tipicamente, problemas de corte tem como principal objetivo a minimiza¸cao das sobras. Entretanto, como a qualidade dos padroes de corte depende diretamente dos tamanhos e quantidades dos itens a serem produzidos, nesta tese, consideramos que se a demanda presente gerar sobras indesej´aveis (nem tao grandes para serem aproveit´aveis, nem tao pequenas para serem perdas aceit´aveis), entao conv´em gerar retalhos (nao comput´aveis como perda) que serao utilizados para produzir itens de demandas futuras. Desta forma, algumas caracter´sticas desej´aveis para uma boa solu¸cao sao definidas e altera¸coes em m´etodos heur´sticos cl´assicos sao apresentadas, de modo que os padroes de corte com sobras indesej´aveis sao alterados. Para os problemas de corte unidimensionais, desenvolvemos procedimentos heur´sticos que consideram o aproveitamento de sobras, mantendo como o principal objetivo a minimiza ¸cao das perdas. Outra abordagem para este problema, considera o caso em que al´em da minimiza¸cao das perdas, os retalhos dispon´veis em estoque devem ter prioridade de uso em rela¸cao aos demais objetos durante o processo de corte. A an´alise do desempenho dos procedimentos heur´sticos propostos quando somente a minimiza¸cao das perdas ´e considerada, ´e realizada com base em exemplos da literatura, exemplos pr´aticos e exemplares gerados aleatoriamente. Para os procedimentos heur´sticos que priorizam o corte dos retalhos do estoque, al´em de exemplares da literatura, simulamos uma situa¸cao em m´ultiplos per´odos na qual problemas de corte de estoque em sucessivos per´odos sao resolvidos. A cada per´odo, um problema para o per´odo seguinte ´e gerado considerando atualiza¸coes do estoque, os retalhos gerados nos per´odos anteriores e uma nova demanda de itens que ´e v gerada aleatoriamente. No caso bidimensional, tamb´em consideramos problemas em que, al´em da perda m´nima, os retalhos dispon´veis em estoque devem ter prioridade de corte em rela¸cao aos demais objetos. Para resolver este problema, altera¸coes foram realizadas na abordagem grafo E/OU e em procedimentos heur´sticos da literatura. A an´alise do desempenho dos procedimentos heur´sticos propostos considera problemas pr´aticos retirados da carteira de pedidos de uma pequena empresa de esquadrias met´alicas. Devido `a dificuldade na an´alise dos procedimentos heur´sticos desenvolvidos que consideram o aproveitamento de sobras (as solu¸coes apresentam caracter´sticas importantes e conflitantes), tamb´em apresentamos neste trabalho uma estrat´egia fuzzy para facilitar a analise das solu¸coes obtidas. Os testes computacionais sao realizados considerando os procedimentos heur´sticos desenvolvidos para os problemas de corte unidimensionais com sobras aproveit´aveis e problemas gerados aleatoriamente
2022-12-06T14:47:11Z
Adriana Cristina Cherri Nicola
Otimização de desempenho de aerofólios supercríticos: uma abordagem baseada em algoritmos genéticos
O presente trabalho tem por objetivo o estudo da otimização multiobjetivo aplicada ao projeto de perfis aerodinâmicos em regime transônico, analisando comparativamente diferentes formas de definir as funções objetivo. A otimização é efetuada pelo algoritmo genético NSGA-II. Os resultados são avaliados utilizando métricas de diversidade da população e otimalidade das soluções, das quais duas são propostas. As funções objetivo são constituidas de diferentes parametrizações da geometria e diferentes técnicas de simulação numérica. A parametrização da geometria é feita utilizando a paramentrização Parsec ou a parametrização baseada em pontos de controle. A discretização do domínio espacial é feita utilizando malha estruturada conformada ao perfil e suavização por EDP elíptica. As duas técnicas de volumes finitos com diferentes modelos para o cálculo do fluxo na face do volume implementadas foram o método de Jameson (esquema centrado) e o método de Roe (esquema upwind). As comparações feitas são as seguintes: utilização de modelo viscoso e invíscido, com o uso do código Mses com a parametrização por ponto de controle; a utilização da parametrização por ponto de controle e parametrização Parsec usando o método de Jameson; e a comparação entre o método centrado e o upwind, utilizando a parametrização Parsec. Conclui-se dos resultados obtidos que a utilização da parametrização por pontos de controle é melhor. Entretanto, ainda é necessária a utilização de uma parametrização que garanta maior suavidade ou a imposição de restrições sobre a suavidade da solução. A utilização do modelo viscoso torna os resultados da otimização melhores do ponto de vista da otimalidade. Na utilização de modelos de correção viscosa, como no caso do Mses, é necessária a utilização de métodos invíscidos que forneçam resultados com maior representatividade física
2022-12-06T14:47:11Z
Rafael Gigena Cuenca
Teste de Mutação: subsídios para a redução do custo de aplicação
PARA sistematizar os testes e contornar as restrições de tempo e custo a ele associadas, diversas técnicas, critérios e ferramentas têm sido desenvolvidas. Além disso, visando ao estabelecimento de uma estratégia de teste que apresente baixo custo de aplicação e alta eficácia em revelar a presença de erros, estudos teóricos e empíricos vêm sendo conduzidos pela comunidade de teste. Os critérios de teste, Análise de Mutantes e Mutação de Interface, apresentam problemas de custo relacionados ao grande número de mutantes gerados e equivalentes, sendo de fundamental importância o desenvolvimento de abordagens que viabilizem a sua aplicação prática. O presente trabalho está inserido nesse contexto e tem como objetivo analisar os operadores de mutação implementados nas ferramentas Proteum e PROTEUM/IM, que apoiam a aplicação dos critérios Análise de Mutantes e Mutação de Interface, respectivamente, levando em consideração não só o número de mutantes gerados mas também o esforço requerido na identificação e eliminação de mutantes equivalentes e mutantes que morrem facilmente. Tal análise permitiu a determinação de heurísticas para eliminação de mutantes equivalentes e o estabelecimento de estratégias incrementais para aplicação dos operadores de mutação, reduzindo com isso o custo do teste em nível de unidade e de integração sem comprometer sua qualidade e contribuindo para a evolução dessas ferramentas para a sua aplicação em ambientes industriais de produção de software.
2022-12-06T14:47:11Z
Rodrigo Funabashi Jorge
Problemas de otimização linear canalizados e esparsos
A otimização linear tem sido objeto de estudo desde a publicação do método simplex em 1947, o qual vem sendo utilizado na prática com relativa eficiência. Com isso, inúmeras variantes deste método surgiram na tentativa de se obter métodos mais eficientes, além de várias implementações objetivando a resolução de problemas de grande porte. Os problemas de otimização linear canalizados e esparsos, objeto principal deste trabalho, são problemas de grande interesse prático, pois representam vários problemas reais, como por exemplo, problemas da programação da produção, problemas de mistura e muitos outros. O método dual simplex canalizado com busca linear por partes é um método do tipo simplex especializado para os problemas de otimização linear canalizados e será detalhado neste trabalho. Experiências computacionais foram realizadas para algumas classes de problemas de otimização linear com o objetivo de analisar o desempenho deste método, o qual foi implementado com algumas heurísticas de pivoteamento e formas de atualização da matriz básica para tentar manter a esparsidade presente e reduzir o tempo de resolução dos problemas.
2022-12-06T14:47:11Z
Carla Taviane Lucke da Silva Ghidini
Emeet/Inca: captura e acesso de informação multimídia em reuniões distribuídas
Sistemas baseados na captura de experiências ao vivo têm sido investigados em diversos contextos. O presente trabalho teve como objetivo investigar mecanismos para a captura de informação multimídia em ambientes de reuniões de modo a permitir a geração de documentos hipermídia associados na World Wide Web. O foco do trabalho é na captura e no acesso à informação multimídia associada a reuniões distribuídas síncronas. A investigação resultou no levantamento de requisitos necessários para a construção de uma ferramenta instrumentada para capturar informação multimídia associada; no levantamento das limitações existentes para a implementação da ferramenta; na modelagem e na implementação de uma ferramenta, eMeet/InCA, que atende aos requisitos levantados, consideradas as limitações identificadas.
2022-12-06T14:47:11Z
Wagner da Silva Bila
Investigando abordagens para a criação automática de ligações entre repositórios web
Muitas de nossas experiências cotidianas são apoiadas pela troca de informações a. qual pode ser capturada de modo a suportar a geração automática de hiperdocumentos que correspondem às experiências capturadas. O Projeto eClass do Geórgia Institute of Technology utiliza computação ubíqua para a captura de informações em ambientes de sala de aula a fim de permitir a produção automática de documentos hipermídia que refletem o conteúdo capturado. Ambientes como os do Projeto eClass permitem a autoria automática de ligações liipertexto a partir da interação do usuário com o ambiente ubíquo. Serviços de criação automática de ligações entre repositórios Web podem explorar técnica, de Recuperação de Informação, como demonstram trabalhos que veem sendo desenvolvidos pelo grupo de pesquisa no qual este trabalho está inserido. No entanto, tais técnicas normalmente permitem a identificação de ligações que não deveriam ser geradas (ligações imprecisas), ao mesmo tempo que não permitem identificar todas as ligações que deveriam ter sido geradas (ligações relevantes). Esses fatos motivaram o trabalho apresentado, que tem como objetivo aprimorar a precisão dos resultados obtidos pelos serviços de criação automática de ligações e. consequentemente, aproximar as ligações criadas àquelas esperadas pelos usuários. Para alcançar esse objetivo. foram utilizadas abordagens de Recuperação de Informação e de Sistemas Hipermídia Abertos para armazenamento das ligações criadas. Através das investigações, foi possível a verificação e a seleção de informações que representam melhor o conteúdo das coleções de informações manipuladas no sentido de prover ligações mais precisas. Como resultado, foram definidos procedimentos, que deram origem a um serviço configurável de criação automática de ligações.
2022-12-06T14:47:11Z
Jose Antonio Camacho Guerrero
Genetic generation of fuzzy knowledge bases: new perspectives
This work focus on the genetic generation of fuzzy systems. One of the main contribution of this work is the proposal of the FCA-BASED method, which generates the genetic search space using the formal concept analysis theory by extracting rules from data. The experimental evaluation results of the FCA-BASED method show its robustness, producing a good trade-off between the accuracy and the interpretability of the generated models. Moreover, the FCA-BASED method presents improvements to the DOC-BASED method, a previously proposed approach, related to the reduction of the computational cost for the generation of the genetic search space. In order to tackle high dimensional datasets, we also propose the FUZZYDT method, a fuzzy version of the classic C4.5 decision tree, a highly scalable method that presents low computational cost and competitive accuracy. Due to these characteristics, FUZZYDT is used in this work as a baseline method for the experimental evaluation and comparisons of other classic and fuzzy classification methods. We also include in this work the use of the FUZZYDT method to a real world problem, the warning of the coffee rust disease in Brazilian crops. Furthermore, this work investigates the task of feature subset selection to address the dimensionality issue of fuzzy systems. To this end, we propose the FUZZYWRAPPER method, a wrapper-based approach that selects features taking the relevant information regarding the fuzzyfication of the attributes into account, in the feature selection process. This work also investigates the automatic design of fuzzy data bases, proposing the FUZZYDBD method, which estimates the number of fuzzy sets defining all the attributes of a dataset and evenly distributing the fuzzy sets in the domains of the attributes. A modified version of the FUZZYDBD method, FUZZYDBD-II, which defines independent numbers of fuzzy sets for each attribute of a dataset, by means of estimation functions, is also proposed in this work
2022-12-06T14:47:11Z
Marcos Evandro Cintra
Rede neural hierárquica para aprendizado de enxames de robôs em tempo real
Uma tendência crescente entre os pesquisadores da Robótica Móvel é a elaboração de sistemas robóticos descentralizados denominados enxames de robôs, nos quais a ação conjunta de cada agente leva à execução de tarefas de maneira mais robusta que quando realizada por um único robô. Um acréscimo adicional à robustez é conveniente em tais sistemas para que eles sejam de maior confiabilidade no mundo real. Neste trabalho, uma rede neural hierárquica desenvolvida para o aprendizado em tempo real inicialmente elaborada para o aprendizado de navegação de um único robô será estendida para controlar um enxame de robôs. O sistema realiza um balanceamento da influência de comportamentos implementados previamente em um robô de acordo com conhecimentos obtidos através da interação do mesmo com o ambiente. Cada robô possui sua própria rede neural, adquirindo seu conhecimento tanto independentemente quanto com o compartilhamento de informações com outros robôs. Espera-se que o uso de tal arquitetura permita uma adaptação mais rápida dos robôs ao ambiente, permitindo uma mudança em tempo real de seus parâmetros de acordo com as peculiaridades do ambiente no qual os robôs estão inseridos. A tarefa de escolta de um robô pelos demais é adotada para a avaliação de desempenho do modelo de rede neural proposto. Dois comportamentos são ponderados pela rede neural hierárquica: o de manutenção de uma distância preestabelecida a um agente e um outro de cobertura de área baseado em Diagramas Centroidais de Voronoi. Os testes foram feitos nos ambientes Player/Stage e indicam que a rede neural hierárquica torna os robôs capazes não apenas de aprender à medida que interagem com ambiente como de utilizar este conhecimento em tempo real para realizar a escolta de forma bem sucedida
2022-12-06T14:47:11Z
Murillo Rehder Batista
Avaliação da portabilidade entre fornecedores de teste como serviço na computação em nuvem
O processo de automatização de teste de software possui alto custo envolvido em sistemas de larga escala, pois exigem cenários de teste complexos e tempos de execução extremamente longos. Além disso, cada etapa do processo de teste requer recursos computacionais e um tempo considerável para a execução de muitos casos de teste, tornando-se um gargalo para as empresas de Tecnologia da Informação (TI). Neste contexto, os benefícios e oportunidades oferecidos pela combinação da computação em nuvem com o Teste como Serviço (Testing as a Service, TaaS), que é considerado um novo modelo de negócio e de serviço atraente e promissor, podem proporcionar um impacto positivo na redução do tempo de execução dos testes de maneira custo-efetiva e aumentar o retorno sobre o investimento ou Return on investment (ROI). Todavia, existe o problema de vendor lock-in, que é o aprisionamento do usuário à plataforma de um fornecedor específico ou serviço de teste, ocasionado pela dificuldade de migrar de um fornecedor TaaS para outro, limitando a utilização dessas novas tecnologias de maneira efetiva e eficiente, impedindo assim, a ampla adoção do TaaS. Como os estudos existentes não são rigorosos ou conclusivos e, principalmente, devido à falta de evidência empírica na área de serviço de teste, muitas questões devem ser investigadas na perspectiva da migração entre os provedores de TaaS. O objetivo deste trabalho é reduzir o impacto ocasionado pelo problema de vendor lock-in no processo de automatização de testes na computação em nuvem, na escrita, configuração, execução e gerenciamento dos resultados de testes automatizados. Neste contexto, foi desenvolvido o protótipo da abordagem intitulada Multi-TaaS por meio de uma biblioteca Java como prova de conceito. A abordagem Multi-TaaS é uma camada de abstração e a sua arquitetura permite abstrair e flexibilizar a troca de fornecedores de TaaS de forma portável, pois permite encapsular toda a complexidade da implementação do engenheiro de software ao desacoplar o teste automatizado de qual plataforma TaaS ele será executado, bem como abstrair os aspectos da comunicação e integração entre as APIs REST proprietárias dos diferentes fornecedores de TaaS. Além disso, a abordagem Multi-TaaS possibilita também sumarizar os resultados dos testes automatizados de forma independente das tecnologias da plataforma TaaS subjacente. Foram realizadas avaliações comparativas da eficiência, efetividade, dificuldade e do esforço de migração entre as abordagens Multi-TaaS e abordagem convencional, por meio de experimentos controlados. Os resultados deste trabalho indicam que a nova abordagem permite facilitar a troca do serviço de teste, melhorar a eficiência e, principalmente, reduzir o esforço e os custos de manutenção na migração entre fornecedores de TaaS. Os estudos realizados no experimento controlado são promissores e podem auxiliar os engenheiros de software na tomada de decisão quanto aos riscos associados ao vendor lock-in no TaaS. Por fim, a abordagem Multi-TaaS contribui, principalmente, para a portabilidade dos testes automatizados na nuvem e da sumarização dos resultados dos testes e, consequentemente, possibilita que o modelo de serviço TaaS na computação em nuvem seja amplamente adotado, de forma consciente, no futuro.
2022-12-06T14:47:11Z
Ricardo Ramos de Oliveira
Predição da complexidade sentencial do português brasileiro escrito, usando métricas linguísticas, psicolinguísticas e de rastreamento ocular
O INAF (Indicador de Alfabetismo Funcional), criado para mensurar o nível de letramento da população brasileira entre 15 e 64 anos, apontou, em seu relatório de 2018, que somente um em cada dez brasileiros adultos é considerado letrado de forma proficiente. No setor da agropecuária, apenas uma em cada cem pessoas consegue ler e compreender textos sem enfrentar dificuldades. Isso significa que a grande maioria dos produtores rurais pode não se beneficiar das tecnologias publicadas por entidades de pesquisa como a Embrapa (Empresa Brasileira de Pesquisa Agropecuária). Uma solução bastante viável para esse problema é simplificar essas publicações para torná-las mais acessíveis para público alvo. Uma das etapas da simplificação é a tarefa conhecida como predição da complexidade sentencial, responsável por identificar as sentenças mais complexas de um texto, as quais serão alvo das operações de simplificação subsequentes. Para o português brasileiro, antes do presente trabalho, a tarefa de predição de complexidade sentencial ainda não havia sido avaliada e nem havia córpus criados para o aprendizado da tarefa. Outra lacuna observada foi a falta de um córpus com métricas de rastreamento ocular, semelhante aos disponíveis em inglês e utilizados pelos trabalhos internacionais mais recentes sobre predição de complexidade. O objetivo principal desta pesquisa é avaliar métodos de predição de complexidade sentencial para o português brasileiro escrito, a fim de criar um método no estado da arte para a tarefa. Para implementar esse método, projetou-se um ambiente denominado Simpligo, que tem por objetivo auxiliar na simplificação de textos, especialmente os produzidos pela Embrapa para o domínio rural. Para atingir esses objetivos, foram criados dois córpus: um com as sentenças alinhadas do PorSimples (CASELI et al., 2009), e um com métricas de rastreamento ocular e normas de previsibilidade de estudantes do ensino superior. Também disponibilizou-se a versão de 2021 da ferramenta NILC-Metrix, de código-fonte aberto, com 200 métricas linguísticas e psicolinguísticas, as quais são utilizadas nas avaliações dos métodos de predição de complexidade sentencial . Por fim, nesta pesquisa foram avaliadas abordagens de ranking e transfer learning, sendo que esta última, com a adição das métricas de rastreamento ocular, atingiu o estado da arte para a tarefa de predição da complexidade sentencial na língua portuguesa, com 97,5% de acurácia. Este trabalho contribui com novos córpus, métodos e aplicações, voltados à tarefa de avaliação da complexidade sentencial. Além disso, ao serem disponibilizados publicamente todos os recursos desenvolvidos, torna-se possível sua utilização em outras tarefas e investigações.
2022-12-06T14:47:11Z
Sidney Evaldo Leal
Enriching data analytics with incremental data cleaning and attribute domain management
In the present Big Data era, many businesses have become more data-driven, seeking to improve their decision-making processes based on solid Data Analytics practices. Several steps constitute the Data Analytics pipeline and all of them involve specific approaches and technologies, which are constantly evolving. In order to accommodate new needs and trends, there is always room for improvements in the steps of Data Analytics. In this context, this PhD research has focused on improving two of those steps: (i) data cleaning and (ii) data analysis. Regarding the first step, we addressed the problem of performing data cleaning incrementally, considering dynamic scenarios with incoming data batches, as well as holistically, that is, jointly taking into account multiple error detection criteria. As a result, we have developed an incremental data cleaning framework which significantly outperforms competitors, enabling higher efficiency while compromising little on repair quality, as well as addresses the problem in an innovative way, hence filling a gap in the literature. Regarding the second improved step, we addressed the problem of handling queries over an Attribute Domain, which consists of the set of stored values within a domain of attributes, usually across multiple relations. As a result, we have proposed three contributions: (a) the Domain Index, an access method for efficiently performing queries over Attribute Domains, which we refer to as Domain Queries; (b) a comprehensive case study of Domain Indexes applied to the medical domain, focusing on content-based Domain Queries for supporting physicians in decision-making; and (c) an approach for including support to Attribute Domains as first-class citizens in a Relational Database Management System (RDBMS). Together, those contributions target a distinct category of queries which, until the execution of this PhD research, had not been addressed in the literature elsewhere. Experimental results highlight the superior performance enabled by the Domain Index compared to existing techniques of modern RDBMSs, which not only are inefficient in several scenarios, but also are not always applicable. Ultimately, those contributions enrich data analyses down the road. Hence, this PhD research advances the state of the art in the field of Data Analytics, as well as opens several directions for future work.
2022-12-06T14:47:11Z
Paulo Henrique de Oliveira
Uma estratégia para redução de conjuntos de sequências de teste para máquinas de estados finitos
O teste baseado em modelos visa à derivação de casos de teste a partir de modelos produzidos ao longo do desenvolvimento de software. Nesse contexto, as Máquinas de Estados Finitos têm sido amplamente pesquisadas e utilizadas para derivação de seqüências de teste. Para isso, vários métodos de geração de seqüências de teste têm sido desenvolvidos há várias décadas. O objetivo desses métodos é a obtenção de um conjunto de teste que seja capaz de revelar os defeitos de uma implementação. Entretanto, muitas vezes os conjuntos gerados são muito grandes, o que torna sua aplicação inviável. Trabalhos recentes definiram condições que podem ser utilizadas para investigar mecanismos de redução de casos de teste. Este trabalho apresenta uma estratégia para a redução de conjuntos de seqüências de teste a partir de Máquinas de Estados Finitos com base em condições de suficiência. A estratégia baseia-se na combinação de seqüências de um conjunto de teste, de forma a reduzir o número de seqüências e o tamanho delas, mantendo a completude do conjunto. São apresentadas seis abordagens de redução baseadas na estratégia proposta, as quais foram implementadas em uma ferramenta. Para avaliar as abordagens foram conduzidos estudos experimentais, os quais também serviram para inferir sobre as características e propriedades de cada abordagem. Além disso, um estudo de caso com MEFs reais também foi realizado
2022-12-06T14:47:11Z
Jorge Francisco Cutigi
Um modelo arquitetural para captura e uso de informações de contexto em sistemas de anotações de vídeo
Diversos pesquisadores vêm investigando métodos e técnicas para tornar possível às pessoas anotarem vídeos de modo transparente. A anotação pode ser realizada com a fala, com o uso de tinta digital ou algum outro meio que possa ser capturado enquanto a pessoa assiste ao vídeo. Tais anotações podem ser compartilhadas com outras pessoas, que podem estar assistindo ao mesmo vídeo em um mesmo instante ou em momentos diferentes, sendo interessante ainda que as anotações possam ser realizadas por várias pessoas de modo colaborativo. O paradigma Watch-and-Comment (WaC) propõe a captura transparente de anotações multimodais de usuários enquanto os mesmos assistem e comentam um vídeo. Como resultado desse processo, é gerado um vídeo digital interativo integrando o conteúdo original às anotações realizadas. Esta dissertação tem por objetivo explorar conceitos de computação ubíqua, redes sociais, redes peer-to-peer e TV interativa na proposta de um modelo arquitetural de ciência de informações de contexto para aplicações definidas segundo o paradigma WaC. O modelo explora a integração de um serviço ao paradigma, que auxilie ou forneça alternativas para que aplicações, do momento da captura ao acesso das anotações, utilizem informações de contexto do usuário, do vídeo e das anotações. O modelo também auxilia no estudo de colaboração entre usuários que realizam anotações em vídeos. Outra contribuição da dissertação é a prototipação de aplicações para avaliar e refinar o modelo proposto. São apresentadas extensões para a aplicação WaCTool, considerando o uso de redes sociais e de alternativas para a anotação em vídeos
2022-12-06T14:47:11Z
Roberto Fagá Júnior
Development of an autonomous unmanned aerial vehicle specification of a fixed-wing vertical takeoff and landing aircraft
Several configurations of Unmanned Aerial Vehicles (UAVs) were proposed to support different applications. One of them is the tailsitter, a fixed-wing aircraft that takes off and lands on its own tail, with the high endurance advantage from fixed-wing aircraft and, as helicopters and multicopters, not requiring a runway during takeoff and landing. However, a tailsitter has a complex operation with multiple flight stages, each one with its own particularities and requirements, which emphasises the necessity of a reliable autopilot for its use as a UAV. The literature already introduces tailsitter UAVs with complex mechanisms or with multiple counter-rotating propellers, but not one with only one propeller and without auxiliary structures to assist in the takeoff and landing. This thesis presents a tailsitter UAV, named AVALON (Autonomous VerticAL takeOff and laNding), and its autopilot, composed of 3 main units: Sensor Unit, Navigation Unit and Control Unit. In order to choose the most appropriate techniques for the autopilot, different solutions are evaluated. For Sensor Unit, Extended Kalman Filter and Unscented Kalman Filter estimate spatial information from multiple sensors data. Lookahead, Pure Pursuit and Line-of-Sight, Nonlinear Guidance Law and Vector Field path-following algorithms are extended to incorporate altitude information for Navigation Unit. In addition, a structure based on classical methods with decoupled Proportional-Integral-Derivative controllers is compared to a new control structure based on dynamic inversion. Together, all these techniques show the efficacy of AVALONs autopilot. Therefore, AVALON results in a small electric tailsitter UAV with a simple design, with only one propeller and without auxiliary structures to assist in the takeoff and landing, capable of executing all flight stages.
2022-12-06T14:47:11Z
Natássya Barlate Floro da Silva
Operadores físicos binários para consultas por similaridade em SGBDR
O operador de Junção é um operador importante da Álgebra Relacional que combina os pares de tuplas que atendem a uma dada condição de comparação entre os valores dos atributos de duas relações. Quando a comparação avalia a similaridade entre pares de valores, o operador é chamado Junção por Similaridade. Esse operador tem aplicações em diversos contextos, tais como o suporte de tarefas de mineração e análise de dados em geral, e a detecção de quase-duplicatas, limpeza de dados e casamento de cadeias de caracteres em especial. Dentre os operadores de junção por similaridade existentes, a Junção por Abrangência (range join) é a mais explorada na literatura. Contudo, ela apresenta limitações, tal como a dificuldade para se encontrar um limiar de similaridade adequado. Nesse contexto, a Junção por k-vizinhos mais próximos (knearest neighbor join kNN join) é considerada mais intuitiva, e portanto mais útil que o range join. Entretanto, executar um kNN join é computacionalmente mais caro, o que demanda por abordagens baseadas na técnica de laço aninhado, e as técnicas existentes para a otimização do algoritmo são restritas a um domínio de dados em particular. Visando agilizar e generalizar a execução do kNN join, a primeira contribuição desta tese foi o desenvolvimento do algoritmo QuickNearest, baseado na técnica de divisão e conquista, que é independente do domínio dos dados, independente da função de distância utilizada, e que computa kNNjoins de maneira muito eficiente. Os experimentos realizados apontam que o QuickNearest chega a ser 4 ordens de magnitude mais rápido que os métodos atuais. Além disso, o uso de operadores de junção por similaridade em ambientes relacionais é problemático, principalmente por dois motivos: (i)emgeral o resultado tem cardinalidade muito maior do que o realmente necessário ou esperado pela maioria das aplicações de análise de dados; e (ii) as consultas que os utilizam envolvem também operações de ordenação, embora a ordem seja um conceito não associado à teoria relacional. A segunda contribuição da tese aborda esses dois problemas, tratando os operadores de junção por similaridade existentes como casos particulares de um conjunto mais amplo de operadores binários, para o qual foi definido o conceito de Wide-joins. Os operadores wide-joins recuperam os pares mais similares em geral e incorporam a ordenação como uma operação interna ao processamento, de forma compatível com a teoria relacional e que permite restringir a cardinalidade dos resultados a tuplas de maior interesse para as aplicações. Os experimentos realizados mostram que os wide-joins são rápidos o suficiente para serem usados em aplicações reais, retornam resultados de qualidade melhor do que os métodos concorrentes e são mais adequados para execução num ambiente relacional do que os operadores de junção por similaridade tradicionais.
2022-12-06T14:47:11Z
Luiz Olmes Carvalho
A reference architecture of healthcare supportive home systems from a systems-of-systems perspective
Population ageing has been taking place all over the world, being estimated that 2.1 billion people will be aged 60 or over in 2050. Healthcare Supportive Home (HSH) Systems have been proposed to overcome the high demand of remote home care for assisting an increasing number of elderly people living alone. Since a heterogeneous team of healthcare professionals need to collaborate to continually monitor health status of chronic patients, a cooperation of pre-existing e-Health systems, both outside and inside home, is required. However, current HSH solutions are proprietary, monolithic, high coupled, and expensive, and most of them do not consider their interoperation neither with distributed and external e-Health systems, nor with systems running inside the home (e.g., companion robots or activity monitors). These systems are sometimes designed based on local legislations, specific health system configurations (e.g., public, private or mixed), care plan protocols, and technological settings available; therefore, their reusability in other contexts is sometimes limited. As a consequence, these systems provide a limited view of patient health status, are difficult to evolve regarding the evolution of patients health profile, do not allow continuous patients monitoring, and present limitations to support the self-management of multiple chronic conditions. To contribute to solve the aforementioned challenges, this thesis establishes HomecARe, a reference architecture for supporting the development of quality HSH systems. HomecARe considers HSH systems as Systems-of-Systems (SoS) (i.e., large, complex systems composed of heterogeneous, distributed, and operational and managerial independent systems), which achieve their missions (e.g., improvement of patients quality of life) through the behavior that emerges as result of collaborations among their constituents. To establish HomecARe, a systematic process to engineer reference architectures was adopted. As a result, HomecARe presents domain knowledge and architectural solutions (i.e., architectural patterns and tactics) described using conceptual, mission, and quality architectural viewpoints. To assess HomecARe, a case study was performed by instantiating HomecARe to design the software architecture of DiaManT@Home, a HSH system to assist at home patients suffering of diabetes mellitus. Results evidenced HomecARe is a viable reference architecture to guide the development of reusable, interoperable, reliable, secure, and adaptive HSH systems, bringing important contributions for the areas of e-Health, software architecture, and reference architecture for SoS.
2022-12-06T14:47:11Z
Lina María Garcés Rodríguez
On the support of the similarity-aware division operator in a relational database management system
The Division operator (&division;) from the Relational Algebra allows simple and intuitive representation of queries with the concept of \"for all\", and thus it is required by many real applications. However, the Relational Division is unable to support the needs of modern applications that manipulate complex data, such as images, audio, long texts, genetic sequences, etc. These data are better compared for similarity, whereas the Division always compares values for equality. Recent works focused on extending the Relational Algebra and database operators to support similarity comparison. This project incorporated the Similarity-Aware Divison Operator in a Relational Database Management System (RDBMS) and studied its relationship with other query operators. We extended a similarity-oriented SQL to represent the Similarity-Aware Division Operator in a simple and intuitive manner and implemented state-of-art algorithms, internal database queries and resources for similarity data manipulation all inside the RDBMS. This solution presents strategies for efficient and improved performance queries. For semantical validation, it was performed a case study of an application that finds prospective companies able to bid in public request for tenders (RFT) using similarity comparison on RFTs documents and companies\'s catalogs. We evaluated the quality of results in a case study with real datasets from request for tenders from public brazilian food companies. In the experiments, the Similarity-Aware Division Operator was able to identify which RFT which company can participate in with 90% recall.
2022-12-06T14:47:11Z
Guilherme Queiroz Vasconcelos