Repositório RCAAP

Reúso de software voltado ao domínio de sistemas de combate ao Aedes aegypti no contexto de Internet das Coisas

Os Países em desenvolvimento, como o Brasil, principalmente, são afetados por doenças transmitidas pelo mosquito Aedes aegypti, entre as quais destacam-se a Dengue, Zika e Chikungunya. Essas doenças podem levar à morte e, de acordo com a Organização Mundial da Saúde (OMS), é preciso tomar precauções para controlá-las. Os sistemas que usam tecnologias baseadas em Internet das Coisas (IoT, do acrônimo Internet of Things) estão começando a ser usados na luta contra esse mosquito, pois o uso dessa tecnologia pode detectar condições favoráveis à proliferação do mosquito e alertas podem ser gerados para que entidades públicas de Saúde tomem as medidas cabíveis para combater o mosquito. No entanto, muito mais do que isso precisa ser feito. Por se tratar de uma área de pesquisa e desenvolvimento ainda nova, a IoT possui poucos estudos publicados a respeito de seu uso no combate ao Aedes aegypti, e esse assunto já se mostrou relevante na literatura. Portanto, os objetivos deste estudo são três: primeiro, selecionar, organizar, e investigar os desafios do uso de aplicações baseados em Internet das Coisas (IoT) para combater mosquitos, identificando possíveis lacunas para pesquisas futuras; segundo, extrair informações úteis para a possível construção de sistemas de combate ao mosquito Aedes aegypti; e terceiro, construir um protótipo de framework caixa branca (ComGypti, do acrônimo Combat to Aedes aegypti) que abstraia funcionalidades primordiais dos modelos gerados nas duas etapas anteriores. Foi realizado um Mapeamento Sistemático da Literatura (MSL) para identificar lacunas nas metodologias existentes que usam a IoT para construir sistemas de combate a mosquitos. Os resultados desse mapeamento, juntamente com entrevistas com especialistas em Saúde no contexto das agências de saúde brasileiras, possibilitaram a realização de uma análise de domínio que é apresentada aqui por meio de modelos abstratos de requisitos funcionais, e com base neles foi construído o ComGypti. Os modelos fornecidos nesta dissertação podem ser reutilizados durante a engenharia de requisitos de sistemas de combate ao Aedes aegypti, bem como o ComGypti, assim facilitando e tornando mais eficiente o desenvolvimento desses sistemas.

Ano

2020

Creators

Henrique de Araujo Silva

Study and definition of project attributes for selection of testing techniques for concurrent software

[Context:] The choice of a testing technique to be adopted in a software testing project is based on the testers knowledge and often does not consider all testing techniques available. The selection of the right technique at any stage is one of the critical problems in software development. In a previous project of this research group, a framework was defined for supporting the systematic selection of concurrent software testing techniques. A characterization scheme was proposed and implemented in SeleCTT tool, which is composed of a set of attributes that considers characteristics of concurrent programs. The framework calculates suitable attributes for guiding the selection of testing techniques for a particular software project. [Objective:] The selection of a testing technique at each stage of a softwares life cycle depends on many factors. This work aims to contribute to the activity of selecting testing techniques for concurrent programs, investigating the characterization of project attributes, and proposing an approach of combining testing techniques to improve the selection process of SeleCTT. [Methodology:] A catalog with 61 selection attributes used for testing techniques selection was elaborated, and most attributes used are concentrated in the general testing characteristics\" category and, then, in software project\", which highlights the importance of such categories for supporting the selection. Moreover, a combination of the selection attributes incorporated in SeleCTT was proposed. After the calculation of the testing technique suitability according to data of a software project informed as input, SeleCTT recommends more than one technique, considering information related to concurrent bugs and testing level attributes. It, therefore, guides the user in the application of complementary testing techniques that can find different faults. [Results and Conclusions:] The results suggest our combined selection approach has achieved higher effectiveness in the selection of testing techniques for concurrent programs. Choosing a good testing technique can improve the quality of a software project and even reduce the development cost. The results obtained from the contributions made in the process of selecting testing techniques are promising and contribute to the quality of the testing activity.

Ano

2020

Creators

Italo de Oliveira Santos

"Avaliação de desempenho com algoritmos de escalonamento em clusters de servidores Web"

O surgimento de novos serviços e aplicações baseados na Web tem provocado um aumento desenfreado na quantidade de usuários da World Wide Web que, por sua vez, se torna cada vez mais popular no mundo dos negócios. Sites de e-commerce, que demandam grande tráfego de requisições, têm adotado sistemas de servidores Web distribuídos, como a arquitetura Web Cluster. Isso se deve ao fato de enfrentarem frequentemente situações de sobrecarga, durante as quais podem deixar de atender requisições de transação (com grande probabilidade de gerar renda) por conta do aumento na demanda de requisições de navegação (geram renda apenas de forma indireta). A utilização ineficiente de recursos pode comprometer o desempenho do sistema e é nesse contexto que este trabalho se insere. Neste trabalho foi desenvolvido um modelo de Servidor Web para E-Commerce (SWE-C),validado por meio de um modelo de simulação e uma carga sintética gerada a partir de um modelo desenvolvido com os principais tipos de requisições que caracterizam um site de e-commerce. Foram realizadas simulações no sistema com diversas combinações de algoritmos de escalonamento e disciplinas de atendimentos para filas, dentre as quais de destaca uma nova disciplina que utiliza um mecanismo de prioridades orientado ao consumo de CPU proposto neste trabalho. O objetivo é aumentar o throughput de requisições de transação e melhorar os tempos de resposta em situações de sobrecarga. Uma avaliação de desempenho foi realizado e constatou-se que o mecanismo de prioridades proposto é adequado às necessidades de um site de e-commerce.

Ano

2006

Creators

Caio Peres Sabo

Implementação e comparação de métodos de estimativa da dimensão fractal e sua aplicação à análise e processamento de imagens

A Dimensão Fractal pode ser utilizada para medir algumas características ligadas a complexidade da imagem, permitindo seu uso em análise de formas e texturas e reconhecimento de padrões. Neste trabalho é apresentado um estudo comparativo entre alguns dos principais métodos de estimativa da Dimensão Fractal. Foi realizada uma análise experimental e um estudo de casos para cada uma das técnicas, levando em consideração aspectos de implementação, precisão, variação de resultados segundo ajuste de parâmetros e tolerância a ruídos. Neste trabalho também foi desenvolvido um estudo sobre a Dimensão Fractal Multiescala, visando seu emprego como metodologia de assinatura de complexidade. Na literatura a técnica de multiescala é limitada ao método de Bouligand-Minkowski, sendo aqui ela estendida para outras metodologias de estimativa de Dimensão Fractal. Por meio de análise experimental as metodologias propostas foram comparadas e os resultados discutidos, enfatizando as vantagens e desvantagens destas técnicas.

Ano

2006

Creators

Andre Ricardo Backes

Segurança em sistemas embarcados críticos - utilização de criptografia para comunicação segura

Este trabalho contempla o estudo de algoritmos criptográficos para assegurar a comunicação entre sistemas embarcados críticos tendo em vista o grande crescimento na utilização e disseminação desse tipo de sistema, bem como a alta necessidade em se assegurar as informações que são enviadas e recebidas. Um dos desafios a serem contemplados é o estudo e a avaliação do impacto no desempenho desses sistemas, levando em consideração limitações de recursos inerentes a esta plataforma e a criticidade da comunicação em sistemas de tempo real. Os experimentos realizados são de cunho prático por meio de um protótipo implementado em kits Gumstix Overo EVM. Os resultados avaliam os principais algoritmos de criptografia, provendo informações que podem auxiliar na escolha de uma solução criptográfica própria para ambientes embarcados

Ano

2012

Creators

Daniel Fernando Pigatto

Reconstrução tomográfica de imagens SPECT a partir de poucos dados utilizando variação total

Para realizar a correção de atenuação em uma tomografia computadorizada por emissão de fóton único (SPECT, em inglês) é necessário medir e reconstruir o mapa dos coeficientes de atenuação utilizando uma leitura de um tomógrafo de transmissão, feita antes ou simultaneamente à leitura de emissão. Essa abordagem encarece a produção da imagem e, em alguns casos, aumenta consideravelmente a duração do exame, sendo a imobilidade do paciente um fator importante para o sucesso da reconstrução. Uma alternativa que dispensa a leitura de transmissão é reconstruir tanto a imagem de atividade quanto o mapa de atenuação somente através dos dados de uma leitura de emissão. Dentro dessa abordagem propusermos um método baseado no algoritmo criado por Censor, cujo objetivo é resolver um problema misto de viabilidade côncavo-convexo para reconstruir simultaneamente as imagens. O método proposto é formulado como um problema de minimização, onde a função objetivo é dada pela variação total das imagens sujeita à viabilidade mista de Censor. Os teste foram feitos em imagens simuladas e os resultados obtidos na ausência de ruídos, mesmo para uma pequena quantidade de dados, foram satisfatórios. Na presença de dados ruidosos com distribuição de Poisson o método foi instável e a escolha das tolerâncias, nesse caso, ainda é um problema aberto.

Ano

2017

Creators

João Guilherme Vicente de Araujo

"Pré-processamento de dados em aprendizado de máquina supervisionado"

A qualidade de dados é uma das principais preocupações em Aprendizado de Máquina - AM -cujos algoritmos são freqüentemente utilizados para extrair conhecimento durante a fase de Mineração de Dados - MD - da nova área de pesquisa chamada Descoberta de Conhecimento de Bancos de Dados. Uma vez que a maioria dos algoritmos de aprendizado induz conhecimento estritamente a partir de dados, a qualidade do conhecimento extraído é amplamente determinada pela qualidade dos dados de entrada. Diversos aspectos podem influenciar no desempenho de um sistema de aprendizado devido à qualidade dos dados. Em bases de dados reais, dois desses aspectos estão relacionados com (i) a presença de valores desconhecidos, os quais são tratados de uma forma bastante simplista por diversos algoritmos de AM, e; (ii) a diferença entre o número de exemplos, ou registros de um banco de dados, que pertencem a diferentes classes, uma vez que quando essa diferença é expressiva, sistemas de aprendizado podem ter dificuldades em aprender o conceito relacionado com a classe minoritária. O problema de tratamento de valores desconhecidos é de grande interesse prático e teórico. Em diversas aplicações é importante saber como proceder quando as informações disponíveis estão incompletas ou quando as fontes de informações se tornam indisponíveis. O tratamento de valores desconhecidos deve ser cuidadosamente planejado, caso contrário, distorções podem ser introduzidas no conhecimento induzido. Neste trabalho é proposta a utilização do algoritmo k-vizinhos mais próximos como método de imputação. Imputação é um termo que denota um procedimento que substitui os valores desconhecidos de um conjunto de dados por valores plausíveis. As análises conduzidas neste trabalho indicam que a imputação de valores desconhecidos com base no algoritmo k-vizinhos mais próximos pode superar o desempenho das estratégias internas utilizadas para tratar valores desconhecidos pelos sistemas C4.5 e CN2, bem como a imputação pela média ou moda, um método amplamente utilizado para tratar valores desconhecidos. O problema de aprender a partir de conjuntos de dados com classes desbalanceadas é de crucial importância, uma vez que esses conjuntos de dados podem ser encontrados em diversos domínios. Classes com distribuições desbalanceadas podem se constituir em um gargalo significante no desempenho obtido por sistemas de aprendizado que assumem uma distribuição balanceada das classes. Uma solução para o problema de aprendizado com distribuições desbalanceadas de classes é balancear artificialmente o conjunto de dados. Neste trabalho é avaliado o uso do método de seleção unilateral, o qual realiza uma remoção cuidadosa dos casos que pertencem à classe majoritária, mantendo os casos da classe minoritária. Essa remoção cuidadosa consiste em detectar e remover casos considerados menos confiáveis, por meio do uso de algumas heurísticas. Uma vez que não existe uma análise matemática capaz de predizer se o desempenho de um método é superior aos demais, análises experimentais possuem um papel importante na avaliação de sistema de aprendizado. Neste trabalho é proposto e implementado o ambiente computacional Discover Learning Environmnet - DLE - o qual é um em framework para desenvolver e avaliar novos métodos de pré-processamento de dados. O ambiente DLE é integrado ao projeto Discover, um projeto de pesquisa em desenvolvimento em nosso laboratório para planejamento e execução de experimentos relacionados com o uso de sistemas de aprendizado durante a fase de Mineração de dados do processo de KDD.

Ano

2003

Creators

Gustavo Enrique de Almeida Prado Alves Batista

Construção semi-automática de taxonomias para generalização de regras de associação

Para o sucesso do processo de mineração de dados é importante que o conhecimento extraí?do seja compreensível e interessante para que o usuário final possa utilizá-lo em um sistema inteligente ou em processos de tomada de decisão. Um grande problema, porém, é identificado quando a tarefa de mineração de dados denominada associação é utilizada: a geração de um grande volume de regras. Taxonomias podem ser utilizadas para facilitar a análise e interpretação das regras de associação, uma vez que as mesmas provêm uma visão de como os itens podem ser hierarquicamente classificados. Em função dessa hierarquia é possível obter regras mais gerais que representem um conjunto de itens. Dentro desse contexto, neste trabalho é apresentada uma metodologia para construção semi-automática de taxonomias, que inclui procedimentos automáticos e interativos para a realização dessa tarefa. Essa combinação possibilita a utilização do conhecimento do especialista e também o auxilia na identificação de grupos. Entre os principais resultados deste trabalho, pode-se destacar a proposta e implementação do algoritmo SACT (Semi-automatic Construction of Taxonomies - Construção Semi-automática de Taxonomias), que provê a utilização da metodologia proposta. Para viabilizar a utilização do algoritmo, foi desenvolvido o módulo computacional RulEESACT. Com o objetivo de viabilizar e analisar a qualidade da metodologia proposta e do módulo desenvolvido, foi realizado um estudo de caso no qual foram construída taxonomias para duas bases de dados utilizando o RulEE-SACT. Uma das taxonomias foi analisada e validada por uma especialista do domínio. Posteriormente, as taxonomias e as bases de transações foram fornecidas para dois algoritmos de generalização de regras de associação a fim de analisar a aplicação das taxonomias geradas

Ano

2006

Creators

Camila Delefrate Martins

Integrando projeções multidimensionais à analise visual de redes sociais

Há várias décadas, pesquisadores em ciências sociais buscam formas gráficas para expressar as relações humanas na sociedade. O advento do computador e, mais recentemente, da internet, possibilitou o surgimento de um campo que tem despertado a atenção de estudiosos das áreas de visualização de informação e de ciências sociais, o da visualização de redes sociais. Esse campo tem o potencial de revelar e explorar padrões que podem beneficiar um número muito grande de aplicações e indivíduos em áreas tais como comércio, segurança em geral, redes de conhecimento e pesquisa de mercado. Grande parte dos algoritmos de visualização de redes sociais são baseados em grafos, destacando relacionamentos entre indivíduos e grupos de indivíduos, mas dando pouca atenção aos seus demais atributos. Assim, este trabalho apresenta um conjunto de soluções para representar e explorar visualmente redes sociais levando em consideração tais atributos. A primeira solução faz uso de redes heterogêneas, onde tanto indivíduos quanto comunidades são representados no grafo; a segunda solução utiliza técnicas de visualização baseadas em projeção multidimensional, que promovem o posicionamento dos dados no plano de acordo com algum critério de similaridade baseado em atributo; e a última solução coordena múltiplas visões para focar rapidamente em regiões de interesse. Os resultados indicam que as soluções proveem um poder de representação e identificação de conceitos não facilmente detectados por formas convencionais de visualização e exploração de grafos, com indícios fornecidos através dos estudos de caso e da realização de avaliações com usuários. Este trabalho fornece um estudo das áreas de visualização em grafos para a análise de redes sociais bem como uma implementação das soluções de integração da visualização em redes com as projeções multidimensionais

Ano

2010

Creators

Gabriel de Faria Andery

Identificação de outliers em redes complexas baseado em caminhada aleatória

Na natureza e na ciência, dados e informações que desviam significativamente da média frequentemente possuem grande relevância. Esses dados são usualmente denominados na literatura como outliers. A identificação de outliers é importante em muitas aplicações reais, tais como detecção de fraudes, diagnóstico de falhas, e monitoramento de condições médicas. Nos últimos anos tem-se testemunhado um grande interesse na área de Redes Complexas. Redes complexas são grafos de grande escala que possuem padrões de conexão não trivial, mostrando-se uma poderosa maneira de representação e abstração de dados. Embora um grande montante de resultados tenham sido reportados nesta área de pesquisa, pouco tem sido explorado acerca de detecção de outliers em redes complexas. Considerando-se a dinâmica de uma caminhada aleatória, foram propostos neste trabalho uma medida de distância e um método de ranqueamento de outliers. Através desta técnica, é possível detectar como outlier não somente nós periféricos, mas também nós centrais (hubs), depedendo da estrutura da rede. Também foi identificado que existem características bem definidas entre os nós outliers, relacionadas a funcionalidade dos mesmos para a rede. Além disso, foi descoberto que nós outliers têm papel importante para a rotulação a priori na tarefa de detecção de comunidades semi-supervisionada. Isto porque os nós centrais são bons difusores de informação e os nós periféricos encontram-se em regiões de borda de comunidade. Baseado nessa observação, foi proposto um método de detecção de comunidades semi-supervisionado. Os resultados de simulações mostram que essa abordagem é promissora

Ano

2010

Creators

Bilzã Marques de Araújo

Uma técnica multimalhas para eliminação de ruídos e retoque digita\"

Técnicas baseadas na Equação de Fluxo Bem-Balanceada têm sido muitas vezes empregadas como eficientes ferramentas para eliminação de ruídos e preservação de arestas em imagens digitais. Embora efetivas, essas técnicas demandam alto custo computacional. Este trabalho objetiva propor uma técnica baseada na abordagem multigrid para acelerar a solução numérica da Equação de Fluxo Bem-Balanceada. A equação de difusão é resolvida em uma malha grossa e uma correção do erro na malha grossa para as mais finas é aplicada para gerar a solução desejada. A transferência entre malhas grossas e finas é feita pelo filtro de Mitchell, um esquema bem conhecido que é projetado para preservação de arestas. Além disso, a equação do transporte e a Equação do Fluxo de Curvatura são adaptadas à nossa técnica para retoque em imagens e eliminação de ruí?dos. Resultados numéricos são comparados quantitativamente e qualitativamente com outras abordagens, mostrando que o método aqui introduzido produz qualidade de imagens similares com muito menos tempo computacional.

Ano

2006

Creators

Carolina Toledo Ferraz

Adaptação de vídeo ao vivo apoiada em informações de contexto

O trabalho apresentado nesta dissertação trata do desenvolvimento de um mecanismo para adaptação automática de ví?deo MPEG-4 ao vivo, de modo a atender as necessidades ou capacidades atuais de usuários e do sistema. Um dos desafios dessa área é capturar e representar as informações necessárias para realizar a adaptação. Assim, utilizando técnicas da área de computação ciente de contexto, foi desenvolvido um modelo extensível para representação de dispositivos. Também foram desenvolvidos métodos automáticos e semi-automáticos para capturar as informações necessárias. Neste trabalho foi adotado o modelo de recodificação de vídeo, o qual pode gerar atrasos que inviabilizam a adaptação de vídeo ao vivo em aplicações interativas. Assim, este trabalho realizou uma avaliação do impacto causado pela recodificação no atraso total, fim-a-fim, percebido pelo usuário.

Ano

2006

Creators

Marcelo Garcia Manzato

Investigação de alternativas para transmissão de áudio e vídeo na internet: avaliação dos algoritmos de seleção de componentes na arquitetura S-MOJOHON

No contexto da Internet convencional, são várias as soluções oferecidas para transferência de fluxos de áudio e vídeo. Este trabalho é realizado no contexto de uma rede de grande largura de banda e de baixa latência, como aquela que está sendo investigada no contexto do Programa FAPESP TIDIA. O grupo de pesquisa no qual este trabalho foi realizado propôs a arquitetura S-MOJOHON (Lobato et al., 2007a), elaborada com o intuito de permitir transmissão de vários tipos de dados, principalmente áudio e vídeo, no ambiente TIDIA. Os componentes intermediários de uma arquitetura voltada para transmissão de fluxos de áudio e vídeo na Internet, como é o caso da S-MOJOHON, precisam ser selecionados de maneira que possibilitem a entrega de informações entre componentes finais da melhor forma possível. Nesse sentido, o trabalho reportado nesta dissertação envolveu a avaliação dos algoritmos de seleção utilizados nas diferentes implementações da arquitetura S-MOJOHON. Analisando os resultados obtidos, criou-se um novo algoritmo de seleção de componentes que explora as vantagens dos algoritmos avaliados anteriormente. Este texto apresenta a arquitetura S-MOJOHON, a avaliação dos algoritmos de seleção, o novo algoritmo proposto e sua avaliação

Ano

2008

Creators

Matheus Qualio Barbosa

Análise e implementação de métodos implícitos e de projeção para escoamentos com superfície livre.

No contexto do método MAC e baseado em esquemas de diferenças finitas, este trabalho apresenta três estudos: i) uma análise de estabilidade, ii) o desenvolvimento de técnicas implícitas e, iii) a construção de métodos de projeção para escoamentos com superfície livre. Na análise de estabilidade, o principal resultado mostra que o método de Crank-Nicolson torna-se condicionalmente estável quando aplicado para uma malha deslocada com a discretiza ção explícita das condições de contorno do tipo Dirichlet. Entretanto, o mesmo método com condições de contorno implícitas é incondicionalmente estável. Para obter métodos mais estáveis, formulações implícitas são desenvolvidas para a equação da pressão na superfície livre, derivada da condição de tensão normal. Esta estratégia resulta no acoplamento dos campos de velocidade e pressão, o que exige a introdução de novos métodos de projeção. Os métodos de projeção assim desenvolvidos resultam em novas metodologias para escoamentos com superfície livre que são apropriados para o tratamento de problemas com baixo número de Reynolds. Além disso, mostra-se que os métodos propostos podem ser aplicados para fluidos viscoelásticos. Novas estratégias são derivadas para obter métodos de projeção de segunda ordem de precisão para escoamentos com superfícies livres. Além dos resultados teóricos sobre a estabilidade de esquemas numéricos, técnicas implícitas e métodos de projeção, testes computacionais são realizados e comparados para consolidação da teoria apresentada. Os resultados numéricos são obtidos no sistema FREEFLOW. A eficiência e robustez das técnicas desenvolvidas neste trabalho são demonstradas na solução de problemas tridimensionais complexos com superfície livre e baixo número de Reynolds, incluindo os problemas do jato oscilante e do inchamento do extrudado

Ano

2008

Creators

Cássio Machiaveli Oishi

Sobre o uso da gramática de dependência extensível na geração de língua natural: questões de generalidade, instanciabilidade e complexidade

A Geração de Língua Natural (GLN) ocupa-se de atribuir forma lingüística a dados em representação não-lingüística (Reiter & Dale, 2000); a Realização Lingüística (RL), por sua vez, reúne as subtarefas da GLN estritamente dependentes das especificidades da língua-alvo. Este trabalho objetiva a investigação em RL, uma de cujas aplicações mais proeminentes é a construção de módulos geradores de língua-alvo na tradução automática baseada em transferência semântica. Partimos da identificação de três requisitos fundamentais para modelos de RL quais sejam generalidade, instanciabilidade e complexidade e da tensão entre esses requisitos no estado da arte. Argumentamos pela relevância da avaliação formal dos modelos da literatura contra esses critérios e focalizamos em modelos baseados em restrições (Schulte, 2002) como promissores para reconciliar os três requisitos. Nesta classe de modelos, identificamos o recente modelo de Debusmann (2006) Extensible Dependency Grammar (XDG) e sua implementação - o XDG Development Toolkit (XDK) - como uma plataforma especialmente promissora para o desenvolvimento em RL, apesar de jamais utilizada para tal. Nossas contribuições práticas se resumem ao esforço de tornar o XDK mais eficiente e uma formulação da disjunção inerente à lexicalização adequada à XDG, demonstrando suas potenciais vantagens numa sistema de GLN mais completo

Ano

2008

Creators

Jorge Marques Pelizzoni

Memória associativa em redes neurais realimentadas

Nessa dissertação, é investigado o armazenamento e a recuperação de padrões de forma biologicamente inspirada no cérebro. Os modelos estudados consistiram de redes neurais realimentadas, que tentam modelar certos aspectos dinâmicos do funcionamento do cérebro. Em particular, atenção especial foi dada às Redes Neurais Celulares, que constituem uma versão localmente acoplada do já clássico modelo de Hopfield. Além da análise de estabilidade das redes consideradas, foi realizado um teste com o intuito de avaliar o desempenho de diversos métodos de construção de memórias endereçáveis por conteúdo (memórias associativas) em Redes Neurais Celulares.

Ano

2004

Creators

Leonardo Garcia Corrêa

"Metodologias para geração e atualização de mosaicos de fotos aéreas no Projeto ARARA"

A produção de mosaicos fotográficos é uma atividade de apoio bastante importante em diversas áreas tais como a geração de mapas, o monitoramento ambiental e o gerenciamento agrícola. A fotogrametria, e em especial a aerofotogrametria, é a ciência que trata, entre outros tópicos, da geração de mosaicos através de procedimentos trabalhosos, o que torna sua manutenção uma tarefa difícil e de alto custo. O Projeto ARARA (Aeronaves de Reconhecimento Assistidas por Rádio e Autônomas) representa uma alternativa de baixo custo para a aquisição de fotografias aéreas. Câmeras digitais de pequeno formato a bordo das aeronaves permitem a obtenção automática das fotografias necessárias para a geração de mosaicos. Este trabalho propõe uma metodologia para a geração e a atualização de mosaicos compostos por fotografias aéreas oblíquas digitais e de pequeno formato, adquiridas com o auxílio das aeronaves do Projeto ARARA. As fotografias podem ser submetidas a procedimentos que associam técnicas de ortoretificação e processamento digital de imagens para corrigir suas distorções geométricas e radiométricas. A metodologia apresentada neste trabalho procura evitar a necessidade de pontos de controle no solo e focaliza a geração automática ou semi-automática dos mosaicos. Procedimentos automáticos têm o potencial de permitir a utilização de uma grande quantidade de fotografias de pequeno formato em substituição às fotografias normalmente utilizadas pela aerofotogrametria convencional.

Ano

2004

Creators

Rodrigo Borges dos Santos

Análise e avaliação de técnicas de interação humano-computador para sistemas de recuperação de imagens por conteúdo baseadas em estudo de caso

A recuperação de imagens baseada em conteúdo, amplamente conhecida como CBIR (do inglês Content-Based Image Retrieval), é um ramo da área da computação que vem crescendo muito nos últimos anos e vem contribuindo com novos desafios. Sistemas que utilizam tais técnicas propiciam o armazenamento e manipulação de grandes volumes de dados e imagens e processam operações de consultas de imagens a partir de características visuais extraídas automaticamente por meio de métodos computacionais. Esses sistemas devem prover uma interface de usuário visando uma interação fácil, natural e atraente entre o usuário e o sistema, permitindo que o usuário possa realizar suas tarefas com segurança, de modo eficiente, eficaz e com satisfação. Desse modo, o design da interface firma-se como um elemento fundamental para o sucesso de sistemas CBIR. Contudo, dentro desse contexto, a interface do usuário ainda é um elemento constituído de pouca pesquisa e desenvolvimento. Um dos obstáculos para eficácia de design desses sistemas consiste da necessidade em prover aos usuários uma interface de alta qualidade para permitir que o usuário possa consultar imagens similares a uma dada imagem de referência e visualizar os resultados. Para atingir esse objetivo, este trabalho visa analisar a interação do usuário em sistemas de recuperação de imagens por conteúdo e avaliar sua funcionalidade e usabilidade, aplicando técnicas de interação humano-computador que apresentam bons resultados em relação à performance de sistemas com grande complexidade, baseado em um estudo de caso aplicado à medicina

Ano

2007

Creators

Ana Lúcia Filardi

Uma plataforma para ensino e treinamento em desenvolvimento de sistemas operacionais

Este trabalho tem como objetivo propor e desenvolver uma plataforma para ensino e treinamento em técnicas de projeto e implementação de sistemas operacionais. Após mais de uma década de hegemonia de alguns poucos produtos comerciais, o estabelecimento do paradigma do software livre e a proliferação de arquiteturas embarcadas capazes de executar um sistema operacional (SO) implicam em demanda de especialistas para atuarem diretamente no desenvolvimento de novos SOs, adequados a novos requisitos das aplicações emergentes. Assim, para além de disciplina de formação teórica, o conhecimento em sistemas operacionais tem reforçado seu caráter prático como competência técnica perspectiva que este trabalho atende mediante uma abordagem de aprendizado baseado em projetos. A principal contribuição para o estado da arte nesse domínio é um roteiro de instrução que associa teoria e prática por meio do processo de desenvolvimento integral de um sistema operacional funcional

Ano

2012

Creators

Renê de Souza Pinto

NeuroFSM: aprendizado de Autômatos Finitos através do uso de Redes Neurais Artificiais aplicadas à robôs móveis e veículos autônomos

A navegação autônoma é uma tarefa fundamental na robótica móvel. Para que esta tarefa seja realizada corretamente é necessário um sistema inteligente de controle e navegação associado ao sistema sensorial. Este projeto apresenta o desenvolvimento de um sistema de controle para a navegação de veículos e robôs móveis autônomos. A abordagem utilizada neste trabalho utiliza Redes Neurais Artificiais para o aprendizado de Autômatos Finitos de forma que os robôs possam lidar com os dados provenientes de seus sensores mesmo estando sujeitos a imprecisões e erros e ao mesmo tempo permite que sejam consideradas as diferentes situações e estados em que estes robôs se encontram (contexto). Dessa forma, é possível decidir como agir para realizar o controle da sua movimentação, e assim executar tarefas de controle e navegação das mais simples até as mais complexas e de alto nível. Portanto, esta dissertação visa utilizar Redes Neurais Artificiais para reconhecer o estado atual (contexto) do robô em relação ao ambiente em que está inserido. Uma vez que seja identificado seu estado, o que pode inclusive incluir a identificação de sua posição em relação aos elementos presentes no ambiente, o robô será capaz de decidir qual a ação/comportamento que deverá ser executado. O sistema de controle e navegação irá implementar um Autômato Finito que a partir de um estado atual define uma ação corrente, sendo capaz de identificar a mudança de estados, e assim alternar entre diferentes comportamentos previamente definidos. De modo a validar esta proposta, diversos experimentos foram realizados através do uso de um simulador robótico (Player-Stage), e através de testes realizados com robôs reais (Pioneer P3-AT, SRV-1 e veículos automatizados)

Ano

2012

Creators

Daniel Oliva Sales