Repositório RCAAP

Simulação numérica direta de escoamento transicional sobre uma superfície contendo rugosidade

Em diversos escoamentos sobre superfícies há a presença de protuberâncias, como por exemplo rebites, parafusos e juntas. Estas protuberâncias podem influenciar a camada limite, acelerando a transição do escoamento do estado laminar para o estado turbulento. Em alguns casos isto pode ser indesejável, já que o escoamento turbulento implica necessariamente em uma força de atrito maior do que aquela referente ao escoamento laminar. Existem alguns aspectos neste tipo de escoamento que ainda não estão bem compreendidos. O objetivo deste trabalho é estudar a influência de uma rugosidade isolada no escoamento sobre uma superfície. Este estudo contribui para se entender o que ocorre em casos de maior complexidade. O estudo é de natureza computacional, em que se utiliza simulação numérica direta das equações de Navier-Stokes. A técnica de fronteiras imersas é utilizada para representar a rugosidade no escoamento sobre a superfície. O código numérico é verificado por meio do método de soluções manufaturadas. Comparações entre resultados experimentais, da teoria de estabilidade linear e numéricos também são utilizados para a validação do código. Resultados obtidos com diferentes alturas de rugosidade e variações no gradiente de pressão permitiram analisar a influência de elemento rugoso tridimensional em escoamentos de camada limite.

Ano

2015

Creators

Larissa Alves Petri

Estimação de obstáculos e área de pista com pontos 3D esparsos

De acordo com a Organização Mundial da Saúde,cerca de 1,2milhões de pessoas no mundo morrem em acidentes de trânsito. Sistemas de assistência ao motorista e veículos autônomos podem diminuir o número de acidentes. Dentre as várias demandas existentes para viabilizar essa tecnologia, sistemas computacionais de percepção ainda permanecem sem uma solução definitiva. Dois deles, detecção de obstáculos e de via navegável, normalmente fazem uso de algoritmos sofisticados como técnicas de aprendizado supervisionado, que mostram resultados impressionantes quando treinados com bases de dados bem definidas e diversificadas.Entretanto, construir, manter e atualizar uma base de dados com exemplos de vários lugares do mundo e em diversas situações é trabalhoso e complexo. Assim, métodos adaptativos e auto-supervisionados mostram-se como boas alternativas para sistemas de detecção do futuro próximo. Neste contexto, esta tese apresenta um método para estimar obstáculose via navegável através de sensores de baixo custo (câmeras estereoscópicas), sem o uso de técnicas de aprendizado de máquina e de diversas suposições normalmente utilizadas por trabalhos já disponíveis na literatura. Esses métodos utilizando sensor estereoscópico foram comparados fazendo uso de sensores do tipo 3D-LIDAR e mostraram resultados semelhantes. Este sistema poderá ser usado como uma fase pré-processamento de dados para melhorar ou viabilizar métodos adaptativos de aprendizado.

Ano

2015

Creators

Patrick Yuri Shinzato

"Uma ferramenta baseada em aspectos para apoio ao teste funcional de programas Java"

A disponibilidade de ferramentas de teste de software propicia maior qualidade e produtividade para as atividades de teste. Diversas ferramentas têm sido propostas para o apoio ao teste estrutural, mas nota-se a falta de ferramentas que ofereçam suporte ao teste funcional e implementem os diversos critérios dessa técnica. Visando a preencher essa lacuna, uma ferramenta para apoio ao teste funcional de programas Java foi desenvolvida e é apresentada. A ferramenta apóia os principais critérios funcionais, tais como o Particionamento de Equivalência e Análise de Valor-limite, e oferece análise de cobertura baseada nos critérios da técnica funcional. A análise de cobertura é uma característica normalmente encontrada nas ferramentas que apóiam o teste estrutural, mas raramente disponível nas ferramentas que oferecem suporte ao teste funcional. O projeto da ferramenta é apresentado, no qual o conceito de separação de interesses é utilizado. A Programação Orientada a Aspectos é utilizada nas etapas de instrumentação e execução dos critérios de teste. O uso dessa técnica permite a separação clara entre o código de teste e o código do programa, assim como torna mais fácil a adição e remoção dos aspectos que implementam o teste, além de ser uma solução eficaz para o projeto da ferramenta. Um exemplo de uso da ferramenta é apresentado.

Ano

2005

Creators

André Dantas Rocha

SystEM-PLA: um método sistemático para avaliação de arquitetura de linha de produto de software baseada em UML

A abordagem de linha de produto de software (LP) tem como objetivo principal promover a geração de produtos específicos de um determinado domínio com base na reutilização de uma infraestrutura central, chamada núcleo de artefatos. Um dos principais artefatos do núcleo de uma LP é a Arquitetura de LP (ALP), que representa a abstração de todas as arquiteturas de sistemas únicos que podem ser gerados, para um domínio específico. Avaliações de ALP são importantes, pois permitem aumentar a produtividade e a qualidade dos produtos da LP, bem como, seus resultados permitem a análise de metas de negócio e de retorno de investimento. Este trabalho propõe um método sistemático para avaliação de ALP, o SystEM-PLA (a Systematic Evaluation Method for Software Product Line Architectures). Tal método considera modelos de ALP em UML, por ser uma notação amplamente conhecida e consolidada. SystEM-PLA é composto por um metaprocesso de avaliação, diretrizes que guiam o usuário em como avaliar uma ALP e métricas básicas para modelos UML e atributos de qualidade. O método utiliza a abordagem SMarty (Stereotype-based Management of Variability), para gerenciar variabilidades em LP baseadas em UML. Análises de trade-off com o objetivo de priorizar atributos de qualidade para o desenvolvimento e evolução dos produtos de uma LP são realizadas com base na aplicação e coleta das métricas do SystEM-PLA em configurações de uma ALP. As métricas propostas para os atributos de qualidade complexidade e extensibilidade foram validadas por meio de um estudo experimental. Evidências indicaram a viabilidade de aplicação do método SystEM-PLA na indústria com base em um estudo experimental realizado com profissionais de uma empresa de grande porte no setor de desenvolvimento de software

Ano

2010

Creators

Edson Alves de Oliveira Junior

Service-oriented middleware for dynamic, real-time management of heterogeneous geosensors in flood management

Natural disasters such as floods, droughts and storms cause many deaths and a great deal of damage worldwide. Recently, several countries have suffered from an the increased number of floods. This has led government agencies to seek to improve flood risk management by providing historical data obtained from stationary sensor networks to help communities that live in hazardous areas. However, the sensor networks can only help to check specific features (e.g. temperature and pressure), and are unable to contribute significantly to supplying the missing information that is required. In addition to stationary sensors, mobile sensors have also been used to monitor floods since they can provide images and reach distances that are not within the coverage of stationary sensors. By combining these heterogeneous sensors, an initiative called Sensor Web Enablement (SWE) seeks to free these applications from the idiosyncrasies that affect the implementation of these heterogeneous sensors. However, SWE cannot always be applied effectively in a context where sensors are embedded and removed dynamically. This dynamic context makes it a complex task to handle, control, access and discover sensors. In view of this, the aim of this work is to dynamically manage heterogeneous sensors involved in flood risk management in near real-time, by enabling interoperable access to their data and using open and reusable components. To achieve this goal, a service-oriented middleware was designed that contains a common protocol message, a dynamic sensor management component and a repository. This approach was evaluated performed by employing an application that prioritizes geographically social media messages based on sensor data.

Ano

2015

Creators

Luiz Fernando Ferreira Gomes de Assis

Avaliação de atributos de testabilidade para sistemas de suporte à decisão

As organizações públicas e privadas são constantemente expostas a fatores internos e externos, que podem comprometer sua estabilidade diante das oscilações da economia e dos concorrentes. Nestas empresas, os tomadores de decisão são essenciais para analisar e avaliar todas as variáveis que envolvem estes fatores, com o objetivo de identificar o melhor caminho para os negócios. Entretanto, conseguir gerenciar os dados internos e externos à organização não é uma atividade simples. Neste contexto, os Sistemas de Suporte à Decisão (SSD) tornaram-se fundamentais para auxiliar os tomadores de decisão na solução de problemas mal estruturados ou sem nenhuma estruturação. Porém, a complexidade que envolve os projetos de implantação ou desenvolvimento de um SSD, geralmente compromete a efetividade dos testes que garantem a conformidade do sistema em relação às especificações previamente definidas. Uma solução para esse problema é considerar os atributos ou fatores de testabilidade nestes projetos, pois podem elevar o grau de eficácia e eficiência da atividade de teste e consequentemente contribuírem para redução do tempo e custos do projeto. Portanto, conseguir identificar esses atributos ou fatores que tenham influência na testabilidade dos SSD e algum método que permita analisar e avaliar o quanto estão presentes neste sistema, é essencial para aumentar a qualidade do sistema. Diante desta necessidade, este trabalho investigou e selecionou os principais fatores que podem influenciar no grau de testabilidade de um software e propôs um método para analisar e avaliar o quanto o SSD está considerando esses fatores em sua arquitetura. Com o objetivo de avaliar e validar o método de análise e avaliação, foram realizados testes de aplicabilidade em empresas de pequeno, médio e grande porte, bem como no meio acadêmico. Com os resultados obtidos nos testes, foi possível concluir que o método é específico para SSD, que pode ser usado como um guia durante o processo de desenvolvimento e auxiliar na classificação de SSD quanto a sua testabilidade.

Ano

2016

Creators

Marcos Fernando Geromini

Explorando Internet das Coisas e Inteligência Artificial no contexto de Saúde em Casas Inteligentes: uma abordagem física e emocional

Devido ao aumento da população idosa ou com limitações físicas/mentais é possível observar o crescimento de estudos na área de Internet das Coisas com o objetivo de monitorar a saúde e auxiliar no gerenciamento e melhora na qualidade de vida dessa parte da população. Nesse sentido, a abordagem baseada em Internet das Coisas aplicada em ambientes médicos e casas inteligentes tem o objetivo de fornecer conectividade entre o paciente e o ambiente ao seu redor, provendo mecanismos para ajudar em diagnósticos e prevenção de acidentes e/ou doenças. Nesse contexto surge a oportunidade de explorar sistemas computacionais para identificar o estado físico e emocional, em tempo real, de indivíduos com alguma limitação para monitorar a saúde; por exemplo, identificar o comportamento da rotina do usuário e emitir alertas aos familiares e/ou equipe médica sobre algum evento anormal ou identificar indícios de distúrbios emocionais. Ainda, com base na Inteligência Artificial é possível que sistemas computacionais possam aprender e se adaptar ao contexto que se encontra, por exemplo aprender e se adaptar a quantidade de exercícios e/ou estado emocional do usuário em determinadas situações, combinando conceitos tanto de Internet of Things quanto de Inteligência Artificial. Assim, este projeto tem como objetivo desenvolver e avaliar um modelo que possa: i.) identificar o estado físico e emocional do usuário; ii.) prover um mecanismo que possa monitorar de maneira inteligente as atividades do cotidiano do usuário e; iii.) explorar a abordagem de integração de dados com a utilização de múltiplos sensores IoT para uma melhor interação entre dispositivos computacionais no ambiente Health Smart Homes.

Ano

2019

Creators

Leandro Yukio Mano Alves

Uma abordagem para a integração de diferentes fontes de dados provenientes de redes de sensores no contexto de internet das coisas

Internet das Coisas (IoT) tem como principal característica a conexão em rede entre dispositivos como sensores, smartphones e wearables, com a finalidade de coletar informações dos ambientes físicos em que se encontram. Um desafio relacionado é a falta de padronização da comunicação entre dispositivos e de um mecanismo que realiza o processamento, armazenamento e recuperação de dados de forma simplificada, sendo, portanto, um grande desafio a interoperabilidade. Esta dissertação introduz o Internet of Things Data as a Service Module (IoTDSM), uma abordagem que baseia-se no modelo de Data as a Service (DaaS), que tem como objetivo auxiliar a gestão de fontes de dados de sensores heterogêneos, que independem da sua origem, formato ou sistema de banco de dados utilizado. Além disso, é apresentado o Internet of Things Multi-Protocol Message Broker (IoTM2B), uma extensão do IoTDSM que permite a integração com diferentes protocolos de comunicação utilizados em redes de sensores. Neste sentido, para avaliação desta pesquisa foi utilizado a metodologia de avaliação de desempenho, a qual contribuiu para a identificação das limitações dos mecanismos propostos. Além disso, neste trabalho diferentes cenários de avaliação foram conduzidas: (i) avaliação de desempenho do Middleware Global Sensor Network (GSN), que auxiliou na definição dos demais cenários de avaliação abordados; (ii) avaliação de desempenho IoTDSM utilizando diferentes sistemas de bancos de dados (PostgreSQL ou MongoDB) e formatos de dados (JSON ou XML), para o processamento de dados climáticos; (iii) avaliação de desempenho uma estratégia IoTM2B a qual permitiu a integração do IoTDSM com os protocolos HTTP, MQTT e CoAP em um ambiente de comunicação Machine-to-Machine (M2M) e Computação em Nuvem; e, (iv) avaliação de uma arquitetura que realiza a classificação de emoções de usuários em um ambiente de casa inteligente. Por fim, é feito uma discussão sobre os resultados obtidos, além de demonstrar a possibilidade da integração do IoTDSM e IoTM2B com diferentes formatos de dados, estratégias de armazenamento e protocolos de comunicação.

Ano

2019

Creators

Vinícius Aires Barros

Agrupamento híbrido de dados utilizando algoritmos genéticos

Técnicas de Agrupamento vêm obtendo bons resultados quando utilizados em diversos problemas de análise de dados, como, por exemplo, a análise de dados de expressão gênica. Porém, uma mesma técnica de agrupamento utilizada em um mesmo conjunto de dados pode resultar em diferentes formas de agrupar esses dados, devido aos possíveis agrupamentos iniciais ou à utilização de diferentes valores para seus parâmetros livres. Assim, a obtenção de um bom agrupamento pode ser visto como um processo de otimização. Esse processo procura escolher bons agrupamentos iniciais e encontrar o melhor conjunto de valores para os parâmetros livres. Por serem métodos de busca global, Algoritmos Genéticos podem ser utilizados durante esse processo de otimização. O objetivo desse projeto de pesquisa é investigar a utilização de Técnicas de Agrupamento em conjunto com Algoritmos Genéticos para aprimorar a qualidade dos grupos encontrados por algoritmos de agrupamento, principalmente o k-médias. Esta investigação será realizada utilizando como aplicação a análise de dados de expressão gênica. Essa dissertação de mestrado apresenta uma revisão bibliográfica sobre os temas abordados no projeto, a descrição da metodologia utilizada, seu desenvolvimento e uma análise dos resultados obtidos.

Ano

2006

Creators

Murilo Coelho Naldi

Modelos de riscos aplicados à análise de sobrevivência

Assumir suposições especiais sobre a função de risco tem sido a estratégia adotada por vários autores, com intuito de garantir modelos gerais e abrangentes, tanto para a análise de dados de sobrevivência quanto de conDabilidade. Neste estudo, modelos aplicados a dados da área de sobrevivência e conDabilidade são considerados. A Dnalidade deste estudo é propor modelos mais Pexíveis e/ou mais abrangentes de forma a generalizar modelos já existentes, bem como estudar suas propriedades e propor possíveis comparações entre os modelos via testes de hipóteses. Considera-se nesta tese, três classes de modelos baseados na função de risco (modelos de risco). A primeira classe apresenta-se como um caso particular do modelo de risco estendido (Louzada-Neto, 1999), formada por modelos que relacionam o parâmetro de escala a covariáveis, sendo que esse relacionamento pode ser considerado log-linear ou log-nãolinear. Considera-se um modelo particular onde a dependência do parâmetro de escala se dá de forma log-não-linear. Na segunda classe considera-se modelos que estão vinculados a dados de riscos competitivos, quando se tem ou não informação sobre qual tipo de risco foi responsável pela falha de um equipamento ou pelo óbito de um paciente. A terceira classe de modelos foi proposta, nesta tese, relacionando o contexto de modelos de longa duração.

Ano

2006

Creators

Gleici da Silva Castro Perdona

Métodos de solução para o problema de escalonamento de médicos

O Problema de Escalonamento de Médicos (Physician Scheduling Problem) consiste em atribuir tarefas a médicos num horizonte de planejamento respeitando regras laborais, contratuais e de preferências pessoais de modo a satisfazer a demanda de serviços de um hospital. O problema lida majoritariamente com o objetivo de maximizar o atendimento dos requisitos de preferência pessoal, respeitando as restrições laborais e organizacionais. Sobre esta classe de problemas, vários métodos de resolução e suas variantes têm sido propostos na literatura. Ademais, mais características têm sido agregadas ao problema, tornando-o mais complexo e deste modo fazendo-se mais necessária a aplicação de métodos mais elaborados para a sua resolução. Neste trabalho são estudados, reformulados e propostos métodos de resolução baseados em programação matemática para tratar o problema de escalonamento acíclico de médicos em departamento de emergência de hospitais. O primeiro modelo tem como objetivo a minimização da soma ponderada dos desvios das restrições de distribuição. O segundo modelo tem como objetivo, a minimização do máximo dos desvios obtidos nas restrições de distribuição, a fim de se obter escalas mais equilibradas entre os médicos. Foram também propostas heurísticas baseadas na formulação matemática cujos resultados não foram competitivos com as dos modelos. Os modelos foram testados sobre um conjunto de instâncias fictícias resultantes de uma mescla entre instâncias benchmark e características do problema. Os resultados computacionais demonstram que formulação ponderada obteve solução ótima para grande parte das instâncias, embora os limitantes inferiores tenham sido majoritariamente fracos. Em relação ao segundo modelo, soluções ótimas não foram obtidas e os limitantes inferiores foram igualmente fracos. Relativamente a qualidade das escalas, o segundo modelo teve melhor comportamento comparando ao modelo de somas ponderadas. Dada a qualidade das soluções, nota-se a viabilidade da solução baseada em técnicas de otimização em detrimento da manual, pois esta ainda é mais suscetível de erros e acarreta um alto tempo para obtenção de solução.

Ano

2016

Creators

Valdemar Abrão Pedro Anastácio Devesse

Empregando técnicas de visualização de informação para transformação interativa de dados multidimensionais

A exploração de conjuntos de dados é um problema abordado com frequência em diversos domínios e tem como objetivo uma melhor compreensão de fenômenos simulados ou medidos. Tal atividade é precedida pelas etapas de coleta e armazenamento de dados que buscam registrar o máximo de detalhes sobre algum fenômeno observado. Porém, a exploração efetiva dos dados envolve uma série de desafios. Um deles é a dificuldade em identificar quais dados são realmente relevantes para as análises. Outro problema está relacionado com a falta de garantias de que os fatores fundamentais para a compreensão do problema tenham sido coletados. A transformação interativa de dados é uma abordagem que utiliza técnicas de visualização computacional para resolver ou minimizar esses problemas. No entanto, os trabalhos disponíveis na literatura possuem limitações, como interfaces demasiadamente complexas e mecanismos de interação pouco flexíveis. Assim, este projeto de mestrado teve como objetivo desenvolver novas técnicas visuais interativas para a transformação de dados multidimensionais. A metodologia desenvolvida se baseou no uso de biplots e na ação conjunta dos mecanismos de interação para superar as limitações das técnicas do estado da arte. Os resultados dos experimentos realizados sobre diversos conjuntos de dados dão indícios de que os métodos desenvolvidos possibilitam a obtenção de conjuntos de dados mais representativos. Mais especificamente, foram obtidos melhores resultados em tarefas de classificação de dados ao utilizar os métodos desenvolvidos.

Ano

2015

Creators

Francisco Morgani Fatore

Amostragem e medidas de qualidade de shapelets

Uma série temporal é uma sequência ordenada pelo tempo de valores reais. Dado que inúmeros fenômenos do dia-a-dia podem ser representados por séries temporais, há grande interesse na mineração de dados temporais, em especial na tarefa de classificação. Recentemente foi introduzida uma nova primitiva de séries temporais chamada shapelet, que é uma subsequência que permite a classificação de séries temporais de acordo com padrões locais. Na transformada shapelet estas subsequências se tornam atributos em uma matriz de distância que mede a dissimilaridade entre os atributos e as séries temporais. Para obter a transformada é preciso escolher alguns shapelets dos inúmeros possíveis, seja pelo efeito de evitar overfitting ou pelo fato de que é computacionalmente caro obter todos. Sendo assim, foram elaboradas medidas de qualidade para os shapelets. Tradicionalmente tem se utilizado a medida de ganho de informação, porém recentemente foi proposto o uso da f-statistic, e nós propomos neste trabalho uma nova denominada in-class transitions. Em nossos experimentos demonstramos que a inclass transitions costuma obter a melhor acurácia, especialmente quando poucos atributos são utilizados. Além disso, propomos o uso de amostragem aleatória nos shapelets para reduzir o espaço de busca e acelerar o processo de obtenção da transformada. Contrastamos a abordagem de amostragem aleatória contra uma em que só são exploradas shapelets de determinados tamanhos. Nossos experimentos mostraram que a amostragem aleatória é mais rápida e requer a computação de um menor número de shapelets. De fato, obtemos os melhores resultados ao amostrarmos 5% dos shapelets, mas mesmo a uma amostragem de 0,05% não foi possível notar uma degradação significante da acurácia.

Ano

2016

Creators

Lucas Schmidt Cavalcante

A noisy-channel based model to recognize words in eye typing systems

An important issue with eye-based typing iis the correct identification of both whrn the userselects a key and which key is selected. Traditional solutions are based on predefined gaze fixation time, known as dwell-time methods. In an attempt to improve accuracy long dwell times are adopted, which un turn lead to fatigue and longer response limes. These problems motivate the proposal of methods free of dwell-time, or with very short ones, which rely on more robust recognition techniques to reduce the uncertainty about user\'s actions. These techniques are specially important when the users have disabilities which affect their eye movements or use inexpensive eye trackers. An approach to deal with the recognition problem is to treat it as a spelling correction task. An usual strategy for spelling correction is to model the problem as the transmission of a word through a noisy-channel, such that it is necessary to determine which known word of a lexicon is the received string. A feasible application of this method requires the reduction of the set of candidate words by choosing only the ones that can be transformed into the imput by applying up to k character edit operations. This idea works well on traditional typing because the number of errors per word is very small. However, this is not the case for eye-based typing systems, which are much noiser. In such a scenario, spelling correction strategies do not scale well as they grow exponentially with k and the lexicon size. Moreover, the error distribution in eye typing is different, with much more insertion errors due to specific sources, of noise such as the eye tracker device, particular user behaviors, and intrinsic chracteeristics of eye movements. Also, the lack of a large corpus of errors makes it hard to adopt probabilistic approaches based on information extracted from real world data. To address all these problems, we propose an effective recognition approach by combining estimates extracted from general error corpora with domain-specific knowledge about eye-based input. The technique is ablçe to calculate edit disyances effectively by using a Mor-Fraenkel index, searchable using a minimun prfect hashing. The method allows the early processing of most promising candidates, such that fast pruned searches present negligible loss in word ranking quality. We also propose a linear heuristic for estimating edit-based distances which take advantage of information already provided by the index. Finally, we extend our recognition model to include the variability of the eye movements as source of errors, provide a comprehensive study about the importance of the noise model when combined with a language model and determine how it affects the user behaviour while she is typing. As result, we obtain a method very effective on the task of recognizing words and fast enough to be use in real eye typing systems. In a transcription experiment with 8 users, they archived 17.46 words per minute using proposed model, a gain of 11.3% over a state-of-the-art eye-typing system. The method was particularly userful in more noisier situations, such as the first use sessions. Despite significant gains in typing speed and word recognition ability, we were not able to find statistically significant differences on the participants\' perception about their expeience with both methods. This indicates that an improved suggestion ranking may not be clearly perceptible by the users even when it enhances their performance.

Ano

2018

Creators

Raíza Tamae Sarkis Hanada

Grid Anywhere: Um middleware extensível para grades computacionais desktop

Esta tese de doutorado apresenta investigações, modelos e implementações de um middleware para grades computacionais denominado Grid Anywhere. Essa plataforma tem como objetivo viabilizar a construção de grades computacionais que permitam um maior número de provedores e consumidores de recursos. Para isso, são apresentadas soluções para gerenciamento de segurança, carregamento de aplicações, hospedagem de objetos, execução remota de métodos, desenvolvimento de aplicações e transporte alternativo de mensagens SOAP (utilizando o sistema de televisão digital interativa e encapsulando uma mensagem SOAP dentro de outro documento desse mesmo protocolo). Como aplicações da plataforma foram criadas duas grades computacionais com arquiteturas distintas. A primeira permite que um ambiente de compartilhamento de recursos possa ser utilizado como infraestrutura para prover plataforma como serviço (PaaS) para usuários convencionais (domésticos ou corporativos) em um ambiente de computação em nuvem. A outra arquitetura tem como foco o fortalecimento de grades computacionais desktop por meio da utilização de receptores digitais de TV (set-top box) como provedores de recursos onde a distribuição de objetos e as mensagens SOAP ocorrem por difusão. Os modelos foram validados por meio de testes reais feitos utilizando as respectivas implementações, o que demonstrou que são funcionais. Tais implementações disponibilizam produtos que cooperam com a inovação do desenvolvimento de aplicações para grades computacionais e também para outras categorias de sistemas distribuídos

Ano

2012

Creators

Fabiano Costa Teixeira

Identificação da cobertura espacial de documentos usando mineração de textos

Atualmente, é comum que usuários levem em consideração a localização geográfica dos documentos, é dizer considerar o escopo geográfico que está sendo tratado no contexto do documento, nos processos de Recuperação de Informação. No entanto, os sistemas convencionais de extração de informação que estão baseados em palavras-chave não consideram que as palavras podem representar entidades geográficas espacialmente relacionadas com outras entidades nos documentos. Para resolver esse problema, é necessário viabilizar o georreferenciamento dos textos, ou seja, identificar as entidades geográficas presentes e associá-las com sua correta localização espacial. A identificação e desambiguação das entidades geográficas apresenta desafios importantes, principalmente do ponto de vista linguístico, já que um topônimo, pode possuir variados tipos de ambiguidade associados. Esse problema de ambiguidade causa ruido nos processos de recuperação de informação, já que o mesmo termo pode ter informação relevante ou irrelevante associada. Assim, a principal estratégia para superar os problemas de ambiguidade, compreende a identificação de evidências que auxiliem na identificação e desambiguação das localidades nos textos. O presente trabalho propõe uma metodologia que permite identificar e determinar a cobertura espacial dos documentos, denominada SpatialCIM. A metodologia SpatialCIM tem o objetivo de organizar os processos de resolução de topônimos. Assim, o principal objetivo deste trabalho é avaliar e selecionar técnicas de desambiguação que permitam resolver a ambiguidade dos topônimos nos textos. Para isso, foram propostas e desenvolvidas as abordagens de (1)Desambiguação por Pontos e a (2)Desambiguação Textual e Estrutural. Essas abordagens, exploram duas técnicas diferentes de desambiguação de topônimos, as quais, geram e desambiguam os caminhos geográficos associados aos topônimos reconhecidos para cada documento. Assim, a hipótese desta pesquisa é que o uso das técnicas de desambiguação de topônimos viabilizam uma melhor localização espacial dos documentos. A partir dos resultados obtidos neste trabalho, foi possível demonstrar que as técnicas de desambiguação melhoram a precisão e revocação na classificação espacial dos documentos. Demonstrou-se também o impacto positivo do uso de uma ferramenta linguística no processo de reconhecimento das entidades geográficas. Assim, foi demostrada a utilidade dos processos de desambiguação para a obtenção da cobertura espacial dos documentos

Ano

2012

Creators

Rosa Nathalie Portugal Vargas

Simulation of groundwater flow by the analytic element method

Groundwater studies face computational limitations when providing local detail within regional models. The researchers are concentrated on applying the numerical models to minimize the difference between the physical reality and the implemented numerical model by considering the minimum computational cost. This work consists of the study of line-elements (such as line-doublets, circles, polygons, fractures) using the Analytic Element Method (AEM) for groundwater flow. In this work, we consider the study of two-dimensional groundwater flow in fractured porous media by the Analytic Element Method. We develop a numerical solution based on a series expansion for a problem with more than one fracture. Each fracture has an influence that can be expanded in a series that satisfies Laplaces equation exactly. In the series expansion, the unknown coefficients are obtained from the discharge potentials of all other elements that are related to the expansion coefficients. Sizes, locations and conductivities for all inhomogeneities are selected arbitrarily. This work also discusses a matrix method obtained by imposing the intern boundary conditions for the Analytic Element Method. The convergence analysis of a Gauss-Seidel type iterative method is also discussed.

Ano

2017

Creators

Sardar Muhammad Hussain

ONTO-Analyst: um método extensível para a identificação e visualização de anomalias em ontologias

A Web Semântica é uma extensão da Web em que as informações tem um significado explícito, permitindo que computadores e pessoas trabalhem em cooperação. Para definir os significados explicitamente, são usadas ontologias na estruturação das informações. À medida que mais campos científicos adotam tecnologias da Web Semântica, mais ontologias complexas são necessárias. Além disso, a garantia de qualidade das ontologias e seu gerenciamento ficam prejudicados quanto mais essas ontologias aumentam em tamanho e complexidade. Uma das causas para essas dificuldades é a existência de problemas, também chamados de anomalias, na estrutura das ontologias. Essas anomalias englobam desde problemas sutis, como conceitos mal projetados, até erros mais graves, como inconsistências. A identificação e a eliminação de anomalias podem diminuir o tamanho da ontologia e tornar sua compreensão mais fácil. Contudo, métodos para identificar anomalias encontrados na literatura não visualizam anomalias, muitos não trabalham com OWL e não são extensíveis por usuários. Por essas razões, um novo método para identificar e visualizar anomalias em ontologias, o ONTO-Analyst, foi criado. Ele permite aos desenvolvedores identificar automaticamente anomalias, usando consultas SPARQL, e visualizá-las em forma de grafos. Esse método usa uma ontologia proposta, a METAdata description For Ontologies/Rules (MetaFOR), para descrever a estrutura de outras ontologias, e consultas SPARQL para identificar anomalias nessa descrição. Uma vez identificadas, as anomalias podem ser apresentadas na forma de grafos. Um protótipo de sistema, chamado ONTO-Analyst, foi criado para a validação desse método e testado em um conjunto representativo de ontologias, por meio da verificação de anomalias representativas. O protótipo testou 18 tipos de anomalias retirados da literatura científica, em um conjunto de 608 ontologias OWL de 4 repositórios públicos importantes e dois artigos. O sistema detectou 4,4 milhões de ocorrências de anomalias nas 608 ontologias: 3,5 milhões de ocorrências de um mesmo tipo e 900 mil distribuídas em 11 outros tipos. Essas anomalias ocorreram em várias partes das ontologias, como classes, propriedades de objetos e de dados, etc. Num segundo teste foi realizado um estudo de caso das visualizações geradas pelo protótipo ONTO-Analyst das anomalias encontradas no primeiro teste. Visualizações de 11 tipos diferentes de anomalias foram automaticamente geradas. O protótipo mostrou que cada visualização apresentava os elementos envolvidos na anomalia e que pelo menos uma solução podia ser deduzida a partir da visualização. Esses resultados demonstram que o método pode eficientemente encontrar ocorrências de anomalias em um conjunto representativo de ontologias OWL, e que as visualizações facilitam o entendimento e correção da anomalia encontrada. Para estender os tipos de anomalias detectáveis, usuários podem escrever novas consultas SPARQL.

Ano

2017

Creators

João Paulo Orlando

Um estudo sobre as equações de Riccati de filtragem para sistemas com saltos Markovianos: estabilidade e dualidade com controle

Neste trabalho estudamos as equações de Riccati para a filtragem de sistemas lineares com saltos Markovianos a tempo discreto. Obtemos uma condição geral para estabilidade do filtro ótimo obtido pela equação algébrica de filtragem, e que também é válida para que não haja multiplicidade de soluções. Revisitamos também a questão da existência, chegando a uma condição em termos da sequência de ganhos de um observador de Luenberger. Estes resultados usaram cadeias de Markov em escala reversa de tempo, inspirando a explorar a dualidade entre filtragem e controle em sistemas com reversão na cadeia, chegando a uma relação simples de dualidade.

Ano

2017

Creators

Daniel Alexis Gutierrez Pachas

Large scale similarity-based time series mining

Time series are ubiquitous in the day-by-day of human beings. A diversity of application domains generate data arranged in time, such as medicine, biology, economics, and signal processing. Due to the great interest in time series, a large variety of methods for mining temporal data has been proposed in recent decades. Several of these methods have one characteristic in common: in their cores, there is a (dis)similarity function used to compare the time series. Dynamic Time Warping (DTW) is arguably the most relevant, studied and applied distance measure for time series analysis. The main drawback of DTW is its computational complexity. At the same time, there are a significant number of data mining tasks, such as motif discovery, which requires a quadratic number of distance computations. These tasks are time intensive even for less expensive distance measures, like the Euclidean Distance. This thesis focus on developing fast algorithms that allow large-scale analysis of temporal data, using similarity-based methods for time series data mining. The contributions of this work have implications in several data mining tasks, such as classification, clustering and motif discovery. Specifically, the main contributions of this thesis are the following: (i) an algorithm to speed up the exact DTW calculation and its embedding into the similarity search procedure; (ii) a novel DTW-based spurious prefix and suffix invariant distance; (iii) a music similarity representation with implications on several music mining tasks, and a fast algorithm to compute it, and; (iv) an efficient and anytime method to find motifs and discords under the proposed prefix and suffix invariant DTW.

Ano

2017

Creators

Diego Furtado Silva