Repositório RCAAP

Rotulação de indivíduos representativos no aprendizado semissupervisionado baseado em redes: caracterização, realce, ganho e filosofia

Aprendizado semissupervisionado (ASS) é o nome dado ao paradigma de aprendizado de máquina que considera tanto dados rotulados como dados não rotulados. Embora seja considerado frequentemente como um meio termo entre os paradigmas supervisionado e não supervisionado, esse paradigma é geralmente aplicado a tarefas preditivas ou descritivas. Na tarefa preditiva de classificação, p. ex., o objetivo é rotular dados não rotulados de acordo com os rótulos dos dados rotulados. Nesse caso, enquanto que os dados não rotulados descrevem as distribuições dos dados e mediam a propagação dos rótulos, os itens de dados rotulados semeiam a propagação de rótulos e guiam-na à estabilidade. No entanto, dados são gerados tipicamente não rotulados e sua rotulação requer o envolvimento de especialistas no domínio, rotulando-os manualmente. Dificuldades na visualização de grandes volumes de dados, bem como o custo associado ao envolvimento do especialista, são desafios que podem restringir o desempenho dessa tarefa. Por- tanto, o destacamento automático de bons candidatos a dados rotulados, doravante denominados indivíduos representativos, é uma tarefa de grande importância, e pode proporcionar uma boa relação entre o custo com especialista e o desempenho do aprendizado. Dentre as abordagens de ASS discriminadas na literatura, nosso interesse de estudo se concentra na abordagem baseada em redes, onde conjuntos de dados são representados relacionalmente, através da abstração gráfica. Logo, o presente trabalho tem como objetivo explorar a influência dos nós rotulados no desempenho do ASS baseado em redes, i.e., estudar a caracterização de nós representativos, como a estrutura da rede pode realçá-los, o ganho de desempenho de ASS proporcionado pela rotulação manual dos mesmos, e aspectos filosóficos relacionados. Em relação à caracterização, critérios de caracterização de nós centrais em redes são estudados considerando-se redes com estruturas modulares bem definidas. Contraintuitivamente, nós bastantes conectados (hubs) não são muito representativos. Nós razoavelmente conectados em vizinhanças pouco conectadas, por outro lado, são; estritamente local, esse critério de caracterização é escalável a grandes volumes de dados. Em redes com distribuição de grau homogênea - modelo Girvan-Newman (GN), nós com alto coeficiente de agrupamento também mostram-se representativos. Por outro lado, em redes com distribuição de grau heterogênea - modelo Lancichinetti-Fortunato-Radicchi (LFR), nós com alta intermedialidade se destacam. Nós com alto coeficiente de agrupamento em redes GN estão tipicamente situados em motifs do tipo quase-clique; nós com alta intermedialidade em redes LFR são hubs situados na borda das comunidades. Em ambos os casos, os nós destacados são excelentes regularizadores. Além disso, como critérios diversos se destacam em redes com características diversas, abordagens unificadas para a caracterização de nós representativos também foram estudadas. Crítica para o realce de indivíduos representativos e o bom desempenho da classificação semissupervisionada, a construção de redes a partir de bases de dados vetoriais também foi estudada. O método denominado AdaRadius foi proposto, e apresenta vantagens tais como adaptabilidade em bases de dados com densidade variada, baixa dependência da configuração de seus parâmetros, e custo computacional razoável, tanto sobre dados pool-based como incrementais. As redes resultantes, por sua vez, são esparsas, porém conectadas, e permitem que a classificação semissupervisionada se favoreça da rotulação prévia de indivíduos representativos. Por fim, também foi estudada a validação de métodos de construção de redes para o ASS, sendo proposta a medida denominada coerência grafo-rótulos de Katz. Em suma, os resultados discutidos apontam para a validade da seleção de indivíduos representativos para semear a classificação semissupervisionada, corroborando a hipótese central da presente tese. Analogias são encontrados em diversos problemas modelados em redes, tais como epidemiologia, propagação de rumores e informações, resiliência, letalidade, grandmother cells, e crescimento e auto-organização.

Ano

2022-12-06T14:47:11Z

Creators

Bilzã Marques de Araújo

Geração de imagens artificiais e quantização aplicadas a problemas de classificação

Cada imagem pode ser representada como uma combinação de diversas características, como por exemplo o histograma de intensidades de cor ou propriedades de textura da imagem. Essas características compõem um vetor multidimensional que representa a imagem. É comum esse vetor ser dado como entrada para um método de classificação de padrões que, após aprender por meio de diversos exemplos, pode gerar um modelo de decisão. Estudos sugerem evidências de que a preparação das imagens-- por meio da especificação cuidadosa da aquisição, pré-processamento e segmentação-- pode impactar significativamente a classificação. Além da falta de tratamento das imagens antes da extração de características, o desbalanceamento de classes também se apresenta como um obstáculo para que a classificação seja satisfatória. Imagens possuem características que podem ser exploradas para melhorar a descrição dos objetos de interesse e, portanto, sua classificação. Entre as possibilidades de melhorias estão: a redução do número de intensidades das imagens antes da extração de características ao invés de métodos de quantização no vetor já extraído; e a geração de imagens a partir das originais, de forma a promover o balanceamento de bases de dados cujo número de exemplos de cada classe é desbalanceado. Portanto, a proposta desta dissertação é melhorar a classificação de imagens utilizando métodos de processamento de imagens antes da extração de características. Especificamente, busca analisar a influência do balanceamento de bases de dados e da quantização na classificação. Este estudo analisa ainda a visualização do espaço de características após os métodos de geração artificial de imagens e de interpolação das características extraídas das imagens originais (SMOTE), comparando como espaço original. A ênfase dessa visualização se dá na observação da importância do rebalanceamento das classes. Os resultados obtidos indicam que a quantização simplifica as imagens antes da extração de características e posterior redução de dimensionalidade, produzindo vetores mais compactos; e que o rebalanceamento de classes de imagens através da geração de imagens artificiais pode melhorar a classificação da base de imagens, em relação à classificação original e ao uso de métodos no espaço de características já extraídas.

Ano

2022-12-06T14:47:11Z

Creators

Gabriela Salvador Thumé

Aprendizado por reforço profundo para navegação visual semântica com memória

A navegação de robôs móveis é um tema amplamente estudado ao longo de décadas, sendo esta uma atividade crucial para a inserção de robôs em diversos cenários. Contudo, ambientes complexos e mutáveis, como interiores de residências, ainda apresentam desafios a serem superados, sendo objetos de estudo em diversos trabalhos que adotam abordagens com visão computacional sem usar mapas topológicos ou métricos. Este trabalho propõe uma arquitetura para navegação de robôs móveis visando a busca objeto-direcionada em ambientes internos de residências, utilizando métodos de visão computacional e informações semânticas com memória. A arquitetura proposta tem capacidade de generalizar por meio de conhecimento a priori dos objetos detectados em cenas e também reforçar relacionamentos por meio de experiências passadas, em uma abordagem de navegação baseada em aprendizado. Para tanto, são adotados os seguintes modelos de aprendizado de máquina: redes neurais convolucionais, redes neurais de grafos, redes neurais recorrentes e aprendizado por reforço profundo, em uma abordagem objeto-direcionada. Esta arquitetura foi treinada em diversos ambientes domésticos, adotando-se um ambiente simulado fotorrealista. Esta arquitetura foi avaliada por meio de análise qualitativa, com execuções de episódios do agente no ambiente simulado de maneira visual, e análise quantitativa, usando medidas como taxas de sucesso e taxas de sucesso ponderadas pela trajetória. Políticas aprendidas por meio da arquitetura proposta foram comparadas com agentes de política randômica, com agentes utilizando apenas aprendizado por reforço e, por fim, com agentes com políticas de navegação semântica sem memória. Os experimentos realizados mostraram um comportamento mais exploratório da arquitetura proposta em relação a outros sem memória, obtendo maiores taxas de êxito nas tarefas em ambas as métricas. Quando exposto a cenários mais restritos, e por conseguinte de maior dificuldade, as políticas aprendidas por estes modelos apresentaram os melhores resultados, com menor queda no desempenho quando comparados as execuções menos restritivas e com os demais modelos. Desta forma, o modelo proposto apresentou resultados consistentes de melhoria nas políticas aprendidas pelos agentes, resultando em comportamentos bem sucedidos para tarefas de busca objeto-direcionada em ambientes internos de residências.

Ano

2022-12-06T14:47:11Z

Creators

Iury Batista de Andrade Santos

"Métodos numéricos para leis de conservação"

O objetivo deste projeto é o estudo de técnicas numéricas robustas para aproximação da solução de leis de conservação hiperbólicas escalares unidimensionais e bidimensionais e de sistemas de leis de conservação hiperbólicas. Para alcançar tal objetivo, estudamos esquemas conservativos com propriedades especiais, tais como, esquemas upwind, TVD, Godunov, limitante de fluxo e limitante de inclinação. A solução de um sistema de leis de conservação pode exibir descontinuidades do tipo choque, rarefação ou de contato. Assim, o desenvolvimento de técnicas numéricas capazes de reproduzir e tratar esses comportamentos é desejável. Além de representar corretamente a descontinuidade os esquemas numéricos têm ainda uma tarefa mais árdua; aquela de escolher a solução singular correta, a chamada solução entrópica. Os métodos de Godunov, limitantes de fluxo e limitantes de inclinação são técnicas numéricas que possuem as características apropriadas para aproximar a solução entrópica de uma lei de conservação.

Ano

2022-12-06T14:47:11Z

Creators

Débora de Jesus Bezerra

Mineração e visualização de coleções de séries temporais

A análise de séries temporais gera muitos desafios para profisionais em um grande número de domínios. Várias soluções de visualização integrada com algoritmos de mineração já foram propostas para tarefas exploratórias em coleções de séries temporais. À medida que o conjunto de dados cresce, estas soluções falham em promover uma boa associação entre séries temporais similares. Neste trabalho, é apresentada uma ferramenta para a análise exploratória e mineração de conjuntos de séries temporais que adota uma representação visual baseada em medidas de dissimilaridade entre séries. Esta representação é criada usando técnicas rápidas de projeção, de forma que as séries temporais possam ser visualizadas em espaços bidimensionais. Vários tipos de atributos visuais e conexões no grafo resultante podem ser utilizados para suportar a exploração dessa representação. Também é possível aplicar algumas tarefas de mineração de dados, como a classificação, para apoiar a busca por padrões. As visualizações resultantes têm se mostrado muito úteis na identificação de grupos de séries com comportamentos similares, que são mapeadas para a mesma vizinhança no espaço bidimensional. Grupos visuais de elementos, assim como outliers, são facilmente identficáveis. A ferramenta é avaliada por meio de sua aplicação a vários conjuntos de séries. Um dos estudos de caso explora dados de vazões de usinas hidrelétricas no Brasil, uma aplicação estratégica para o planejamento energético.

Ano

2022-12-06T14:47:11Z

Creators

Aretha Barbosa Alencar

Avaliação de acessibilidade e usabilidade na Web: um apoio com foco nos usuários senescentes

A constante evolução da Web tem se mostrado como um fenômeno mundial que rapidamente precisa responder aos diversos segmentos da sociedade atual, com websites e aplicativos de compras, governo, bancos, entretenimento e outros. Nesse contexto, é necessário que o conteúdo Web possibilite acesso aos mais diferentes perfis de usuários, independentemente de suas deficiências ou necessidades especiais. Um outro fenômeno mundial é o envelhecimento da população. Os usuários senescentes (pessoas que estão em processo de envelhecimento, o qual acarreta declínio físico e mental gradual, ocorrendo geralmente nos indivíduos a partir de 60 anos de idade), apresentam algumas de suas capacidades reduzidas e, encontram, naturalmente, barreiras ao interagir com os serviços e conteúdos disponibilizados na Web. Essa população tem apresentado um índice de crescimento demográfico grande neste século em relação ao que se via nas gerações passadas. Apesar das exigências de legislação específica, recomendações e diretrizes que auxiliam o desenvolvimento de conteúdo acessível e usável, ainda há muitos problemas de acessibilidade e usabilidade que precisam ser resolvidos, diante do rápido avanço tecnológico observado nos recursos da Web atual. Em especial, observa-se pouca atenção às dificuldades que usuários senescentes possuem, pois a maioria de websites são projetados considerando como público-alvo, pessoas mais jovens e especializadas, muitas vezes, treinadas para interagir nos websites. Portanto, é relevante um apoio para avaliação das páginas Web, visando atender as necessidades dos usuários senescentes. A proposta deste projeto foi desenvolver um apoio para a avaliação de acessibilidade e usabilidade na Web, considerando-se o perfil dos senescentes, com vistas a proporcionar um feedback objetivo, aos desenvolvedores e especialistas. Esse apoio foi elaborado por meio de um Checklist que foi desenvolvido, com base em procedimentos científicos, e análises realizadas, sobre sua aplicação.

Ano

2022-12-06T14:47:11Z

Creators

Sandra Souza Rodrigues

Robust image features creation by learning how to merge visual and semantic attributes

There are known advantages of using semantic attributes to improve image representation. However, studying how to use such attributes to improve visual subspaces and its effects on coarse and fine-grained classification were still to be investigated. This research report a Visual-Semantic Encoder (VSE) built from a neural network undercomplete autoencoder, that combines visual features and semantic attributes to form a compact subspace containing each domains most relevant properties. It is observed empirically that a learned latent space can better represent image features and even allow one to interpret results in the light of the nature of semantic attributes, offering a path for explainable learning. Experiments were performed in four benchmark datasets where VSE was compared against state-of-the-art algorithms for dimensionality reduction. The algorithm shows to be robust for up to 20% degradation of semantic attributes and is as efficient as LLE for learning a low-dimensional feature space with rich class representativeness, offering possibilities for future work on the deployment of an automatic gathering of semantic data to improve representations. Additionally, the study suggests experimentally that adding high-level concepts to image representations adds linearity to the feature space, allowing PCA to perform well in combining visual and semantic features for enhancing class separability. At last, experiments were performed for zero-shot learning, where VSE and PCA outperform SAE, the state-of-the-art algorithm proposed by Kodirov, Xiang and Gong (2017), and JDL, the joint discriminative learning framework proposed by Zhang and Saligrama (2016), which demonstrates the viability of merging semantic and visual data at both training and test time for learning aspects that transcend class boundaries that allow the classification of unseen data.

Ano

2022-12-06T14:47:11Z

Creators

Damares Crystina Oliveira de Resende

Previsão de Redes Financeiras Utilizando Aprendizado de Máquina para Gerenciamento de Portfólio

A dinâmica comportamental entre ativos do mercado financeiro pode ser analisada sob um perspectiva topológica de redes financeiras, conhecidas como redes ativos ou redes de ações. Essas redes permitem a modelagem e análise do mercado financeiro por meio de uma perspectiva topológica e apresentam uma forma robusta de analisar a interdependência do co-movimento de preços dos ativos por meio de grafos de relacionamentos, cujos vértices representam as ações e as arestas representam o relacionamento entre elas. De uma forma geral, o relacionamento pode ser modelado por meio da correlação entre as séries de preços dessas ações. Este estudo apresenta uma abordagem utilizando aprendizado de máquina supervisionado para resolver dois problemas: (i) previsão de formação de links em redes de ações; (ii) utilização da previsão de links como suporte ao gerenciamento de portfólios (carteiras). Para resolver o primeiro problema, desenvolvemos um modelo baseado em aprendizado de máquina supervisionado, que utiliza como entrada atributos extraídos das redes de ações, para prever a formação de links em redes futuras. Investigamos a previsão de links em redes modeladas através de três métodos de filtragem baseados em correlação: Dynamic Asset Graphs (DAG), Dynamic Threshold Networks (DTN) e Dynamic Minimal Spanning Tree (DMST). Foram propostos experimentos para avaliar o desempenho do método proposto, comparando-o com quinze algoritmos propostos na literatura, além de experimentos qualitativos para proporcionar uma interpretação dos resultados. Em relação ao segundo problema, propusemos uma abordagem para definição de constantes para otimização de portfólio, utilizando o método clássico conhecido como Análise Média-Variância (AMV), através da utilização de algoritmos de aprendizagem de máquina para previsão de links em redes de ações ponderadas. Além dos resultados da previsão de links ponderados, foram apresentados resultados financeiros relacionados ao gerenciamento de portfólio. Os resultados apresentados sugerem que o método proposto é capaz de melhorar o gerenciamento de risco na maioria dos índices de mercado estudados.

Ano

2022-12-06T14:47:11Z

Creators

Douglas Donizeti de Castilho Braz

Uma abordagem para avaliação automatizada de acessibilidade de Rich Internet Applications

Ao longo da última década, a Web tem proporcionado cada vez mais interatividade aos usuários por meio de Rich Internet Applications (RIAs). Essa maior interatividade deve-se ao emprego de diversos componentes dinâmicos nas interfaces, os quais apresentam recursos de interação semelhantes aos das aplicações desktop, mas que são disponibilizadas na plataforma da Web. Entretanto, devido a natureza dinâmica de RIAs, a maioria das aplicações ainda não implementam soluções acessíveis em seus componentes por diversos motivos. Como resultado de tais implementações, usuários que interagem por meio de recursos de Tecnologia Assistiva, como leitores de tela, acabam enfrentando barreiras que impedem o acesso às informações disponibilizadas na aplicação Web. Assim, a participação universal ainda está longe de ser uma realidade, especialmente quando considerados os dados relativos ao levantamento da perspectiva dos desenvolvedores brasileiros realizado em 2017, o qual não apontou melhoras em relação ao levantamento similar conduzido 10 anos antes. Portanto, torna-se essencial proporcionar meios que auxiliem no desenvolvimento de RIAs acessíveis. Nesse sentido, esta tese teve como objetivo propor meios para viabilizar a avaliação automatizada da acessibilidade de RIAs com a mínima intervenção do avaliador. Para tanto, foi desenvolvida a abordagem Letting Inspect RIA Accessibility (LIRA), a qual é composta por diferentes componentes (Identificador, Classificador, Avaliador e Adaptador de resultados) que atuam em conjunto para proporcionar a semiautomatização do processo de avaliação de acessibilidade de RIAs. Os resultados obtidos a partir das avaliações de cada um dos componentes demonstraram a viabilidade técnica e a satisfação com uso dos protótipos elaborados, indicando a utilidade da abordagem como um apoio ao desenvolvimento de aplicações Web acessíveis, especialmente para desenvolvedores sem conhecimentos técnicos de acessibilidade. Por fim, a partir da modularização da abordagem LIRA, seus componentes podem ser empregados individualmente em outras ferramentas, contribuindo com a melhoria do processo de avaliação de acessibilidade, além de promover a disseminação da especificação WAI-ARIA entre desenvolvedores Web.

Ano

2022-12-06T14:47:11Z

Creators

Humberto Lidio Antonelli

Um modelo computacional para análise de padrões de interação em dinâmica simulada por ambiente virtual e estudo de sua aplicação em avaliação de características psicológicas

Este trabalho introduz uma abordagem de Teoria da Informação para projeto de testes psicométricos assistidos por computador. Desempenhando um papel importante entre métodos clínicos, testes psicológicos atualmente bem estabelecidos, baseados em exercícios interpretativos ou de resolução de problemas, utilizam principalmente atribuição de pontuações resumidas. Enquanto há interesse em testes assistidos por computador, os poucos exemplos existentes são frequentemente reproduções das versões convencionais em papel. A exploração de métodos computacionais em abordagens de análise e diagnóstico inovadoras - como Mineração de Dados e Aprendizado de Máquina - permanece modesta, comparada ao que vem sendo feito em outros campos relacionados à saúde. Neste trabalho é proposta uma abordagem de Teoria da Informação fundamentada em análise de sinais digitais de eventos gerados por sujeitos enquanto interagem em uma dinâmica simulada em computador. Em contraste a sinais fisiológicos convencionalmente utilizados em ECG e EEG, obtidos por biossensores, o sinal comportamental, conforme concebido neste trabalho, corresponde ao traço de ações emitidos pelo sujeito conforme este exercita funções psíquicas requeridas pelo desafio, instrumentado por um jogo computacional. Adicionando a dimensão de ordem dos eventos à análise, esta perspectiva traz não somente a possibilidade de avaliar o resultado final, mas também a de inspecionar o processo ao longo do qual esse resultado foi obtido, expondo ao especialista informação sobre diferentes padrões de aprendizado e outros traços psicológicos. Além disso, fundamentada em métricas como entropia, modelos markovianos extendidos e complexidade algorítmica, a estratégia oferece um método generalizável, o qual é agnóstico à semântica da simulação, permitindo projeto de diferentes testes adaptados para variáveis níveis de dificuldade, necessidades de acessibilidade e oferta de novidade para o sujeito. Resultados experimentais trouxeram apoio empírico para a hipótese de pesquisa, por demonstrar a capacidade do método de distinguir padrões de interações dos sujeitos e revelando sistemáticas durante exercícios de resolução de problemas.

Ano

2022-12-06T14:47:11Z

Creators

Rafael Miranda Lopes

Estabelecimento de uma arquitetura de referência para aplicações de televisão digital

Sistemas embarcados, inclusive para eletrônica de consumo, vêm se tornando cada vez mais complexos, requerendo a utilização de novas tecnologias, bem como novas abordagens para o seu desenvolvimento. Em particular, o desenvolvimento de aplicações para TV Digital interativa têm requerido crescente aplicação de novas técnicas de programação e engenharia de software, visando facilitar o desenvolvimento e manutenção desses sistemas. Em paralelo, arquiteturas de referência, um tipo especial de arquitetura de software, têm sido proposta para diversos domínios de aplicação e têm contribudo efetivamente para o desenvolvimento, padronização e evolução de sistemas de software de tais domínios. Contudo, o uso de arquiteturas de referência ainda não foi explorado em profundidade no desenvolvimento de aplicações para o domínio de TV Digital. Nesse contexto, o principal objetivo desse trabalho e propor uma arquitetura de referência para o domínio de TV Digital interativa, que facilite o desenvolvimento de aplicações para o ambiente procedural do middleware para o receptor digital. Como principais resultados alcançados neste trabalho, têm-se a contribuição para a área de TV Digital, buscando promover essa área que têm se destacado consideravelmente nos últimos anos

Ano

2022-12-06T14:47:11Z

Creators

Leonardo Simas Duarte

Esquemas de captura de descontinuidades para equações gerais de conservação

Três esquemas de captura de descontinuidade são apresentados para simular hiperbólicos de leis de conservação e equações de Navier-Stokes incompressíveis, a saber: FDHERPUS (Five Degree Hermite Upwind Scheme); RUS (Rational Upwind Scheme); e CSPUS (Cubic Spline Polynomial Upwind Scheme). Esses esquemas são baseados nos critérios de estabilidade CBC e TVD e implementados nos contextos das metodologias diferenças finitas e volumes finitos. A precisão local dos esquemas é verificada acessando o erro e a taxa de convergência em problemas testes de referência. Um estudo comparativo entre os esquemas estudados (incluido o WENO5) e o esquema bem estabelecido de van Albada, para resolver leis de conservação lineares e não lineares, é também realizado. O esquema de convecção que fornece melhores resultados em leis de conservação hiperbólicas é então examinado na simulação de escoamentos de fluidos newtonianos com superfícies livres móveis de complexidade crescente; resultados satisfatórios têm sido observados em termos do comportamento global

Ano

2022-12-06T14:47:11Z

Creators

Rodolfo Junior Pérez Narváez

Estabilidade de sistemas detetáveis com custo médio a longo prazo limitado

Neste trabalho estudamos a estabilidade assintótica de Lagrange para duas classes de sistemas, sob as hipóteses de detetabilidade fraca e de limitação do custo medio a longo prazo. Para sistemas lineares com saltos markovianos com rudo aditivo, a equivalência entre estabilidade e as condições mencionadas sera provada. Para sistemas dinâmicos generalizados, provaremos a estabilidade sob uma condição adicional

Ano

2022-12-06T14:47:11Z

Creators

Brenno Gustavo Barbosa

An approach for improving decision-making with heterogeneous geospatial big data: an application using spatial decision support systems and volunteered geographic information to disaster management

Context: Accurate decision-making requires updated and precise information to establish the reality of an overall situation. New data sources (e.g., wearable technologies) have been increasing the amount of available and useful data, which is now called big data. This has a great potential for transforming the entire business process and improving the accuracy of decisions. In this context, disaster management represents an interesting scenario that relies on big data to enhance decision-making. This is because it must cope with data provided not only by traditional sources (e.g., stationary sensors) but also by emerging sources - for instance, information shared by local volunteers, i.e., volunteered geographic information (VGI). When combined, these data sources can be regarded as large in volume, with different velocities, and a variety of formats. Furthermore, an analysis is required to confirm their veracity is required since these data sources are disconnected and prone to various errors. These are the 4Vs that characterize big data. Gap: However, although all these data open up further opportunities, their huge volume, together with an inappropriate data integration and unsuitable visualization, can result in information being overlooked by decision-makers. This problem arises because the integration of the available data is hampered by the intrinsic heterogeneity of their features (e.g., their occurrence in different formats). When integrated, this information also often fails to reach the decision-makers in a suitable way (e.g., in appropriate visualization formats). Moreover, there is not a clear understanding of the decision-makers needs or how the available data can meet these needs. Objective: In light of this, this thesis presents an approach for improving decision-making with heterogeneous geospatial big data based on spatial decision support systems and volunteered geographic information in disaster management. Methods: Systematic mapping studies were conducted to identify gaps in research studies with regard to the use of volunteered information and spatial decision support systems in disaster management. On the basis of these studies, two design science projects were carried out. The first of these aimed at defining the elements that are essential for ensuring the integration of heterogeneous data, whereas the second project aimed at obtaining a better understanding of decision-makers needs. A cross-organizational action research project was also conducted to define the design principles that should be observed for a spatial decision support system to effectively support decision-making with heterogeneous geospatial big data. A series of empirical case studies was undertaken to evaluate the outcomes of these projects. Results: The overall approach thus consists of the three significant outcomes that were derived from these projects. The first outcome was the conceptual architecture that defines the integration of heterogeneous data sources. The second outcome was a model-based framework that describes the connection of decision-making with appropriate data sources. The third outcome is based on the framework and comprises a set of design principles for guiding the development of spatial decision support systems for decision-making with heterogeneous geospatial big data. Conclusion: This thesis has made a useful contribution to both practice and research. In short, it defines ways of integrating heterogeneous data sources, provides a better understanding of decision-makers needs, and supports the development of a spatial decision support system to effectively assist decision-making with heterogeneous geospatial big data.

Ano

2022-12-06T14:47:11Z

Creators

Flavio Eduardo Aoki Horita

Detecção de obstáculos usando fusão de dados de percepção 3D e radar em veículos automotivos

Este projeto de mestrado visa a pesquisa e o desenvolvimento de métodos e algoritmos, relacionados ao uso de radares, visão computacional, calibração e fusão de sensores em veículos autônomos/inteligentes para fazer a detecção de obstáculos. O processo de detecção de obstáculos se divide em três etapas, a primeira é a leitura de sinais de Radar, do LiDAR e a captura de dados da câmera estéreo devidamente calibrados, a segunda etapa é a fusão de dados obtidos na etapa anterior (Radar+câmera, Radar+LIDAR 3D), a terceira etapa é a extração de características das informações obtidas, identificando e diferenciando o plano de suporte (chão) dos obstáculos, e finalmente realizando a detecção dos obstáculos resultantes da fusão dos dados. Assim é possível diferenciar os diversos tipos de elementos identificados pelo Radar e que são confirmados e unidos aos dados obtidos por visão computacional ou LIDAR (nuvens de pontos), obtendo uma descrição mais precisa do contorno, formato, tamanho e posicionamento destes. Na tarefa de detecção é importante localizar e segmentar os obstáculos para posteriormente tomar decisões referentes ao controle do veículo autônomo/inteligente. É importante destacar que o Radar opera em condições adversas (pouca ou nenhuma iluminação, com poeira ou neblina), porém permite obter apenas pontos isolados representando os obstáculos (esparsos). Por outro lado, a câmera estéreo e o LIDAR 3D permitem definir os contornos dos objetos representando mais adequadamente seu volume, porém no caso da câmera esta é mais suscetível a variações na iluminação e a condições restritas ambientais e de visibilidade (p.ex. poeira, neblina, chuva). Também devemos destacar que antes do processo de fusão é importante alinhar espacialmente os dados dos sensores, isto e calibrar adequadamente os sensores para poder transladar dados fornecidos por um sensor referenciado no próprio sistema de coordenadas para um outro sistema de coordenadas de outro sensor ou para um sistema de coordenadas global. Este projeto foi desenvolvido usando a plataforma CaRINA II desenvolvida junto ao Laboratório LRM do ICMC/USP São Carlos. Por fim, o projeto foi implementado usando o ambiente ROS, OpenCV e PCL, permitindo a realização de experimentos com dados reais de Radar, LIDAR e câmera estéreo, bem como realizando uma avaliação da qualidade da fusão dos dados e detecção de obstáculos comestes sensores.

Ano

2022-12-06T14:47:11Z

Creators

Luis Alberto Rosero Rosero

SEQUENCIAMENTO DA PRODUÇÃO COM RESTRIÇÕES DISJUNTIVAS

O problema do sequenciamento da produção consiste em determinar a sequência de operações a processar em cada uma das máquinas disponíveis na fabrica de modo que a duração total de sequenciamento seja mínima. As peças são processadas de acordo com roteiros de fabricação fixados e as durações operatórias são conhecidas. Nesta dissertação estudamos o problema do sequenciamento da produção com restrições disjuntivas através de duas abordagens: programação inteira e teoria dos grafos. Três programas computacionais baseados em teoria dos grafos foram desenvolvidos e testados. Estes programas permitiram a resolução eficiente de vários exemplos apesar do caráter não-polinomial do problema estudado.

Ano

2022-12-06T14:47:11Z

Creators

Adriana Backx Noronha Viana

FERRAMENTAS PARA ANALISE DE DESEMPENHO DE SISTEMAS COMPUTACIONAIS DISTRIBUIDOS

Neste trabalho são apresentadas diversas ferramentas disponíveis para análise de desempenho de sistemas computacionais. Aspectos como adequabilidade das ferramentas para uma dada proposta de análise, facilidade de utilização, dificuldades envolvidas nas alterações do modelo do sistema, tempo necessário para efetuar a análise, custo da implementação e a precisão dos resultados obtidos, são considerados e discutidos nesta dissertação. As ferramentas e metodologias abordadas nesta dissertação, aplicam-se a sistemas computacionais em geral, embora o interesse deste trabalho é direcionado para a análise de desempenho em sistema computacionais distribuídos. Os conceitos envolvidos com sistemas computacionais distribuídos são apresentados e discutidos com o objetivo de se formar uma base para o desenvolvimento desse trabalho. Quatro modelos distintos são propostos para o estudo do desempenho de um servidor de arquivos, com o objetivo de verificar o comportamento das ferramentas de simulação e modelos analíticos. Análises estatísticas são realizadas, visando qualificar e quantificar a precisão dos dados fornecidos pela solução de cada um dos modelos, para cada uma das técnicas utilizadas. O trabalho discute a possibilidade de se obter dados significativos a respeito do comportamento de um sistema, dependendo do objetivo da análise, utilizando-se técnicas simples. Cálculo de assíntotas e modelos simplificados como M/M/1, são utilizados para estudar a relação entre o grau de complexidade de um modelo e o grau de precisão fornecido pela solução obtida. O trabalho aborda também a implementação de um sistema de simulação através de uma extensão funcional da linguagem C, em ambiente UNIX; discute-se também uma implementação em ambiente DOS.

Ano

2022-12-06T14:47:11Z

Creators

Regina Celia Ghislotti de Sousa

"O problema de corte de estoque com reaproveitamento das sobras de material"

Os problemas de corte de estoque unidimensional consistem em cortar um conjunto de peças disponíveis em estoque para produzir um conjunto de itens em quantidades especificadas, em que apenas uma dimensão é relevante. Tais problemas têm inúmeras aplicações industriais e são bastante estudados na literatura. Tipicamente, esses problemas de corte apresentam uma característica comum - a minimização das perdas -entretanto, neste trabalho, consideramos que se uma perda é suficientemente grande para ser reaproveitada no futuro, não deve ser contabilizada como perda. Isto introduz uma postura diferente frente ao problema de corte: até que ponto a solução de perda mínima é a mais interessante, já que sobras podem ser reaproveitadas? Algumas características para considerar se uma solução é desejável são definidas e alterações em métodos heurísticos clássicos são propostas, de modo que os padrões de corte com perdas indesejáveis (nem tão grande, nem tão pequena) sejam alterados. As análises das soluções heurísticas são realizadas com base na resolução de um conjunto de classes de exemplos geradas aleatoriamente.

Ano

2022-12-06T14:47:11Z

Creators

Adriana Cristina Cherri

Metaheurísticas para o problema de agrupamento de dados em grafo

O problema de agrupamento de dados em grafos consiste em encontrar clusters de nós em um dado grafo, ou seja, encontrar subgrafos com alta conectividade. Esse problema pode receber outras nomenclaturas, algumas delas são: problema de particionamento de grafos e problema de detecção de comunidades. Para modelar esse problema, existem diversas formulações matemáticas, cada qual com suas vantagens e desvantagens. A maioria dessas formulações tem como desvantagem a necessidade da definição prévia do número de grupos que se deseja obter. Entretanto, esse tipo de informação não está contida em dados para agrupamento, ou seja, em dados não rotulados. Esse foi um dos motivos da popularização nas últimas décadas da medida conhecida como modularidade, que tem sido maximizada para encontrar partições em grafos. Essa formulação, além de não exigir a definição prévia do número de clusters, se destaca pela qualidade das partições que ela fornece. Nesta Tese, metaheurísticas Greedy Randomized Search Procedures para dois modelos existentes para agrupamento em grafos foram propostas: uma para o problema de maximização da modularidade e a outra para o problema de maximização da similaridade intra-cluster. Os resultados obtidos por essas metaheurísticas foram melhores quando comparadas àqueles de outras heurísticas encontradas na literatura. Entretanto, o custo computacional foi alto, principalmente o da metaheurística para o modelo de maximização da modularidade. Com o passar dos anos, estudos revelaram que a formulação que maximiza a modularidade das partições possui algumas limitações. A fim de promover uma alternativa à altura do modelo de maximização da modularidade, esta Tese propõe novas formulações matemáticas de agrupamento em grafos com e sem pesos que visam encontrar partições cujos clusters apresentem alta conectividade. Além disso, as formulações propostas são capazes de prover partições sem a necessidade de definição prévia do número de clusters. Testes com centenas de grafos com pesos comprovaram a eficiência dos modelos propostos. Comparando as partições provenientes de todos os modelos estudados nesta Tese, foram observados melhores resultados em uma das novas formulações propostas, que encontrou partições bastante satisfatórias, superiores às outras existentes, até mesmo para a de maximização de modularidade. Os resultados apresentaram alta correlação com a classificação real dos dados simulados e reais, sendo esses últimos, em sua maioria, de origem biológica

Ano

2022-12-06T14:47:11Z

Creators

Mariá Cristina Vasconcelos Nascimento

Operação de busca exata aos K-vizinhos mais próximos reversos em espaços métricos

A complexidade dos dados armazenados em grandes bases de dados aumenta cada vez mais, criando a necessidade de novas operações de consulta. Uma classe de operações que tem apresentado interesse crescente são as chamadas Consultas por Similaridade, sendo as mais conhecidas as consultas por Abrangência (\'R IND. q\') e por k-Vizinhos mais Proximos (kNN), sendo que esta ultima obtem quais são os k elementos armazenados mais similares a um dado elemento de referência. Outra consulta que é interessante tanto para consultas diretas quanto como parte de operações de análises mais complexas e a operação de consulta aos k-Vizinhos mais Próximos Reversos (RkNN). Seu objetivo e obter todos os elementos armazenados que têm um dado elemento de referência como um dos seus k elementos mais similares. Devido a complexidade de execução da operação de RkNN, a grande maioria das soluções existentes restringem-se a dados representados em espaços multidimensionais euclidianos (nos quais estão denidas tambem operações cardinais e topológicas, além de se considerar a similaridade como sendo a distância Euclidiana entre dois elementos), ou então obtém apenas respostas aproximadas, sujeitas a existência de falsos negativos. Várias aplicações de análise de dados científicos, médicos, de engenharia, financeiros, etc. requerem soluções eficientes para o problema da operação de RkNN sobre dados representados em espaços métricos, onde os elementos não podem ser considerados estar em um espaço nem Euclidiano nem multidimensional. Num espaço métrico, além dos próprios elementos armazenados existe apenas uma função de comparação métrica entre pares de objetos. Neste trabalho, são propostas novas podas de espaço de busca e o algoritmo RkNN-MG que utiliza essas novas podas para solucionar o problema de consultas RkNN exatas em espaços métricos sem limitações. Toda a proposta supõe que o conjunto de dados esta em um espaço métrico imerso isometricamente em espaço euclidiano e utiliza propriedades da geometria métrica válida neste espaço para realizar podas eficientes por lei dos cossenos combinada com as podas tradicionais por desigualdade triangular. Os experimentos demonstram comparativamente que as novas podas são mais eficientes que as tradicionais podas por desigualdade triangular, tendo desempenhos equivalente quando comparadas em conjuntos de alta dimensionalidade ou com dimensão fractal alta. Assim, os resultados confirmam as novas podas propostas como soluções alternativas eficientes para o problema de consultas RkNN

Ano

2022-12-06T14:47:11Z

Creators

Willian Dener de Oliveira