Repositório RCAAP

Extração e consulta de informações do Currículo Lattes baseada em ontologias

A Plataforma Lattes é uma excelente base de dados de pesquisadores para a sociedade brasileira, adotada pela maioria das instituições de fomento, universidades e institutos de pesquisa do País. Entretanto, é limitada quanto à exibição de dados sumarizados de um grupos de pessoas, como por exemplo um departamento de pesquisa ou os orientandos de um ou mais professores. Diversos projetos já foram desenvolvidos propondo soluções para este problema, alguns inclusive desenvolvendo ontologias a partir do domínio de pesquisa. Este trabalho tem por objetivo integrar todas as funcionalidades destas ferramentas em uma única solução, a SOS Lattes. Serão apresentados os resultados obtidos no desenvolvimento desta solução e como o uso de ontologias auxilia nas atividades de identificação de inconsistências de dados, consultas para construção de relatórios consolidados e regras de inferência para correlacionar múltiplas bases de dados. Além disto, procura-se por meio deste trabalho contribuir com a expansão e disseminação da área de Web Semântica, por meio da criação de uma ferramenta capaz de extrair dados de páginas Web e disponibilizar sua estrutura semântica. Os conhecimentos adquiridos durante a pesquisa poderão ser úteis ao desenvolvimento de novas ferramentas atuando em diferentes ambientes.

Ano

2013

Creators

Eduardo Ferreira Galego

Análise de redes de colaboração científica: uma abordagem baseada em grafos relacionais com atributos

A análise de redes sociais permite estudar a maneira como são estabelecidas as conexões entre indivíduos e como estas evoluem ao longo do tempo. A coautoria é uma das formas mais estudadas e bem documentadas de colaboração científica. Existem muitos aspectos de redes de colaboração científica, os quais podem ser rastreados de forma confiável através da análise de redes de colaboração usando métodos bibliométricos. Diversos esforços em diferentes áreas de pesquisa tentam analisar, entender, explicar e predizer o comportamento de sistemas modelados através de redes sociais. Nestes estudos, os indivíduos são modelados como vértices de um grafo, enquanto as relações entre eles são representadas por arestas. Atualmente, o estudo de redes de colaboração científica é importante e necessário para apoiar o planejamento estratégico, implementação e gestão dos programas de pesquisa científica. Neste trabalho, apresentamos um modelo de análise de redes científicas baseado em Grafos Relacionais com Atributos (ARG). O modelo proposto permite representar as redes de colaboração científica incluindo atributos individuais dos pesquisadores e atributos dos trabalhos colaborativos de pares de pesquisadores. Os dados correspondem às produções científicas de pesquisadores cadastrados na plataforma Lattes e extraídas automaticamente usando a ferramenta scriptLattes. Na primeira etapa, foi implementado o cálculo automatizado da taxa de internacionalização de cada pesquisador, a qual mostra a proporção entre o número de publicações internacionais e o número total de publicações. Esta medida junto com a produção científica individual discretizada em diversos grupos fazem parte das informações armazenadas nos vetores de atributos dos vértice dos ARGs. Por outro lado os vetores de atributos das arestas armazenam informações dos trabalhos colaborativos discretizados segundo a classificação da CAPES. Adicionalmente, neste trabalho foram exploradas duas aplicações relacionadas à (i) predição de trabalhos colaborativos futuros e à (ii) influência dos pesquisadores na rede de colaboração. O resultado da predição de vínculos foi usado para determinar a influência dos pesquisadores na redes de colaboração. A influência tem sido explorada com base na variação da predição de ligações com a presença ou a ausência do pesquisador na rede. Nossa proposta foi avaliada considerando diferentes testes sobre redes de coautoria científica de diversos grupos de pesquisadores. Os resultados obtidos são promissores para a análise de redes sociais em geral.

Ano

2015

Creators

Evelyn Perez Cervantes

Uma abordagem estrutural para detecção de objetos e localização em ambientes internos por dispositivos móveis

A detecção de objetos é uma área de extrema importância para sistemas de visão computacional. Em especial, dado o aumento constante da utilização de dispositivos móveis, torna-se cada vez mais importante o desenvolvimento de métodos e aplicações capazes de serem utilizadas em tais aparelhos. Neste sentido, neste trabalho propõe-se o estudo e implementação de um aplicativo para dispositivos móveis capaz de detectar, em tempo real, objetos existentes em ambientes internos com uma aplicação para auxiliar um usuário a se localizar dentro do local. O aplicativo depende somente das capacidades do próprio aparelho e, portanto, procura ser mais flexível e sem restrições. A detecção de objetos é realizada por casamento de grafos-chave entre imagens de objetos pré-escolhidas e a imagem sendo capturada pela câmera do dispositivo. Os grafos-chave são uma generalização do método de detecção de pontos-chave tradicional e, por levarem em consideração um conjunto de pontos e suas propriedades estruturais, são capazes de descrever e detectar os objetos de forma robusta e eficiente. Para realizar a localização, optou-se por detectar placas existentes no próprio local. Após cada detecção, aplica-se um simples, mas bastante eficaz, sistema de localização baseado na comparação da placa detectada com uma base de dados de imagens de todo o ambiente. A base foi construída utilizando diversas câmeras colocadas sobre uma estrutura móvel, capturando sistematicamente imagens do ambiente em intervalos regulares. A implementação é descrita em detalhes e são apresentados resultados obtidos por testes reais no ambiente escolhido utilizando um celular Nokia N900. Tais resultados são avaliados em termos da precisão da detecção e da estimativa de localização, bem como do tempo decorrido para a realização de todo o processo.

Ano

2011

Creators

Henrique Morimitsu

Jogos markovianos alternados sob incerteza

Um Jogo Markoviano Alternado (Alternating Markov Game - AMG) é uma extensão de um Processo de Decisão Markoviano (Markov Decision Process - MDP) para ambientes multiagentes. O modelo AMG é utilizado na tomada de decisão sequencial de n agentes quando são conhecidas as probabilidades de transição das ações a serem tomadas por cada agente. Nesse trabalho estamos interessados em AMGs com probabilidades de transição de estados imprecisas, por exemplo, quando elas são dadas na forma de intervalos de probabilidades. Apresentamos um novo modelo de AMG, que chamamos de Jogo Markoviano Alternado com Probabilidades Imprecisas (Alternate Markov Game with Imprecise Probabilities - AMGIP) que permite que as imprecisões nas probabilidades de transições de estados sejam dadas na forma de parâmetros sujeitos a restrições lineares que estende trabalhos anteriores em que a imprecisão é dada por intervalos de probabilidades (AMG-INTERVAL). Dizemos que a imprecisão representa escolhas da Natureza. A imprecisão desses modelos implica no valor do jogo ser dado por uma função intervalar. Existem diversas formas de calcular a solução do jogo, que depende do comportamento da Natureza e dos critérios de preferência dos jogadores diante das escolhas da Natureza. Assim, neste trabalho discutimos diversas soluções para o AMG-IP e AMG-INTERVAL. Também como resultado do estudo das relações existentes entre os MDPs e os AMGs, propomos um novo modelo chamado de AMG-ST (Alternating Markov Game with Set-valued Transition), capaz de modelar a incerteza do modelo MDP-ST (Markovian Decision Process with Set-valued Transition) como um jogo entre o agente e a Natureza, isto é, um jogo em que a Natureza faz o papel de um dos jogadores.

Ano

2012

Creators

Fábio de Oliveira Franco

Grafos aleatórios exponenciais

Estudamos o comportamento da familia aresta-triangulo de grafos aleatorios exponenciais (ERG) usando metodos de Monte Carlo baseados em Cadeias de Markov. Comparamos contagens de subgrafos e correlacoes entre arestas de ergs as de Grafos Aleatorios Binomiais (BRG, tambem chamados de Erdos-Renyi). E um resultado teorico conhecido que para algumas parametrizacoes os limites das contagens de subgrafos de ERGs convergem para os de BRGs, assintoticamente no numero de vertices [BBS11, CD11]. Observamos esse fenomeno em grafos com poucos (20) vertices em nossas simulacoes.

Ano

2013

Creators

Tássio Naia dos Santos

Análise comparativa de abordagens para aprendizado de transformações imagem-a-imagem

Criar manualmente um operador de imagem para performar uma transformação imagem-a-imagem específica é uma tarefa árdua e dificil. O problema do aprendizado automático de operadores de imagens tem sido estudado através dos anos. Métodos que atacam ese problema podem ser divididos em três tipos: as abordagens tradicionais pixel-a-pixel ou janelas deslizantes, abordagens patch-a-patch que foram possibilitadas por modelos de aprendizado profundo, e abordagens orientadas a estrutura que são baseadas em técnicas gerativas. Cada abordagem possui suas vantagens e desvantagens próprias. O objetivo dessa dissertação é estudar as similaridades e diferenças dessas abordagens, tanto conceptualmente quanto experimentalmente. Particularmente, estamos interessados em entender o quanto de informação estrutural da imagem, como conectividade de linhas, é preservado. A primeira contribuição desse trabalho é um método que une as vantagens das abordagens pixel-a-pixel e patch-a-patch, que chamamos de SConvNet. A segunda contribuição é um estudo que mostra que a métrica baseada em similaridades de esqueletos é válida para avaliar binarização de documentos manuscritos de forma complementar a métricas pixel-a-pixel tradicionais. Por fim, apresentamos uma comparação experimental entre métodos representativos de cada uma das três abordagens, calculando métricas pixel-a-pixel e as métricas de similaridade de esqueletos em dois problemas de processamento de imagens (segmentação de vasos sanguineos de retina e binarização de documentos manuscritos). As melhores métricas pixel-a-pixel foram obtidas por métodos patch-a-patch, enquanto os métodos estruturais obtiveram vantagens nas métricas de similaridade de esqueletos, de forma consistente com uma inspeção visual, que mostra que as abordagens estruturais melhor preservam a estrutura geral enquanto os métodos patch-a-patch geram contornos mais precisos.

Ano

2020

Creators

Augusto Cesar Monteiro Silva

Uma implementação paralela do AIRS em Scala

Com o avanço tecnológico dos últimos anos passou a ser normal vermos microprocessadores com múltiplos núcleos (cores). A expectativa é de que o crescimento da quantidade de núcleos passe a ser maior do que o crescimento da velocidade desses núcleos. Assim, além de se preocuparem em otimizar algoritmos sequenciais, os programadores começaram a dar mais atenção às possibilidades de aproveitamento de toda a capacidade oferecida pelos diversos cores. Existem alguns modelos de programação que permitem uma abordagem concorrente. O modelo de programação concorrente mais adotado atualmente é o baseado em threads, que utiliza memória compartilhada e é adotado em Java. Um outro modelo é o baseado em troca de mensagens, no qual as entidades computacionais ativas são denominadas atores. Nesse trabalho, estudamos a linguagem Scala e seu modelo de atores. Além disso, implementamos em Scala uma versão paralela de um algoritmo de classicação que simula o sistema imunológico dos animais, o AIRS paralelo, e comparamos seu desempenho com a versão em Java.

Ano

2010

Creators

Filipe Ferraz Salgado

Reconhecimento de fala para navegação em aplicativos móveis para português brasileiro

O objetivo do presente trabalho de pesquisa é reduzir o nível de atenção requerido para o uso do sistema Borboleta por meio de reconhecimento de fala na navegação através das funcionalidades do sistema, permitindo ao profissional dar maior atenção ao paciente. A metodologia de desenvolvimento do projeto inclui uma revisão bibliográfica para definir o estado da arte da área, uma pesquisa sobre o software disponível para reconhecimento de fala, uma coleta de dados dos comandos do sistema em português brasileiro para treinar e testar o sistema, uma etapa de projeção e desenvolvimento para definir a arquitetura de integração com o Borboleta, e uma fase de testes para medir a precisão do sistema e seus níveis de usabilidade e aceitação por parte do usuário.

Ano

2011

Creators

Edwin Miguel Triana Gomez

Protocolo de Identificação baseado em Polinômios Multivariáveis Quadráticos

Os sistemas criptográficos de chave pública amplamente utilizados hoje em dia tem sua segurança baseada na suposição da intratabilidade dos problemas de fatoração de inteiros e do logaritmo discreto, sendo que ambos foram demonstrados inseguros sob o advento dos computadores quânticos. Sistemas criptográficos baseados em Multivariáveis Quadráticas (MQ) utilizam como base o problema MQ, que consiste em resolver um sistema de equações polinomiais multivariáveis quadráticas sobre um corpo finito. O problema MQ foi provado como sendo NP-completo e até hoje não se conhece algoritmo, nem mesmo quântico, de tempo polinomial que possa resolver o problema, fazendo com que sistemas criptográficos baseados nesta primitiva mereçam ser investigados e desenvolvidos como reais candidatos a proverem nossa criptografia pós-quântica. Durante a CRYPTO\'2011 Sakumoto, Shirai e Hiwatari introduziram dois novos protocolos de identificação baseados em polinômios multivariáveis quadráticos, os quais chamamos de MQID-3 e MQID-5, e que em especial e pela primeira vez, tem sua segurança reduzida apenas ao problema MQ. Baseados nestas propostas iremos apresentar uma versão aprimorada do protocolo MQID-3 na qual teremos uma redução da comunicação necessária em aproximadamente 9%.

Ano

2012

Creators

Fabio de Salles Monteiro

Anomalias na camada de apresentação de aplicativos android

Bons códigos importam, mas como saber quando a qualidade está baixa? Maus cheiros de código, ou anomalias, auxiliam desenvolvedores na identificação de trechos de código problemáticos, porém a maioria dos maus cheiros catalogados são voltados para práticas e tecnologias tradicionais, criadas entre as décadas de 70 a 90, como orientação a objetos e Java. Ainda há dúvidas sobre maus cheiros em tecnologias que surgiram na última década, como o Android, principal plataforma móvel em 2017 com mais de 86% de participação de mercado. Alguns pesquisadores derivaram maus cheiros Android relacionados à eficiência e à usabilidade. Outros notaram que maus cheiros específicos ao Android são muito mais frequentes nos aplicativos do que maus cheiros tradicionais. Diversas pesquisas concluíram que os componentes Android mais afetados por maus cheiros tradicionais são Activities e Adapters, que pertencem à camada de apresentação. Notou-se também que em alguns aplicativos, códigos da camada de apresentação representam a maior parte do código do projeto. Vale ressaltar que a camada de apresentação Android também é composta por arquivos XML, chamados de recursos, usados na construção da interface do usuário (User Interface - UI), porém nenhuma das pesquisas citadas os considerou em suas análises. Nesta dissertação, investigamos a existência de maus cheiros relacionados à camada de apresentação Android considerando inclusive os recursos. Fizemos isso através de dois questionários e um experimento de código online, totalizando a participação de 316 desenvolvedores. Nossos resultados mostram a existência de uma percepção comum entre desenvolvedores sobre más práticas no desenvolvimento da camada de apresentação Android. Nossas principais contribuições são um catálogo com 20 maus cheiros da camada de apresentação Android e uma análise estatística da percepção de desenvolvedores sobre os 7 principais maus cheiros catalogados. Nossas contribuições servirão a pesquisadores como ponto de partida para a definição de heurísticas e implementação de ferramentas automatizadas e a desenvolvedores como auxílio na identificação de códigos problemáticos, ainda que de forma manual.

Ano

2018

Creators

Suelen Goularte Carvalho

Modularity in belief change of description logic bases

Ontologies written in OWL and OWL 2 are one of the most prominent tools in Knowledge Representation nowadays. They allow the sharing of knowledge of a domain unambiguously and operate with implicit knowledge using reasoning algorithms. However, ontologies can become large and very complex, hindering their maintenance and evolution. One complicating factor is that a small change can trigger unexpected and unwanted consequences. Solutions to sound maintenance have emerged separately in Belief Change and Ontology Repair. Despite having distinct views, proposals in both fields often rely on the Description Logics, which underpin OWL and OWL 2. Hence, the approaches from both fields for repairing ontologies are very similar at the algorithmic level. Consequently, both areas need to address the high complexity of the debugging problem and cope with the exponential number of correct outcomes. There are studies in Ontology Repair which use modularity techniques to extract smaller subsets of the ontology which are sufficient to fix a particular consequence. Still, the effect of modules on the Belief Change framework is poorly understood: either the postulates or the mechanisms which select the final result might change when a module replaces the input. Also, the impact on computational performance was only assessed in small corpora and with few variations in parameters. Moreover, the number of outcomes is still exponential, and existing solutions rarely provide means to mitigate this issue. In this context, this thesis provides a clearer understanding of the effects of modularity in the theoretical framework that guarantees rational (sound) changes. Also, it evaluates the performance impact of modularity empirically using locality-based modules in a broader setting. Additionally, it also investigates how modules can aid users to filter and select the best results efficiently. A category of modules is identified for which the postulates from Belief Change remain the same, and under mild conditions, the result is unchanged. The analysis of experimental data shows that modules are beneficial for performance, often displaying gains of orders of magnitude. Also, the methods proposed to aid in the selection of repairs are shown to be competitive with existing approaches.

Ano

2020

Creators

Ricardo Ferreira Guimarães

Análise baseada em contexto do movimento de pedestres em terminais de transporte

A aquisicao de dados de deslocamentos de pessoas atraves de videos traz consigo uma imprecisao inerente que advem tanto da qualidade das imagens capturadas quanto da dinamica do movimento de pedestres no ambiente. A obtencao de informacoes precisas de rastreamento e contagem de pedestres a partir de videos ainda e um desafio. Este trabalho explora caracteristicas especificas do comportamento de pedestres no dominio dos terminais de transporte e apresenta uma ferramenta que agrega informacoes do contexto para aumentar a precisao dos dados obtidos de videos para a contagem de pedestres e determinacao dos fluxos em cenarios reais. A ferramenta proposta (1) rearranja os rotulos dos pedestres de acordo com o compor- tamento associado ao contexto considerado, (2) melhora a precisao na contagem dos pedestres a partir das rotas rastreadas, e (3) usa informacoes dinamicas de movimentacao para melhorar a identificacao do percurso completo realizado pelos pedestres individualmente. Com isso, a ferramenta proposta incrementa a acuracia das rotas rastreadas, agregando informacoes com base no comportamento caracteristico dos pedestres em terminais de transporte.

Ano

2020

Creators

Joelma Cristina Costa e Silva

Integração semântica das bases de dados do Sistema Único de Saúde: um estudo de caso com o Município de São Paulo

O grande incentivo à disponibilização de dados populacionais, principalmente em formatos abertos, tem gerado interesse para a realização de análises voltadas à gestão pública. Entretanto, a ausência de informações contextuais e semânticas apresenta um desafio, mesmo para áreas com terminologias já bem estabelecidas, como a da saúde. A execução da integração semântica das bases de dados tem sido uma solução apontada para a melhora na compreensão dos dados, levando assim ao maior aproveitamento destes. Desse modo, foi escolhida e adaptada uma metodologia de integração semântica das bases de dados de nascimento (SINASC) e mortalidade (SIM) do Sistema Único de Saúde, relacionadas à saúde materno-infantil no município de São Paulo. Foi realizado um estudo de caso relacionado ao desenvolvimento do indicador de saúde de Dias Potenciais de Gravidez Perdidos - DPGP. Utilizando a metodologia híbrida de integração semântica, foram criadas três camadas para a solução, cada uma contendo pelo menos uma ontologia, com sua especificação e mapeamentos necessários. As ontologias foram então povoadas com os dados das bases de dados advindos do Ministério da Saúde através do DATASUS e dados já linkados da Secretaria Municipal da Saúde de São Paulo, fruto da parceria realizada no contexto do projeto do indicador de saúde DPGP. As ontologias foram então avaliadas quanto à capacidade de responder às questões de competência eleitas pelos especialistas. A solução composta pelas ontologias e mapeamentos mostrou-se útil no processo de integração semântica dos dados, apresentando uma visão global das bases de dados e como estas se relacionavam. Por fim, as ontologias povoadas por dados públicos foram disponibilizadas para a comunidade.

Ano

2019

Creators

Debora Lina Nascimento Ciriaco Pereira

Técnicas de clusterização e estratificação de indivíduos para estudo de redes funcionais cerebrais

Em diversas aplicações de neurociência gostaríamos de entender semelhanças e diferenças entre indiví- duos analisando as conectividades do cérebro. Para isso, propomos duas abordagens: (i) agrupar indivíduos semelhantes ou (ii) posicioná-los em um espectro estratificado de um diagnóstico. Para (i), nós modelamos as redes cerebrais como um grafo e apresentamos dois métodos de clusterização baseados em análise espec- tral: um k-means para grafos do mesmo tamanho e uma abordagem baseada em modelo, chamada gCEM, para grafos de tamanhos diferentes. Para avaliar os pontos fortes e fracos dos métodos, projetamos alguns cenários usando modelos de grafos aleatórios. Também aplicamos a dados reais de compostos químicos e de redes cerebrais funcionais. Para (ii) nós utilizamos uma análise multivariada para encontrar associações cérebro-comportamentais e criar uma estratificação dos indivíduos variando de típicos a atípicos. Aplica- mos um framework de múltiplos holdouts com o método Sparse Partial Least Squares para encontrar essas associações. Utilizamos uma amostra de 349 crianças e adolescentes do conjunto de dados ABIDE II e en- contramos um modo de associação significativo entre dados fMRI e características comportamentais. As variáveis comportamentais mais importantes nesta associação estão relacionadas à capacidade de resposta social e as conexões cerebrais mais importantes estão dentro da rede de modo padrão e entre as redes somatomotora e visual.

Ano

2021

Creators

Taiane Coelho Ramos

Identificação de alterações em conectividades funcionais córtico-cerebelares no transtorno do espectro autista

Ainda pouco se sabe sobre as causas do transtorno do espectro autista (TEA) e seus efeitos na funcionalidade cerebral, porém, diversas pesquisas apontam que a condição esteja relacionada à uma conectividade diferenciada entre regiões do cérebro. A conectividade córtico-cerebelar tem sido tema de pesquisas nas últimas décadas em decorrência de novos achados que indicam que esta conectividade está relacionada ao aprendizado e refinamento de diversas funcionalidades do córtex. Acredita-se que uma falha na conectividade córtico-cerebelar poderia estar relacionada à falhas em funções sensorimotoras, cognitivas e emocionais. A investigação de regiões cuja conectividade córtico-cerebelar está alterada no TEA contribui para uma melhor compreensão deste transtorno. Assim, o objetivo deste trabalho é identificar regiões do cérebro cuja conectividade funcional com o cerebelo seja diferente entre indivíduos com desenvolvimento típico (DT) e diagnosticados com TEA. Para isto, utilizamos imagens de ressonância magnética funcional (fMRI) de 708 indivíduos em estado de repouso (432 DT e 276 TEA) com idades entre 6 e 58 anos coletados pelo consórcio ABIDE. Os dados foram pré-processados e divididos conforme regiões anatômicas do cérebro que foram adotadas como regiões de interesse (ROIs). Para determinar a conectividade funcional de cada região do córtex com o cerebelo, aplicamos o método de análise de componentes principais (PCA) nas ROIs do cerebelo e utilizamos um modelo regressão linear para cada ROI do córtex, sendo a série temporal da ROI do córtex a variável resposta e as componentes principais (PCs) do cerebelo as variáveis preditoras. Em seguida, identificamos as regiões com conectividade funcional diferente entre indivíduos com DT e diagnosticados com TEA através de um modelo linear que inclui como covariáveis, idade, gênero e local de coleta do dado. Identificamos cinco regiões do córtex que apresentam reduzida conectividade funcional com o cerebelo nos indivíduos com TEA, sendo elas: (i) giro fusiforme direito, (ii) giro pós-central direito, (iii) giro temporal superior direito e (iv) giro temporal médio direito e (v) esquerdo. Todas as cinco regiões são parte do sistema sensorimotor, e estão relacionadas à funções ligadas à sintomas característicos do quadro de TEA, como: sensibilidade à estímulos sensoriais, dislexia, prosopagnosia (dificuldade para reconhecer faces), dificuldade de compreensão de linguagem e dificuldade de reconhecimento de emoções em faces. Nossos resultados mostram que existem regiões do sistema sensorimotor que apresentam conectividade funcional com o cerebelo atipicamente reduzida em TEA, como corroborado por estudos de imageamento com tarefa específica e como hipotetizado por estudos de conectividade estrutural. Nós acreditamos que a conectividade córtico-cerebelar reduzida dessas regiões esteja prejudicando o processamento e aprendizado de funções sensorimotoras, levando ao surgimento de sintomas típicos do TEA.

Ano

2017

Creators

Taiane Coelho Ramos

Estudo de escalabilidade de servidores baseados em eventos em sitemas multiprocessados: um estudo de caso completo\"

O crescimento explosivo no número de usuários de Internet levou arquitetos de software a reavaliarem questões relacionadas à escalabilidade de serviços que são disponibilizados em larga escala. Projetar arquiteturas de software que não apresentem degradação no desempenho com o aumento no número de acessos concorrentes ainda é um desafio. Neste trabalho, investigamos o impacto do sistema operacional em questões relacionadas ao desempenho, paralelização e escalabilidade de jogos interativos multi-usuários. Em particular, estudamos e estendemos o jogo interativo, multi-usuário, QuakeWorld, disponibilizado publicamente pela id Software sob a licença GPL. Criamos um modelo de paralelismo para a simulação distribuída realizada pelo jogo e o implementamos no servidor do QuakeWorld com adaptações que permitem que o sistema operacional gerencie de forma adequada a execução da carga de trabalho gerada.

Ano

2006

Creators

Daniel de Angelis Cordeiro

A benchmark for Maximum-a-Posteriori Inference algorithms in discrete Sum-Product Networks

The solution to Maximum-a-Posteriori Inference problems in Sum-Product Networks provides the most probable configuration of the Random Variables encoded in its structure; a key step in Probabilistic reasoning that can be used for many applications, such as image auto-completion. It has been proven that this problem is NP-Hard (even to approximate) in Sum-Product Networks. Multiple algorithms have been developed to reach either approximate or exact solutions to this problem, but the experiments have been limited. In this Dissertation, we provide descriptions, analysis, and a benchmark for experimental testing for algorithms that solve this problem. We conclude that, given limited time, a Local Search algorithm starting with a solution found by the Argmax-Product algorithm reaches, on average, better results on the tested datasets.

Ano

2021

Creators

Heitor Reis Ribeiro

Segmentação de imagens SPECT/Gated-SPECT do miocárdio e geração de um mapa polar.

Tomografia computadorizada por emissão de fóton único (SPECT) é uma modalidade da medicina nuclear baseada na medida da distribuição espacial de um radionuclídeo. Esta técnica é amplamente utilizada em cardiologia para avaliar problemas de perfusão miocárdica, relacionados ao fluxo sanguíneo nas artérias coronárias. As imagens SPECT proporcionam melhor separação das regiões do miocárdio e facilitam a localização e a definição dos defeitos de perfusão. Um dos grandes desafios em estudos SPECT é a eficiente apresentação da informação, uma vez que um único estudo pode gerar imagens de centenas de cortes a serem analisados. Para resolver este problema, são utilizados mapas polares (também conhecidos como gráficos Bulls Eye). Mapas polares são construídos a partir de cortes tomográficos do ventrículo esquerdo e apresentam as informações dos exames de forma sumarizada, em uma imagem bidimensional. Essa dissertação apresenta um método para segmentação do ventrículo esquerdo em estudos SPECT do miocárdio e a construção de mapas polares. A segmentação do ventrículo esquerdo é realizada para facilitar o processo de geração automática de mapas polares. O método desenvolvido utiliza a transformada watershed, no contexto do paradigma de Beucher-Meyer. Para visualização dos resultados, foi desenvolvida uma aplicação, chamada Medical Image Visualizer (MIV). O MIV será disponibilizado como projeto Open Source, podendo ser livremente utilizado e/ou modificado pela comunidade de usuários, desenvolvedores e pesquisadores.

Ano

2011

Creators

Luis Roberto Pereira de Paula

A scalable microservice-based open source platform for smart cities

Smart City technologies emerge as a potential solution to tackle common problems in large urban centers by using city resources efficiently and providing quality services for citizens. Despite the various advances in middleware technologies to support future smart cities, there are yet no widely accepted platforms. Most of the existing solutions do not provide the required flexibility to be shared across cities. Moreover, the extensive use and development of non-open-source software leads to interoperability issues and limits the collaboration among R&D groups. Our research explores the use of a microservices architecture to address key practical challenges in smart city platforms. More specifically, we are concerned with the impact of microservices on addressing the key non-functional requirements to enable the development of smart cities such as supporting different scalability demands and providing a flexible architecture which can easily evolve over time. To this end, we are developing InterSCity, a microservice-based open source smart city platform that aims at supporting the development of sophisticated, cross- domain applications and services. Our early experience shows that microservices can be properly used as building blocks to achieve a loosely coupled, flexible architecture. Experimental results point towards the applicability of our approach in the context of smart cities since the platform can support multiple scalability demands. We expect to enable collaborative, novel smart city research, development, and deployment initiatives through the InterSCity platform. The full validation of the platform will be conducted using different smart city scenarios and workloads. Future work comprises the ongoing design and development effort on data processing services as well as more comprehensive evaluation of the proposed platform through scalability experiments.

Ano

2018

Creators

Arthur de Moura Del Esposte

Componentes CORBA

Esta dissertação apresenta o Modelo de Componentes CORBA, que é parte da especificação CORBA 3.0. Esse modelo representa uma das mudanças mais significativas em relação às versões anteriores de CORBA. O desenvolvimento de sistemas distribuídos é uma tarefa complexa, envolvendo fatores como a organização de conjuntos de objetos que devem ser implantados e executados em servidores distintos. Aqui estes conjuntos são denominados componentes, conceito já existente em outras especificações, como a dos Enterprise Java Beans. O texto da especificação dos Componentes CORBA, apesar de conter exemplos, mostra-se de difícil compreensão para o desenvolvedor de sistemas. Este trabalho se propõe a facilitar a tarefa de entendimento e utilização de Componentes CORBA, procurando ser didático e ilustrativo o suficiente para que diferentes perfis de leitores possam compreender os diversos conceitos apresentados, seja como uma visão geral, ou ainda como auxílio no desenvolvimento de componentes.

Ano

2003

Creators

Alexandre Ricardo Nardi