RCAAP Repository

Técnicas de clusterização e estratificação de indivíduos para estudo de redes funcionais cerebrais

Em diversas aplicações de neurociência gostaríamos de entender semelhanças e diferenças entre indiví- duos analisando as conectividades do cérebro. Para isso, propomos duas abordagens: (i) agrupar indivíduos semelhantes ou (ii) posicioná-los em um espectro estratificado de um diagnóstico. Para (i), nós modelamos as redes cerebrais como um grafo e apresentamos dois métodos de clusterização baseados em análise espec- tral: um k-means para grafos do mesmo tamanho e uma abordagem baseada em modelo, chamada gCEM, para grafos de tamanhos diferentes. Para avaliar os pontos fortes e fracos dos métodos, projetamos alguns cenários usando modelos de grafos aleatórios. Também aplicamos a dados reais de compostos químicos e de redes cerebrais funcionais. Para (ii) nós utilizamos uma análise multivariada para encontrar associações cérebro-comportamentais e criar uma estratificação dos indivíduos variando de típicos a atípicos. Aplica- mos um framework de múltiplos holdouts com o método Sparse Partial Least Squares para encontrar essas associações. Utilizamos uma amostra de 349 crianças e adolescentes do conjunto de dados ABIDE II e en- contramos um modo de associação significativo entre dados fMRI e características comportamentais. As variáveis comportamentais mais importantes nesta associação estão relacionadas à capacidade de resposta social e as conexões cerebrais mais importantes estão dentro da rede de modo padrão e entre as redes somatomotora e visual.

Year

2022-12-06T14:46:18Z

Creators

Taiane Coelho Ramos

Identificação de alterações em conectividades funcionais córtico-cerebelares no transtorno do espectro autista

Ainda pouco se sabe sobre as causas do transtorno do espectro autista (TEA) e seus efeitos na funcionalidade cerebral, porém, diversas pesquisas apontam que a condição esteja relacionada à uma conectividade diferenciada entre regiões do cérebro. A conectividade córtico-cerebelar tem sido tema de pesquisas nas últimas décadas em decorrência de novos achados que indicam que esta conectividade está relacionada ao aprendizado e refinamento de diversas funcionalidades do córtex. Acredita-se que uma falha na conectividade córtico-cerebelar poderia estar relacionada à falhas em funções sensorimotoras, cognitivas e emocionais. A investigação de regiões cuja conectividade córtico-cerebelar está alterada no TEA contribui para uma melhor compreensão deste transtorno. Assim, o objetivo deste trabalho é identificar regiões do cérebro cuja conectividade funcional com o cerebelo seja diferente entre indivíduos com desenvolvimento típico (DT) e diagnosticados com TEA. Para isto, utilizamos imagens de ressonância magnética funcional (fMRI) de 708 indivíduos em estado de repouso (432 DT e 276 TEA) com idades entre 6 e 58 anos coletados pelo consórcio ABIDE. Os dados foram pré-processados e divididos conforme regiões anatômicas do cérebro que foram adotadas como regiões de interesse (ROIs). Para determinar a conectividade funcional de cada região do córtex com o cerebelo, aplicamos o método de análise de componentes principais (PCA) nas ROIs do cerebelo e utilizamos um modelo regressão linear para cada ROI do córtex, sendo a série temporal da ROI do córtex a variável resposta e as componentes principais (PCs) do cerebelo as variáveis preditoras. Em seguida, identificamos as regiões com conectividade funcional diferente entre indivíduos com DT e diagnosticados com TEA através de um modelo linear que inclui como covariáveis, idade, gênero e local de coleta do dado. Identificamos cinco regiões do córtex que apresentam reduzida conectividade funcional com o cerebelo nos indivíduos com TEA, sendo elas: (i) giro fusiforme direito, (ii) giro pós-central direito, (iii) giro temporal superior direito e (iv) giro temporal médio direito e (v) esquerdo. Todas as cinco regiões são parte do sistema sensorimotor, e estão relacionadas à funções ligadas à sintomas característicos do quadro de TEA, como: sensibilidade à estímulos sensoriais, dislexia, prosopagnosia (dificuldade para reconhecer faces), dificuldade de compreensão de linguagem e dificuldade de reconhecimento de emoções em faces. Nossos resultados mostram que existem regiões do sistema sensorimotor que apresentam conectividade funcional com o cerebelo atipicamente reduzida em TEA, como corroborado por estudos de imageamento com tarefa específica e como hipotetizado por estudos de conectividade estrutural. Nós acreditamos que a conectividade córtico-cerebelar reduzida dessas regiões esteja prejudicando o processamento e aprendizado de funções sensorimotoras, levando ao surgimento de sintomas típicos do TEA.

Year

2022-12-06T14:46:18Z

Creators

Taiane Coelho Ramos

Estudo de escalabilidade de servidores baseados em eventos em sitemas multiprocessados: um estudo de caso completo\"

O crescimento explosivo no número de usuários de Internet levou arquitetos de software a reavaliarem questões relacionadas à escalabilidade de serviços que são disponibilizados em larga escala. Projetar arquiteturas de software que não apresentem degradação no desempenho com o aumento no número de acessos concorrentes ainda é um desafio. Neste trabalho, investigamos o impacto do sistema operacional em questões relacionadas ao desempenho, paralelização e escalabilidade de jogos interativos multi-usuários. Em particular, estudamos e estendemos o jogo interativo, multi-usuário, QuakeWorld, disponibilizado publicamente pela id Software sob a licença GPL. Criamos um modelo de paralelismo para a simulação distribuída realizada pelo jogo e o implementamos no servidor do QuakeWorld com adaptações que permitem que o sistema operacional gerencie de forma adequada a execução da carga de trabalho gerada.

Year

2022-12-06T14:46:18Z

Creators

Daniel de Angelis Cordeiro

A benchmark for Maximum-a-Posteriori Inference algorithms in discrete Sum-Product Networks

The solution to Maximum-a-Posteriori Inference problems in Sum-Product Networks provides the most probable configuration of the Random Variables encoded in its structure; a key step in Probabilistic reasoning that can be used for many applications, such as image auto-completion. It has been proven that this problem is NP-Hard (even to approximate) in Sum-Product Networks. Multiple algorithms have been developed to reach either approximate or exact solutions to this problem, but the experiments have been limited. In this Dissertation, we provide descriptions, analysis, and a benchmark for experimental testing for algorithms that solve this problem. We conclude that, given limited time, a Local Search algorithm starting with a solution found by the Argmax-Product algorithm reaches, on average, better results on the tested datasets.

Year

2022-12-06T14:46:18Z

Creators

Heitor Reis Ribeiro

Segmentação de imagens SPECT/Gated-SPECT do miocárdio e geração de um mapa polar.

Tomografia computadorizada por emissão de fóton único (SPECT) é uma modalidade da medicina nuclear baseada na medida da distribuição espacial de um radionuclídeo. Esta técnica é amplamente utilizada em cardiologia para avaliar problemas de perfusão miocárdica, relacionados ao fluxo sanguíneo nas artérias coronárias. As imagens SPECT proporcionam melhor separação das regiões do miocárdio e facilitam a localização e a definição dos defeitos de perfusão. Um dos grandes desafios em estudos SPECT é a eficiente apresentação da informação, uma vez que um único estudo pode gerar imagens de centenas de cortes a serem analisados. Para resolver este problema, são utilizados mapas polares (também conhecidos como gráficos Bulls Eye). Mapas polares são construídos a partir de cortes tomográficos do ventrículo esquerdo e apresentam as informações dos exames de forma sumarizada, em uma imagem bidimensional. Essa dissertação apresenta um método para segmentação do ventrículo esquerdo em estudos SPECT do miocárdio e a construção de mapas polares. A segmentação do ventrículo esquerdo é realizada para facilitar o processo de geração automática de mapas polares. O método desenvolvido utiliza a transformada watershed, no contexto do paradigma de Beucher-Meyer. Para visualização dos resultados, foi desenvolvida uma aplicação, chamada Medical Image Visualizer (MIV). O MIV será disponibilizado como projeto Open Source, podendo ser livremente utilizado e/ou modificado pela comunidade de usuários, desenvolvedores e pesquisadores.

Year

2022-12-06T14:46:18Z

Creators

Luis Roberto Pereira de Paula

A scalable microservice-based open source platform for smart cities

Smart City technologies emerge as a potential solution to tackle common problems in large urban centers by using city resources efficiently and providing quality services for citizens. Despite the various advances in middleware technologies to support future smart cities, there are yet no widely accepted platforms. Most of the existing solutions do not provide the required flexibility to be shared across cities. Moreover, the extensive use and development of non-open-source software leads to interoperability issues and limits the collaboration among R&D groups. Our research explores the use of a microservices architecture to address key practical challenges in smart city platforms. More specifically, we are concerned with the impact of microservices on addressing the key non-functional requirements to enable the development of smart cities such as supporting different scalability demands and providing a flexible architecture which can easily evolve over time. To this end, we are developing InterSCity, a microservice-based open source smart city platform that aims at supporting the development of sophisticated, cross- domain applications and services. Our early experience shows that microservices can be properly used as building blocks to achieve a loosely coupled, flexible architecture. Experimental results point towards the applicability of our approach in the context of smart cities since the platform can support multiple scalability demands. We expect to enable collaborative, novel smart city research, development, and deployment initiatives through the InterSCity platform. The full validation of the platform will be conducted using different smart city scenarios and workloads. Future work comprises the ongoing design and development effort on data processing services as well as more comprehensive evaluation of the proposed platform through scalability experiments.

Year

2022-12-06T14:46:18Z

Creators

Arthur de Moura Del Esposte

Componentes CORBA

Esta dissertação apresenta o Modelo de Componentes CORBA, que é parte da especificação CORBA 3.0. Esse modelo representa uma das mudanças mais significativas em relação às versões anteriores de CORBA. O desenvolvimento de sistemas distribuídos é uma tarefa complexa, envolvendo fatores como a organização de conjuntos de objetos que devem ser implantados e executados em servidores distintos. Aqui estes conjuntos são denominados componentes, conceito já existente em outras especificações, como a dos Enterprise Java Beans. O texto da especificação dos Componentes CORBA, apesar de conter exemplos, mostra-se de difícil compreensão para o desenvolvedor de sistemas. Este trabalho se propõe a facilitar a tarefa de entendimento e utilização de Componentes CORBA, procurando ser didático e ilustrativo o suficiente para que diferentes perfis de leitores possam compreender os diversos conceitos apresentados, seja como uma visão geral, ou ainda como auxílio no desenvolvimento de componentes.

Year

2022-12-06T14:46:18Z

Creators

Alexandre Ricardo Nardi

Auralização de fontes sonoras móveis usando HRTFs

Este trabalho tem por objetivo desenvolver ferramentas que permitam gerar em fones-de-ouvido o efeito psicoacústico de fontes sonoras locomovendo-se no espaço, por meio da auralização do sinal monofônico original. Embora a auralização binaural possa ser feita empregando variações de atraso (chamadas ITD interaural time difference, ou diferença de tempo interaural) e de intensidade (chamadas ILD interaural level difference, ou diferença de nível interaural) entre os canais, melhores resultados psicoacústicos podem ser obtidos ao se utilizar filtros digitais conhecidos como HRTFs (head related transfer functions, ou funções de transferência relativas à cabeça). Uma HRTF insere no sinal monofônico informações que possibilitam ao sistema auditivo identificá-lo como proveniente de uma direção específica, direção esta que é única para cada HRTF. Para posicionar uma fonte estática em uma direção específica, bastaria, então, filtrar o sinal original pela HRTF da direção desejada. Se, no entanto, for desejável que a fonte se locomova em uma trajetória contínua, um número infinitamente grande de filtros seria necessário. Como eles são, normalmente, obtidos empiricamente, um número arbitrariamente alto deles não está disponível. Disso surge a necessidade de técnicas de interpolação de HRTFs, que possibilitem gerar os filtros intermediários não disponíveis. Este trabalho apresenta três novas técnicas de interpolação de HRTFs, para assim alcançar o objetivo de auralizar fontes sonoras móveis: a interpolação triangular, que é uma técnica de interpolação linear baseada na técnica de panorama sonoro VBAP (vector-based amplitude panning, ou panorama sonoro baseado em vetores); o método das movimentações discretas, que busca explorar o limiar de percepção do nosso sistema auditivo para, com isso, gerar uma técnica extremamente barata computacionalmente; e a interpolação espectral, que altera continuamente as estruturas das HRTFs para gerar filtros interpolados. São apresentadas também as implementações feitas dessas novas técnicas desenvolvidas, bem como os testes numéricos realizados para medir sua eficácia.

Year

2022-12-06T14:46:18Z

Creators

Gustavo Henrique Montesião de Sousa

Filtros para a busca e extração de padrões aproximados em cadeias biológicas

Esta dissertação de mestrado aborda formulações computacionais e algoritmos para a busca e extração de padrões em cadeias biológicas. Em particular, o presente texto concentra-se nos dois problemas a seguir, considerando-os sob as distâncias de Hamming e Levenshtein: a) como determinar os locais nos quais um dado padrão ocorre de modo aproximado em uma cadeia fornecida; b) como extrair padrões que ocorram de modo aproximado em um número significativo de cadeias de um conjunto fornecido. O primeiro problema, para o qual já existem diversos algoritmos polinomiais, tem recebido muita atenção desde a década de 60, e ganhou novos ares com o advento da biologia computacional, nos idos dos anos 80, e com a popularização da Internet e seus mecanismos de busca: ambos os fenômenos trouxeram novos obstáculos a serem superados, em razão do grande volume de dados e das bastante justas restrições de tempo inerentes a essas aplicações. O segundo problema, de surgimento um pouco mais recente, é intrinsicamente desafiador, em razão de sua complexidade computacional, do tamanho das entradas tratadas nas aplicações mais comuns e de sua dificuldade de aproximação. Também é de chamar a atenção o seu grande potencial de aplicação. Neste trabalho são apresentadas formulações adequadas dos problemas abordados, assim como algoritmos e estruturas de dados essenciais ao seu estudo. Em especial, estudamos a extremamente versátil árvore dos sufixos, assim como uma de suas generalizações e sua estrutura irmã: o vetor dos sufixos. Grande parte do texto é dedicada aos filtros baseados em q-gramas para a busca aproximada de padrões e algumas de suas mais recentes variações. Estão cobertos os algoritmos bit-paralelos de Myers e Baeza-Yates-Gonnet para a busca de padrões; os algoritmos de Sagot para a extração de padrões; os algoritmos de filtragem de Ukkonen, Jokinen-Ukkonen, Burkhardt-Kärkkäinen, entre outros.

Year

2022-12-06T14:46:18Z

Creators

Domingos Soares Neto

Recoloração convexa de grafos: algoritmos e poliedros

Neste trabalho, estudamos o problema a recoloração convexa de grafos, denotado por RC. Dizemos que uma coloração dos vértices de um grafo G é convexa se, para cada cor tribuída d, os vértices de G com a cor d induzem um subgrafo conexo. No problema RC, é dado um grafo G e uma coloração de seus vértices, e o objetivo é recolorir o menor número possível de vértices de G tal que a coloração resultante seja convexa. A motivação para o estudo deste problema surgiu em contexto de árvores filogenéticas. Sabe-se que este problema é NP-difícil mesmo quando G é um caminho. Mostramos que o problema RC parametrizado pelo número de mudanças de cor é W[2]-difícil mesmo se a coloração inicial usa apenas duas cores. Além disso, provamos alguns resultados sobre a inaproximabilidade deste problema. Apresentamos uma formulação inteira para a versão com pesos do problema RC em grafos arbitrários, e então a especializamos para o caso de árvores. Estudamos a estrutura facial do politopo definido como a envoltória convexa dos pontos inteiros que satisfazem as restrições da formulação proposta, apresentamos várias classes de desigualdades que definem facetas e descrevemos os correspondentes algoritmos de separação. Implementamos um algoritmo branch-and-cut para o problema RC em árvores e mostramos os resultados computacionais obtidos com uma grande quantidade de instâncias que representam árvores filogenéticas reais. Os experimentos mostram que essa abordagem pode ser usada para resolver instâncias da ordem de 1500 vértices em 40 minutos, um desempenho muito superior ao alcançado por outros algoritmos propostos na literatura.

Year

2022-12-06T14:46:18Z

Creators

Phablo Fernando Soares Moura

Acordo de chaves criptográficas hierárquico e sem certificado

Apresentamos um novo esquema de acordo de chaves criptográficas hierárquico, não Interativo e seguro contra comprometimento de múltiplos nós. Esquemas para Acordo de chaves criptográficas (KAS - Key Agreement Scheme), são usados quando duas ou mais entidades desejam compartilhar uma chave secreta única, afim de para realizar uma comunicação segura por meio de um protocolo de criptografia simétrico. O acordo de chaves proposto possui as seguintes características: Não interativo: Chaves compartilhadas são calculadas sem interação dos nós participantes; Chaves Públicas sem certificados (Certificateless): Para o cálculo da chave compartilhada o nó utiliza sua chave secreta e a chave pública do destinatário, que é certificada pela identidade do destinatário; Hierárquico: Permite que seja utilizado um gerenciamento hierárquico, para concessão, revogação e distribuição de chaves; e Resistente: Permite segurança do sistema mesmo quando nós dentro da hierarquia são comprometidos em qualquer ordem e quantidade. Este trabalho é uma nova abordagem do artigo \"Strongly-Resilent and Non-Interactive Hierarchical Key-Agreement in MANETs\" onde substituímos o uso de sistemas baseados na identidade por sistemas sem certificado, eliminando a custódia de chaves em todos os níveis hierárquicos, aumentando a segurança do sistema quanto ao comprometimento de nós. É apresentado ainda uma discussão sobre a segurança do esquema proposto e de acordos de chaves não interativos.

Year

2022-12-06T14:46:18Z

Creators

Vilc Queupe Rufino

Detecção e rastreamento de lábios em dispositivos móveis

A tecnologia tem estado presente cada vez mais no dia-a-dia e trouxe avanços notáveis para a área de visão computacional. Uma das áreas de visão, a detecção de características humanas, sempre foi importante para tarefas de reconhecimento, vigilância, controle e outras. Há um grande potencial de uso na área de acessibilidade, podendo ser benéfica para um grupo de pessoas com necessidades especiais, para proporcionar uma maior interação com o ambiente e com as pessoas. Uma dessas características, os lábios, é útil para o reconhecimento visual e/ou auditivo da fala e pode ser usada para aplicações em acessibilidade de deficientes auditivos e surdos, como por exemplo para a leitura labial. Com a crescente popularização dos dispositivos móveis e avanços no hardware, além do custo cada vez mais acessível, torna-se possível a implementação de métodos rápidos e eficientes para detecção e seu posterior rastreamento. Assim, é possível o uso em tempo real nos dispositivos móveis. Esta dissertação descreve um sistema desenvolvido para a detecção e rastreamento da região dos lábios nesse contexto. A detecção da região dos lábios é feita pelo algoritmo de Viola-Jones, com o diferencial do uso de conjuntos de imagens sintéticas para o treinamento e geração do detector proposto. O rastreamento é baseado no Camshift com modificações, um método de rastreamento de objeto por kernel. A implementação é descrita em detalhes e são mostrados resultados obtidos por sequências gravadas em um dispositivo móvel. As sequências são capturadas em uma configuração não frontal, o que pode ser útil em aplicações específicas. Métricas baseadas no número de acertos, de erros e de falsos positivos são usadas para avaliar os resultados, além da taxa de quadros por segundo.

Year

2022-12-06T14:46:18Z

Creators

Giseli de Araujo Ramos

Uma arquitetura hierárquica baseada em sistema de arquivos para monitoramento de pacotes de rede no sistema operacional GNU/Linux

Capturar e analisar pacotes de dados que trafegam pelas redes são tarefas essenciais para os administradores de redes. Estas tarefas ajudam na detecção de anomalias nos sistemas e na verificação do estado atual da rede. Existem várias aplicações que desempenham este papel para o sistema operacional GNU/Linux. Estes programas também exportam informações para os usuários e outras aplicações de várias maneiras. Entretanto, não exportam estas informações de forma hierárquica. Esta pesquisa propõe uma arquitetura alternativa aos sistemas atuais. Nossa arquitetura exporta pacotes de dados em uma estrutura hierárquica de arquivos e diretórios. Além disso, por se tratar de uma arquitetura modular, filtros adicionais, desenvolvidos por terceiros, podem ser adicionados ao sistema. A arquitetura proposta acompanha uma implementação de referência: o sistema de arquivos virtuais netsfs (Network Statistics File System), que funciona em espaço de núcleo (kernel space). A arquitetura e o sistema de arquivos netsfs, propostos nesta pesquisa, apresentam um método alternativo para exibir os pacotes de redes. Os resultados mostraram uma aparente melhoria no que diz respeito à vazão da rede.

Year

2022-12-06T14:46:18Z

Creators

Beraldo Costa Leal

Human-help in automated planning under uncertainty

Planning is the sub-area of artificial intelligence that studies the process of selecting actions to lead an agent, e.g. a robot or a softbot, to a goal state. In many realistic scenarios, any choice of actions can lead the robot into a dead-end state, that is, a state from which the goal cannot be reached. In such cases, the robot can, pro-actively, resort to human help in order to reach the goal, an approach called symbiotic autonomy. In this work, we propose two different approaches to tackle this problem: (I) contingent planning, where the initial state is partially observable, configuring a belief state, and the outcomes of the robot actions are non-deterministic; and (II) probabilistic planning, where the initial state may be partially or totally observable and the actions have probabilistic outcomes. In both approaches, the human help is considered a scarce resource that should be used only when necessary. In contingent planning, the problem is to find a policy (a function mapping belief states into actions) that: (i) guarantees the agent will always reach the goal (strong policy); (ii) guarantees that the agent will eventually reach the goal (strong cyclic policy), or (iii) does not guarantee achieving the goal (weak policy). In this scenario, we propose a contingent planning system that considers human help to transform weak policies into strong (cyclic) policies. To do so, two types of human help are included: (i) human actions that modify states and/or belief states; and (ii) human observations that modify belief states. In probabilistic planning, the problem is to find a policy (a function mapping between world states and actions) that can be one of these two types: a proper policy, where the agent has probability 1 of reaching the goal; or an improper policy, in the case of unavoidable dead-ends. In general, the goal of the agent is to find a policy that minimizes the expected accumulated cost of the actions while maximizes the probability of reaching the goal. In this scenario, this work proposes probabilistic planners that consider human help to transform improper policies into proper policies however, considering two new (alternative) criteria: either to minimize the probability of using human actions or to minimize the expected number of human actions. Furthermore, we show that optimal policies under these criteria can be efficiently computed either by increasing human action costs or given a penalty when a human help is used. Solutions proposed in both scenarios, contingent planning and probabilistic planning with human help, were evaluated over a collection of planning problems with dead-ends. The results show that: (i) all generated policies (strong (cyclic) or proper) include human help only when necessary; and (ii) we were able to find policies for contingent planning problems with up to 10^15000 belief states and for probabilistic planning problems with more than 3*10^18 physical states.

Year

2022-12-06T14:46:18Z

Creators

Ignasi Andrés Franch

Computer vision analysis of unconstrained urban ground-level images

Nowadays, images are generated on a large scale and in a decentralized way. Such modality of data carries valuable information but extracting this information is not always trivial. In this thesis, we tackle computer vision challenges when using ground-level images. The first challenge is the high-cost annotation for evaluating object detection methods. In the context of image degradation imposed by weather, the second issue is the lack of analysis that evaluates the impact of de-raining methods to the object detection algorithms on rainy images. The third challenge is the evaluation of the reliability of the density estimation results from a real sensor network. The emergence of sensor network data motivates the last problem, of estimating the urban degradation in the city using city images. These challenges define the scope of this thesis. For the first problem, we proposed an approach with cheap annotation cost for object detectors comparison and we applied it in a semi-supervised learning approach using surveillance images. To address challenge two, we established a protocol and performed an extensive benchmark of object detection preceded by de-raining methods. We find strong indicators that no current de-raining method can robustly improve the posterior object detection accuracy when applied in this naive way. The third issue was tackled by creating a probabilistic sensing model to establish theoretical bounds for the errors of the sensed distributions. The approach has been validated using simulation and applied to compute the pedestrian density map in Manhattan. To attack the last problem, we systematically collected public images of São Paulo and segmented the regions affected by tagging, as an indicator of the urban degradation of the region. The source code is fully released.

Year

2022-12-06T14:46:18Z

Creators

Éric Keiji Tokuda

Answer set programming probabilístico

Este trabalho introduz uma técnica chamada Answer Set Programming Probabilístico (PASP), que permite a modelagem de teorias complexas e a verificação de sua consistência em relação a um conjunto de dados estatísticos. Propomos métodos de resolução baseados em uma redução para o problema da satisfazibilidade probabilística (PSAT) e um método de redução de Turing ao ASP.

Year

2022-12-06T14:46:18Z

Creators

Eduardo Menezes de Morais

Comparação de algoritmos para o Problema dos K Menores Caminhos

O Problema dos K Menores Caminhos é uma generalização do Problema do Menor Caminho, em que desejamos encontrar os K caminhos de menor custo entre dois vértices de um grafo. Estudamos e implementamos algoritmos que resolvem esse problema em grafos dirigidos, com peso nos arcos e que permitem apenas caminhos sem repetição de vértices na resposta. Comparamos seus desempenhos utilizando grafos do 9th DIMACS Implementation Challenge. Identificamos os pontos fortes e fracos de cada algoritmo, e propusemos uma variante híbrida dos algoritmos de Feng e de Pascoal. Essa variante proposta obteve desempenho superior aos algoritmos base em alguns grafos, e resultado superior a pelo menos um deles na grande maioria dos testes.

Year

2022-12-06T14:46:18Z

Creators

Diogo Haruki Kykuta

Integração entre múltiplas ontologias: reúso e gerência de conflitos

A reutilização de conhecimento é uma tarefa chave para qualquer sistema computacional. Entretanto, o reúso indiscriminado desse conhecimento pode gerar resultados conflitantes com o objetivo de uso do conhecimento, levando sistemas a se comportarem de maneira imprevisível. Neste trabalho estudamos as consequências do reúso de conhecimento em ontologias baseadas em lógicas de descrição. Focamos principalmente nos problemas que podem ser causados pela fusão de ontologias. Investigamos e comparamos a capacidade das ferramentas de desenvolvimento de ontologias atuais de lidarem com esses problemas e como a teoria se desenvolveu para resolver os mesmos problemas. Realizamos a construção de um arcabouço lógico e de software, organizado na forma de um processo, que tem como objetivo auxiliar o projetista de ontologias a resolver conflitos advindos da fusão. O processo agrupa tarefas descritas normalmente na literatura em separado. Acreditamos que a união dessas abordagens leva a uma melhor solução de conflitos. Durante o desenvolvimento deste trabalho, concentramos nossos esforços principalmente no desenvolvimento de algoritmos para a construção de sub-ontologias maximais, onde os conflitos não ocorram, bem como a ordenação desses conjuntos segundo critérios comuns discutidos na literatura. Tais estratégias foram implementadas em software e testadas utilizando dados gerados automaticamente e dados reais.

Year

2022-12-06T14:46:18Z

Creators

Raphael Mendes de Oliveira Cobe

Uma técnica automática baseada em morfologia matemática para a medida de sinal de imagens de cDNA

O objetivo deste trabalho é apresentar uma técnica automática baseada em morfologia matemática para medida de sinal em imagens de cDNA desenvolvida no BIOINFO,em parceria com o Instituto Ludwig de Pesquisa contra o Câncer. A tecnologia de lâminas de cDNA é um processo baseado em hibridização que possibilita observar a concentração relativa de mRNA de amostras de tecidos analisando a luminosidade de sinais fluorescentes ou radioativos. Hibridização é o processo bioquímico onde duas fitas de ácido nucleico com seqüências complementares se combinam. A técnica apresentada permite o cálculo da expressão gênica com alto grau de automação, podendo o usuário corrigir com facilidade eventuais erros de segmentação. O usuário interage com o programa apenas para selecionar as imagens e inserir os dados de geometria da lâmina. A estratégia de solução usada tem três fases: gradeamento dos blocos, gradeamento dos spots e segmentação dos spots. Todas as fases utilizam filtros morfológicos e as fases de gradeamento possuem um passo final de correção baseado nos dados de geometria da lâmina o que aumenta a robustez do processo, que funciona bem mesmo em imagens ruidosas.

Year

2022-12-06T14:46:18Z

Creators

Daniel Oliveira Dantas

Software startup ecosystems evolution: a maturity model

Resulting from the technological revolution over the last few decades, many software startup ecosystems have emerged around the globe. Boosted by the Internet, the omnipresence of mobile devices, and the abundance of cloud-based services, software companies with scalable business models, known as startups, became all the hype. With tech entrepreneurs as their main agents, some of these ecosystems have existed for over 50 years, while others are newly born. This difference in evolution and maturity makes comparing tech hubs a challenge. Moreover, if they are to evolve towards fruitful and sustainable environments, nascent ecosystems need a clear vision of how to develop their community. This thesis presents a multiple-case study research in three different ecosystems, and it was divided in three phases. During the first phase, we analyzed the Israeli entrepreneurship ecosystem and, using grounded theory, created a conceptual generalized framework to map ecosystems. We also developed a methodology and a systematic interview protocol to be used to analyze any ecosystem. The second phase was performed in São Paulo, with the objective of refining and validating both the methodology and the conceptual framework. The second phase resulted in the discovery of how important it is to analyze ecosystem dynamics and evolution process, leading us to create a maturity model for software startup ecosystems. The maturity model was based on the conceptual model we created, mapping the most important factors that define an ecosystem. To validate and refine the Maturity Model created in the second phase, we ran a third case-study iteration in New York City. Based on the feedback from over a dozen experts, we generated the final model and a practical guide to determine an ecosystems maturity level. With this model, it is possible not only to compare different ecosystems, but also to identify gaps and propose customized practical actions that can yield meaningful improvements and lead ecosystems to the next level of development.

Year

2022-12-06T14:46:18Z

Creators

Daniel Cukier