Repositório RCAAP
Hand pose estimation and movement analysis for occupational therapy
Hand pose estimation is a challenging problem in computer vision with a wide range of applications, especially in human-computer interface. With the development of inexpensive consumer-level depth cameras and the evolution on deep learning techniques, the current state-of-art in the problem is continuously developing and several new methods have been proposed in recent years. Those methods are mostly data-driven and reach good results in standard datasets such as NYU, ICVL and HANDS17. An application that would benefit from the use of computer vision techniques is hand occupational therapy. In chronic diseases like rheumatoid arthritis (RA), the evaluation of the hand functional state is fundamental for the treatment and prevention of finger deformities. One of the procedures for deformity diagnosis is the measurement of movement angles i.e. flexion/extension and abduction/addution, made using goniometers in a process that can be time-consuming and invasive for the patient. The main proposal of this PhD is to fill a gap in the literature by proposing and evaluating the viability of using a framework composed of a 3D low-cost sensor and a 3D hand pose estimation state-of-art method for automatic assessment of rheumatoid arthritis patients. Given depth maps as input, our framework estimates 3D hand joint positions using a deep convolutional neural network. The proposed pose estimation algorithm can be executed in real-time, allowing users to visualise 3D skeleton tracking results at the same time as the depth images are acquired. Once 3D joint poses are obtained, our framework estimates flexion/extension and abduction/adduction angles by applying computational geometry oper- ations. The absence of public datasets with RA patients in the literature makes the estimation of hand poses of patients a challenge for computer vision data-driven methods. We therefore proposed a protocol to acquire new data from groups of patients and control. We performed experiments of identification of RA patients and control sets and also performed comparison with goniometer data. Results show that a method based on Fourier descriptors is able to perform automatic discrimination of hands with Rheumatoid Arthritis (RA) and healthy pa- tients. The angle between joints can be used as an indicative of current movement capabilities and function. The acquisition is much easier, non-invasive and patient-friendly, significantly reducing the evaluation time and offering real-time data for the dynamic movement.
2021
Luciano Walenty Xavier Cejnog
Estimadores de parâmetro consistentes para modelos de grafo aleatório e estudo sobre a relação entre a rede modo padrão do cérebro e o volume do corpo caloso
Grafos possibilitam estudar o funcionamento de diversos sistemas, como redes biológicas e sociais. Nesse contexto, surge o problema (i) de selecionar um modelo de grafo aleatório e um conjunto de parâmetros que melhor se ajustem a uma rede do mundo real, buscando interpretar e predizer seu comportamento. Dada uma sequência de redes e valores observados, temos adicionalmente o problema (ii) de correlacioná-los. Para (i), Takahashi e colegas propuseram um método baseado nas densidades dos espectrais (distribuição dos autovalores da matriz de adjacência) cuja principal vantagem é a generalidade. Nós propusemos adaptações, baseadas na norma l1 entre densidades espectrais e entre distribuições acumuladas, que nos levaram à derivação de resultados teóricos sobre a consistência do estimador de parâmetro. Finalmente, o problema (ii) é abordado no Transtorno do Espectro Autista (TEA), cujas sub-classificações em Asperger e autismo têm bases neurais pouco conhecidas. Como há evidências de alterações da rede modo padrão em TEA, comparamos a relação dessa rede com a maior estrutura de matéria branca do cérebro (corpo caloso) entre Asperger e autismo. Nossos resultados sugerem que essa relação é maior em Asperger do que em autismo na região anterior do corpo caloso e que o maior autovalor do grafo é capaz de capturar a relação com o parâmetro estimado.
2020
Suzana de Siqueira Santos
Belief change without compactness
One of the main goals of Artificial Intelligence (AI) is to build rational agents that are capable of taking rational decisions autonomously. For this, it is essential to devise mechanisms to properly represent knowledge, and reason about the knowledge that an agent has about the world. However, an agents knowledge is not static - it gets updated as the agent acquires new information. One of the big challenges involving knowledge representation is how an agent ought to change its own knowledge and beliefs in response to any new information it acquires. This, in short, is the problem of belief change. Standard approaches of Belief Change come in two flavours: a set of rationality postulates that prescribes epistemic behaviours for an agent, and a collection of constructions, or functions, to perform such rational changes. The two foremost paradigms of Belief Change are the AGM paradigm (for belief change in a static environment) and the KM paradigm (for belief change in a dynamic environment). Both these paradigms make strong assumptions about the underlying logic used to express an agent beliefs, such as Supraclassicality and Compactness. Relying on these assumptions, however, is rather restrictive, since many logics that are important for both AI and Computer Science applications do not have them. This thesis focuses on extending Belief Change to the realm of non-compact logics. One of the side effects of dispensing with compactness is that standard constructions of both the AGM and the KM paradigms no longer nicely connect with the respective rationality postulates. In this work, I identify the reasons behind this breakdown. This in turn helps us identify some minimal conditions under which the existence of rational AGM and KM belief change operations is guaranteed. Subsequently we provide constructive accounts of AGM- and KM-rational belief change operations without the compactness assumption, and we offer full accounts of belief change for both the paradigms. The main difference of our approach from the standard ones relies on the way epistemic preference of an agent is represented: instead of remainders and Groves Systems of Spheres, we consider maximal complete theories and genuine partial relations over worlds. Furthermore, we also consider the connection between AGM revision and non-monotonic reasoning (NMR) systems, often viewed to be two sides of the same coin. We demonstrate that the bridge between belief revision and NMR breaks down in the absence of compactness. We then identify the basis of this breakdown, and present a new non-monotonic system that appropriately connects with the AGM revision postulates even in absence of compactness. Significantly, this connection with the AGM paradigm is independent of any specific constructions (such as systems of spheres), and is directly established between the AGM postulates and the axioms of the proposed non-monotonic system.
2020
Jandson Santos Ribeiro Santos
Uma visão sobre a próxima geração de abstrações de processos em sistemas operacionais
Nas últimas décadas, muitos pesquisadores dedicaram-se a avançar o modelo atual de abstração de processos, seja por meio da adição de camadas extras de segurança, seja em busca de melhorias de desempenho, ou ainda com o objetivo de fornecer suporte para novos recursos de hardware. Tais melhorias são relevantes porque abstrações de processos em SOs de propósito geral representam o ponto de encontro de diversos recursos de interesse dos usuários. Processos representam a convergência entre a aplicação dos usuários, os modelos de programação oferecidos pelo SO e a utilização dos recursos de hardware. Os esforços para expandir as capacidades dos SOs no nível da abstração de processos abrem uma nova área de pesquisa ainda pouco explorada. Nesta dissertação, após um levantamento preliminar dos trabalhos relacionados ao tema, nos concentramos em 9 pesquisas que foram selecionadas levando-se em consideração aspectos como as propostas de implementação adotadas por elas e o seu impacto na literatura da área. Desses trabalhos, derivamos um conjunto de características que consideramos importantes para guiar o desenvolvimento da próxima geração de abstrações de processos. Partindo de tais características, propomos um modelo teórico chamado de bead cujo o objetivo é ilustrar os desafios e vantagem em se expandir as abstrações de processos. Além disso, sugerimos uma coleção de microbenchmarks que podem ser utilizados para revelar parte dos impactos de novas abstrações de processos. Por fim, realizamos uma discussão sobre aplicações de uso cotidiano que podem ser utilizadas para a validação dessas propostas e que também possam delas se beneficiar.
2019
Rodrigo Siqueira Jordão
Métodos estocásticos de otimização global para empacotar círculos em elipses
Neste trabalho, consideramos uma nova parametrização para o problema de empacotar a maior quantidade possível de círculos idênticos uma região elíptica dada. Apresentamos algoritmos com propriedades de convergência global e algumas estratégias heurísticas. Ilustramos com experimentos numéricos extensivos cada uma das estratégias utilizadas
2012
Luis Henrique Bustamante de Morais
Estudo comparativo de passos espectrais e buscas lineares não monótonas
O método do Gradiente Espectral, introduzido por Barzilai e Borwein e analisado por Raydan, para minimização irrestrita, é um método simples cujo desempenho é comparável ao de métodos tradicionais como, por exemplo, gradientes conjugados. Desde a introdução do método, assim como da sua extensão para minimização em conjuntos convexos, foram introduzidas várias combinações de passos espectrais diferentes, assim como de buscas lineares não monótonas diferentes. Dos resultados numéricos apresentados em vários trabalhos não é possível inferir se existem diferenças significativas no desempenho dos diversos métodos. Além disso, também não fica clara a relevância das buscas não monótonas como uma ferramenta em si próprias ou se, na verdade, elas são úteis apenas para permitir que o método seja o mais parecido possível com o método original de Barzilai e Borwein. O objetivo deste trabalho é comparar os diversos métodos recentemente introduzidos como combinações de diferentes buscas lineares não monótonas e diferentes passos espectrais para encontrar a melhor combinação e, a partir daí, aferir o desempenho numérico do método.
2008
Fernando Taietti Camargo
InterSCSimulator: a scalable, open source, smart city simulator
Large cities around the world face numerous challenges to guarantee the quality of life of its citizens. A promising approach to cope with these problems is the concept of Smart Cities, of which the main idea is the use of Information and Communication Technologies to improve city services and infrastructure. Being able to simulate the execution of Smart Cities scenarios would be extremely beneficial for the advancement of the field and for governments. Such a simulator would need to represent a large number of agents such as cars, hospitals, and gas pipelines. One possible approach for doing this in a computer system is to use the actor model as a programming paradigm so that each agent corresponds to an actor. The Erlang programming language is based on the actor model and is the most commonly used implementation of it. In this thesis, we present the first version of InterSCSimulator, an open-source, extensible, large-scale traffic Simulator for Smart Cities developed in Erlang. Experiments showed that the simulator is capable of simulating millions of agents using a real map of a large city. We also present study cases which demonstrate the possible uses of the simulator such as tests new urban infrastructure and test the viability of future transportation modes.
2019
Eduardo Felipe Zambom Santana
Correspondência inexata entre grafos.
Sejam GI = (VI ,AI) e GM = (VM,AM) dois grafos simples. Um mapeamento de GI para GM é um conjunto de associações, tal que cada vértice de VI está associado a um vértice de VM, e cada aresta de AI está associada a um par de vértices de VM. A cada possível associação é atribuído um custo. O problema de correspondência inexata entre grafos (PCIG) consiste em encontrar um mapeamento de GI para GM, tal que a soma dos custos de suas associações seja mínima. Nesta dissertação, resumimos os resultados encontrados na literatura sobre o PCIG e algumas de suas variações. Os resultados que incluímos aqui tratam sobre a questão de como formular o PCIG e algumas de suas variações, através de programação linear inteira. Provamos alguns resultados de complexidade computacional que relacionam variações do PCIG a problemas clássicos, como isomorfismo e partição de grafos. Fornecemos uma formulação através de programação linear inteira para o PCCA (uma variante do PCIG com conexidade e cobertura de arestas). Mostramos que o PCCA é NP-difícil quando os grafos de entrada são completos ou árvores (chamamos o segundo caso de PCCA para árvores). Apresentamos uma formulação linear inteira e um algoritmo - que é polinomial se o grau máximo dos vértices de VM for limitado por uma constante - para o PCCA para árvores. Mostramos um caso especia em que o PCCA para árvores pode ser resolvido em tempo polinomial. Por último, exibimos alguns resultados experimentais, inclusive com instâncias reais de uma aplicação do problema.
2008
Alexandre da Silva Freire
Análise de desempenho do nsQUIC: um módulo para smulação do protocolo QUIC
Várias características da Internet mudaram drasticamente desde que o TCP foi criado, como o maior compartilhamento de recursos devido à maior quantidade de usuários, maior largura de banda disponível, a existência de muitas conexões que podem percorrer longas distâncias e a ubiquidade das redes sem fio. Confrontado com essas novas características, o TCP apresenta diversas limitações. Dentre elas estão a subutilização da rede quando a largura de banda é da ordem de centenas de Gbps, o favorecimento de conexões que possuem pouco atraso (poucas dezenas de milisegundos), a incapacidade de distinção de causas de perdas de pacote e a demora para estabelecimento de conexões seguras (até 3 RTTs). Nesse contexto, com o objetivo de tornar o transporte de dados na Internet mais rápido e eficiente, a Google desenvolveu o protocolo QUIC. O QUIC propõe diversos avanços em relação aos protocolos existentes, como um novo mecanismo para estabelecimento de conexão e controle de congestionamento otimizado. Resultados apresentados pela Google mostraram claro ganho de desempenho em relação ao TCP, justificando o trabalho de tornar o QUIC um padrão IETF da Internet. Porém, esses resultados são impossíveis de serem verificados porque nos relatórios divulgados não há informação suficiente para que os cenários de teste sejam reproduzidos e porque é implausível possuir a mesma infraestrutura para os testes que a Google tem. Neste trabalho, avaliamos o desempenho do protocolo QUIC em diversos cenários de rede, comparando-o com o desempenho de várias implementações do TCP, principalmente o CUBIC. Diferente do realizado na literatura, todos os cenários utilizados são bem descritos, permitindo a reprodutibilidade dos experimentos. Além disso, para a realização dos experimentos foi criado um novo módulo que implementa o QUIC no simulador de redes NS-3. Este módulo está disponível como software livre, permitindo que outros pesquisadores usem o módulo para replicar e verificar nossos experimentos e para criarem novos experimentos de forma reprodutível. Ademais, eles também podem usar o módulo como uma ferramenta para avaliar, de maneira rápida, o comportamento de novas técnicas dentro do protocolo.
2018
Diego de Araujo Martinez Camarinha
Revisão de crenças em lógicas de descrição e em outras lógicas não clássicas
A area de revisão de crenças estuda como agentes racionais mudam suas crencas ao receberem novas informações. O marco da area de revisão de crenças foi a publicacão do trabalho de Alchourron, Gardenfors e Makinson. Nesse trabalho conhecido como paradigma AGM foram denidos criterios de racionalidade para tipos de mudanca de crencas. Desde então, a área de revisão de crenças foi influenciada por diversas disciplinas como filosoa, computacão e direito. Paralelamente ao desenvolvimento da area de revisão de crenças, os últimos 20 anos foram marcados por um grande avanço no estudo das logicas de descrição. Tal avanço, impulsionado pelo desenvolvimento da web-semântica, levou a adoção de linguagens inspiradas em logicas de descrição (OWL) como padrão para se representar ontologias na web. Nessa tese tratamos do problema de aplicar a teoria da revisão de crenças a lógicas não clássicas e especialmente a logicas de descric~ao. Trabalhos recentes mostraram que o paradigma AGM e incompatvel com diversas logicas de descricão. Estendemos esses resultados mostrando outras lógicas que não são compatíveis com o paradigma AGM. Propomos formas de aplicar a teoria de revisão tanto em bases quanto em conjuntos de crencas a essas logicas. Alem disso, usamos algoritmos conhecidos da área de depuração de ontologias para implementar operações em bases de crenças.
Domain generalization, invariance and the Time Robust Forest
As time passes by, the performance of real-world predictive models degrades due to distributional shifts. Typical countermeasures, such as retraining and online learning, can be costly and difficult to implement in production, especially when business constraints and culture are accounted for. Causality-based approaches aim at identifying invariant mechanisms from data, thus leading to more robust predictors at the possible expense of a decrease in short-term performance. However, most such approaches scale poorly to high dimensions or require extra knowledge such as segmentation of the data in representative environments. In this work, we review the literature on the limitations of Machine Learning in real settings, with a focus on approaches that use causality concepts to improve generalization. Motivated by the shortcomings discussed above, we develop Time Robust Forests (TRF), a new algorithm for inducing decision trees with an inductive bias towards learning time-invariant rules. The algorithm\'s main innovation is to replace the usual information-gain split criterion (or similar) with a new criterion that examines the imbalance among classes induced by the split through time. Experiments with real data show that our approach can improve long-term generalization, thus offering an interesting alternative for dynamical classification problems.
2021
Luis Gustavo Moneda dos Santos
Problemas de corte com sobras aproveitáveis e eliminação de simetrias
No presente trabalho estudamos duas variações do problema de empacotamento de itens retangulares idênticos, permitindo rotações de 90 graus, em um poliedro. Uma variação consiste em encontrar a maior quantidade de itens retangulares idênticos que podem ser empacotados em um poliedro. A outra consiste em encontrar o poliedro de um determinado tipo com menor área para empacotar uma quantidade fixa de itens retangulares idênticos. Desenvolvemos restrições de eliminação de simetrias para estes problemas, o que tornou a resolução dos mesmos mais eficiente, por métodos do tipo branch-&-bound. Estudamos também o problema de corte no qual há uma determinada demanda (de itens) a ser cortada e um conjunto de objetos disponíveis. Desejamos satisfazer a demanda minimizando o custo dos objetos utilizados e, dentre as diferentes possibilidades de se fazer isso, desejamos aquela que maximize as sobras aproveitáveis. De forma geral, sobras aproveitáveis podem ser entendidas como regiões retangulares de um objeto que possuem altura e largura iguais ou superiores a de um item de referência e representam sobras do processo de corte que podem se tornar objetos e serem reaproveitadas em um novo procedimento de corte. Apresentamos modelos de otimização em dois níveis para duas variações do problema de corte com sobras aproveitáveis a saber: o problema de corte de itens retangulares em dois estágios e o problema de corte de itens retangulares não guilhotinado. Como formas de resolver os modelos propostos, apresentamos reformulações destes modelos de programação em dois níveis em modelos de programação inteira mista. Lidamos também com uma variação do problema de corte com sobras aproveitáveis considerando a minimização da quantidade de sobras. Aplicamos restrições de eliminação de simetrias aos modelos desenvolvidos para o problema de corte de itens retangulares com sobras aproveitáveis, a fim de resolver instâncias maiores, e desenvolvemos uma estratégia de solução alternativa para os modelos. Os modelos desenvolvidos foram implementados computacionalmente e fomos capazes de resolver instâncias pequenas dos problemas em questão.
2012
Ricardo Luiz de Andrade Abrantes
Two studies on Convolutional Neural Networks sensibility to resolution
Convolutional Neural Networks (CNNs) recently became the state-of-the-art for various Computer Vision tasks. However, for reasons not completely understood, they are very sensitive to low resolution images. This can be troublesome as real life applications such as automated driving or surveillance can not use high resolution sensors. In this work we perform two studies on this subject matter: on the first we empirically study the effect of resolution loss and image restoration algorithms on a Face Recognition model. On the second, we study the high frequency bias hypothesis, one of the current possible explanations for CNNs sensitivity. We are able to develop new techniques for image restoration that better deal with the low resolution recognition problem and advance the understanding of the high frequency bias in CNNs.
Efficient adaptive multiresolution representation of music signals
The inherent trade-off between time and frequency resolutions, which exists in conventional transforms (such as the Discrete Fourier Transform) may be a hindrance for the representation of music signals, since these transforms are incapable of simultaneously locating percussive events with precision in time and melodic events with precision in frequency. Adaptive representations intend to address this limitation by varying the analysis window size used in sub-regions of the time-frequency plane (TFP), and can be used as input representations in algorithms for automatic music transcription, source separation and musical expressiveness analysis. The main objective of the presented work is the development of an efficient adaptive transform, that serves as a counterpoint to traditional algorithms based on the combination of precomputed representations with different resolutions. The proposed Iteratively Refined Multi\\-resolution Spectro\\-gram (IRMS) works by performing successive refinements on top of an initial low frequency resolution spectrogram, located in the areas of the TFP that contain musical information such as notes, harmonics and expressive elements. Its development is built on the investigation of musical information estimators and sub-band processing techniques that allow the efficient computation of high resolution representations within isolated subregions of the TFP. As an investigation of sub-band processing algorithms for this task, a GUI application was built for the detailed high-resolution visualization of specific areas of a spectrogram. A comparative experiment between different musical information estimators was conducted, with good results for Shannon and Rényi entropies. This work also presents technical details on the integration between the detection of musically relevant subregions and their refinement via sub-band processing, that defines our final implementation of the IRMS. As an evaluation of the final solution, a comparative experiment based on computing cost between different time-frequency representations was conducted. The IRMS achieved execution times orders of magnitude faster than the other evaluated adaptive representations, and in some configurations presented a competitive computational cost with respect to the STFT and CQT, thus validating our proposal of an efficient alternative for adaptive representations.
2020
Nicolas Silverio Figueiredo
Transformada imagem-floresta com funções de conexidade não suaves: pesos adaptativos, polaridade de borda e restrições de forma
Segmentar uma imagem consiste em particioná-la em regiões relevantes para uma dada aplicação, como para isolar um objeto de interesse no domínio de uma imagem. A segmentação é um dos problemas mais fundamentais e desafiadores em processamento de imagem e visão computacional. Ela tem desempenhado um papel importante, por exemplo, na pesquisa em neurologia, envolvendo imagens de Ressonância Magnética (RM), para fins de diagnóstico e tratamento de doenças relacionadas com alterações na anatomia do cérebro humano. Métodos de segmentação baseados na transformada imagem- floresta (IFT, Image Foresting Transform), com funções de conexidade suaves, possuem resultados ótimos, segundo o critério da otimalidade dos caminhos descrito no artigo original da IFT, e têm sido usados com sucesso em várias aplicações, como por exemplo na segmentação de imagens RM de 1.5 Tesla. No entanto, esses métodos carecem de restrições de regularização de borda, podendo gerar segmentações com fronteiras muito irregulares e indesejadas. Eles também não distinguem bem entre bordas similares com orientações opostas, e possuem alta sensibilidade à estimativa dos pesos das arestas do grafo, gerando problemas em imagens com efeitos de inomogeneidade. Nesse trabalho são propostas extensões da IFT, do ponto de vista teórico e experimental, através do uso de funções de conexidade não suaves, para a segmentação interativa de imagens por região. A otimalidade dos novos métodos é suportada pela maximização de energias de corte em grafo, ou como o fruto de uma sequência de iterações de otimização de caminhos em grafos residuais. Como resultados principais temos: O projeto de funções de conexidade mais adaptativas e flexíveis, com o uso de pesos dinâmicos, que permitem um melhor tratamento de imagens com forte inomogeneidade. O uso de grafos direcionados, de modo a explorar a polaridade de borda dos objetos na segmentação por região, e o uso de restrições de forma que ajudam a regularizar a fronteira delineada, favorecendo a segmentação de objetos com formas mais regulares. Esses avanços só foram possíveis devido ao uso de funções não suaves. Portanto, a principal contribuição desse trabalho consiste no suporte teórico para o uso de funções não suaves, até então evitadas na literatura, abrindo novas perpectivas na pesquisa de processamento de imagens usando grafos.
2014
Lucy Alsina Choque Mansilla
Deep active learning using Monte Carlo Dropout
Deep Learning models rely on a huge amount of labeled data to be created. However, there are a number of areas where labeling data is a costly process, making Deep Learning approaches unfeasible. One way to handle that situation is by using the Active Learning technique. Initially, it creates a model with the available labeled data. After that, it incrementally chooses new unlabeled data that will potentially increase the model accuracy, if added to the training data. To select which data will be labeled next, this technique requires a measurement of uncertainty from the model prediction, which is usually not computed for Deep Learning methods. A new approach has been proposed to measure uncertainty in those models, called Monte Carlo Dropout . This technique allowed Active Learning to be used together with Deep Learning for image classification. This research will evaluate if modeling uncertainty on Deep Learning models with Monte Carlo Dropout will make the use of Active Learning feasible for the task of sentiment analysis, an area with huge amount of data, but few of them labeled.
2018
Lucas Albuquerque Medeiros de Moura
Sistemas de informação cientes de processos, robustos e confiáveis
Atualmente, diversas empresas e organizações estão cada vez mais empreendendo esforços para transformar rapidamente as suas potenciais ideias em produtos e serviços. Esses esforços também têm estimulado a evolução dos sistemas de informação que passaram a ser apoiados por modelos de alto nível de abstração para descrever a lógica do processo. Neste contexto, destaca-se o sucesso dos Sistemas de Informação cientes de Processos (PAIS, do inglês Process-Aware Information Systems) para o gerenciamento de processos de negócios e automação de processos científicos de larga escala (e-Science). Grande parte do sucesso dos PAIS é devido à capacidade de prover funcionalidades genéricas para modelagem, execução e monitoramento dos processos. Essas características são bem-sucedidas quando os modelos de processos têm um caminho bem-comportado no sentido de atingir os seus objetivos. No entanto, situações anômalas que desviam a execução desse caminho bem-comportado ainda representam um significativo desafio para os PAIS. Por causa dos vários tipos de falhas que desviam a execução do comportamento esperado, prover uma execução robusta e confiável é uma tarefa complexa para os atuais PAIS, uma vez que nem todas as situações de falha podem ser eficientemente descritas dentro da estrutura do fluxo tradicional. Como consequência, o tratamento de tais situações geralmente envolve intervenções manuais nos sistemas por operadores humanos, o que resulta em custos adicionais e significativos para as empresas. Neste trabalho é introduzido um método de composição para recuperação ciente de custos e benefícios que é capaz de encontrar e seguir caminhos alternativos que reduzam os prejuízos financeiros do tratamento de exceções. Do ponto de vista prático, esse método provê o tratamento de exceção automatizado e otimizado ao calcular os custos e benefícios de cada caminho de recuperação e escolher o caminho com a melhor relação custo-benefício disponível. Mais especificamente, o método de recuperação proposto estende a abordagem WED-flow (Workflow, Event processing and Data-flow) para permitir a composição ciente de custos e benefícios de passos de recuperação transacionais backward e forward. Por fim, os experimentos mostram que esse método de recuperação pode ser adequadamente incorporado para manipular exceções em uma ampla variedade de processos.
Um método de tractografia global usando imagens de ressonância magnética ponderadas por difusão
As imagens de ressonância magnética ponderadas por difusão retratam a difusividade de moléculas de água presentes em tecidos biológicos. Em estruturas biológicas altamente organizadas e compactas como fibras nervosas e musculares, a difusividade é maior na direção paralela às fibras do que perpendicularmente às mesmas. Essa propriedade permite a reconstrução digital das trajetórias das fibras, técnica denominada tractografia, representando uma das poucas formas não invasivas de investigação da conectividade anatômica e organização estrutural do cérebro e do coração. A metodologia de tractografia mais difundida faz uso da integração numérica da direção principal de difusividade para reconstruir essas trajetórias. Porém, esta técnica apresenta problemas como o erro intrínseco a métodos de integração numérica e o erro associado a regiões de incerteza nos dados de difusividade. Uma metodologia considerada mais robusta consiste da modelagem da tractografia como a simulação de um sistema de partículas. No entanto, tal metodologia possui diversos parâmetros que precisam ser otimizados para cada caso e apresenta alta complexidade computacional. Esta dissertação apresenta uma metodologia de tractografia global baseada em sistema de partículas, mas com custo computacional reduzido pois evita passos desnecessários da otimização para reconstrução das trajetórias. Avaliamos sua acurácia em conjuntos de dados com graus de complexidade crescentes utilizando imagens sintéticas de difusão construídas digitalmente e em imagens reais de difusão do miocárdio humano. Nesses testes foram observadas reduções no consumo de tempo e maior acurácia para metodologia global apresentada com relação às descritas na literatura. Essa metodologia possui o potencial de evidenciar a organização e arquitetura de diversos tecidos do corpo humano com maior fidelidade e menor tempo de reconstrução.
Limitantes de programação semidefinida para o número de contato
O número de contato do Rn (em inglês, kissing number) é o maior número de esferas de raio unitário e interiores dois-a-dois disjuntos que podem tocar simultaneamente uma esfera de raio unitário central. Nesta dissertação estudamos métodos que limitam o tamanho de tais configurações através de técnicas de otimização, como dualidade e programação semidefinida. O principal resultado obtido foi o cálculo de melhores limitantes para o número de contato nas dimensões 9 a 23; o que foi possível graças à exploração de simetrias dos polinômios presentes no limitante proposto por Bachoc e Vallentin (2008), levando à consideração de programas semidefinidos menores. Por fim, o limitante estudado é estendido para uma classe mais geral de problemas.
2017
Fabrício Caluza Machado
Análise preditiva de desempenho de workflows usando teoria do campo médio
Os processos de negócio desempenham um papel muito importante na indústria, principalmente pela evolução das tecnologias da informação. As plataformas de computação em nuvem, por exemplo, com a alocação de recursos computacionais sob demanda, possibilitam a execução de processos altamente requisitados. Para tanto, é necessário definir o ambiente de execução dos processos de tal modo que os recursos sejam utilizados de forma ótima e seja garantida a correta funcionalidade do processo. Nesse contexto, diferentes métodos já foram propostos para modelar os processos de negócio e analisar suas propriedades quantitativas e qualitativas. Há, contudo, vários desafios que podem restringir a aplicação desses métodos, especialmente para processos com alta demanda (como os workflows de numerosas instâncias) e que dependem de recursos limitados. A análise de desempenho de workflows de numerosas instâncias via modelagem analítica é o objeto de estudo deste trabalho. Geralmente, para a realização desse tipo de análise usa-se modelos matemáticos baseados em técnicas Markovianas (sistemas estocásticos), que sofrem do problema da explosão do espaço de estados. Entretanto, a Teoria do Campo Médio indica que o comportamento de um sistema estocástico, sob certas condições, pode ser aproximado por o de um sistema determinístico, evitando a explosão do espaço de estados. Neste trabalho usamos tal estratégia e, com base na definição formal de aproximação determinística e suas condições de existência, elaboramos um método para representar os workflows, e seus recursos, como equações diferenciais ordinárias, que descrevem um sistema determinístico. Uma vez definida a aproximação determinística, realizamos a análise de desempenho no modelo determinístico, verificando que os resultados obtidos são uma boa aproximação para a solução estocástica.
2017
Waldir Edison Farfán Caro