RCAAP Repository
Efficient adaptive multiresolution representation of music signals
The inherent trade-off between time and frequency resolutions, which exists in conventional transforms (such as the Discrete Fourier Transform) may be a hindrance for the representation of music signals, since these transforms are incapable of simultaneously locating percussive events with precision in time and melodic events with precision in frequency. Adaptive representations intend to address this limitation by varying the analysis window size used in sub-regions of the time-frequency plane (TFP), and can be used as input representations in algorithms for automatic music transcription, source separation and musical expressiveness analysis. The main objective of the presented work is the development of an efficient adaptive transform, that serves as a counterpoint to traditional algorithms based on the combination of precomputed representations with different resolutions. The proposed Iteratively Refined Multi\\-resolution Spectro\\-gram (IRMS) works by performing successive refinements on top of an initial low frequency resolution spectrogram, located in the areas of the TFP that contain musical information such as notes, harmonics and expressive elements. Its development is built on the investigation of musical information estimators and sub-band processing techniques that allow the efficient computation of high resolution representations within isolated subregions of the TFP. As an investigation of sub-band processing algorithms for this task, a GUI application was built for the detailed high-resolution visualization of specific areas of a spectrogram. A comparative experiment between different musical information estimators was conducted, with good results for Shannon and Rényi entropies. This work also presents technical details on the integration between the detection of musically relevant subregions and their refinement via sub-band processing, that defines our final implementation of the IRMS. As an evaluation of the final solution, a comparative experiment based on computing cost between different time-frequency representations was conducted. The IRMS achieved execution times orders of magnitude faster than the other evaluated adaptive representations, and in some configurations presented a competitive computational cost with respect to the STFT and CQT, thus validating our proposal of an efficient alternative for adaptive representations.
2020
Nicolas Silverio Figueiredo
Transformada imagem-floresta com funções de conexidade não suaves: pesos adaptativos, polaridade de borda e restrições de forma
Segmentar uma imagem consiste em particioná-la em regiões relevantes para uma dada aplicação, como para isolar um objeto de interesse no domínio de uma imagem. A segmentação é um dos problemas mais fundamentais e desafiadores em processamento de imagem e visão computacional. Ela tem desempenhado um papel importante, por exemplo, na pesquisa em neurologia, envolvendo imagens de Ressonância Magnética (RM), para fins de diagnóstico e tratamento de doenças relacionadas com alterações na anatomia do cérebro humano. Métodos de segmentação baseados na transformada imagem- floresta (IFT, Image Foresting Transform), com funções de conexidade suaves, possuem resultados ótimos, segundo o critério da otimalidade dos caminhos descrito no artigo original da IFT, e têm sido usados com sucesso em várias aplicações, como por exemplo na segmentação de imagens RM de 1.5 Tesla. No entanto, esses métodos carecem de restrições de regularização de borda, podendo gerar segmentações com fronteiras muito irregulares e indesejadas. Eles também não distinguem bem entre bordas similares com orientações opostas, e possuem alta sensibilidade à estimativa dos pesos das arestas do grafo, gerando problemas em imagens com efeitos de inomogeneidade. Nesse trabalho são propostas extensões da IFT, do ponto de vista teórico e experimental, através do uso de funções de conexidade não suaves, para a segmentação interativa de imagens por região. A otimalidade dos novos métodos é suportada pela maximização de energias de corte em grafo, ou como o fruto de uma sequência de iterações de otimização de caminhos em grafos residuais. Como resultados principais temos: O projeto de funções de conexidade mais adaptativas e flexíveis, com o uso de pesos dinâmicos, que permitem um melhor tratamento de imagens com forte inomogeneidade. O uso de grafos direcionados, de modo a explorar a polaridade de borda dos objetos na segmentação por região, e o uso de restrições de forma que ajudam a regularizar a fronteira delineada, favorecendo a segmentação de objetos com formas mais regulares. Esses avanços só foram possíveis devido ao uso de funções não suaves. Portanto, a principal contribuição desse trabalho consiste no suporte teórico para o uso de funções não suaves, até então evitadas na literatura, abrindo novas perpectivas na pesquisa de processamento de imagens usando grafos.
2014
Lucy Alsina Choque Mansilla
Deep active learning using Monte Carlo Dropout
Deep Learning models rely on a huge amount of labeled data to be created. However, there are a number of areas where labeling data is a costly process, making Deep Learning approaches unfeasible. One way to handle that situation is by using the Active Learning technique. Initially, it creates a model with the available labeled data. After that, it incrementally chooses new unlabeled data that will potentially increase the model accuracy, if added to the training data. To select which data will be labeled next, this technique requires a measurement of uncertainty from the model prediction, which is usually not computed for Deep Learning methods. A new approach has been proposed to measure uncertainty in those models, called Monte Carlo Dropout . This technique allowed Active Learning to be used together with Deep Learning for image classification. This research will evaluate if modeling uncertainty on Deep Learning models with Monte Carlo Dropout will make the use of Active Learning feasible for the task of sentiment analysis, an area with huge amount of data, but few of them labeled.
2018
Lucas Albuquerque Medeiros de Moura
Sistemas de informação cientes de processos, robustos e confiáveis
Atualmente, diversas empresas e organizações estão cada vez mais empreendendo esforços para transformar rapidamente as suas potenciais ideias em produtos e serviços. Esses esforços também têm estimulado a evolução dos sistemas de informação que passaram a ser apoiados por modelos de alto nível de abstração para descrever a lógica do processo. Neste contexto, destaca-se o sucesso dos Sistemas de Informação cientes de Processos (PAIS, do inglês Process-Aware Information Systems) para o gerenciamento de processos de negócios e automação de processos científicos de larga escala (e-Science). Grande parte do sucesso dos PAIS é devido à capacidade de prover funcionalidades genéricas para modelagem, execução e monitoramento dos processos. Essas características são bem-sucedidas quando os modelos de processos têm um caminho bem-comportado no sentido de atingir os seus objetivos. No entanto, situações anômalas que desviam a execução desse caminho bem-comportado ainda representam um significativo desafio para os PAIS. Por causa dos vários tipos de falhas que desviam a execução do comportamento esperado, prover uma execução robusta e confiável é uma tarefa complexa para os atuais PAIS, uma vez que nem todas as situações de falha podem ser eficientemente descritas dentro da estrutura do fluxo tradicional. Como consequência, o tratamento de tais situações geralmente envolve intervenções manuais nos sistemas por operadores humanos, o que resulta em custos adicionais e significativos para as empresas. Neste trabalho é introduzido um método de composição para recuperação ciente de custos e benefícios que é capaz de encontrar e seguir caminhos alternativos que reduzam os prejuízos financeiros do tratamento de exceções. Do ponto de vista prático, esse método provê o tratamento de exceção automatizado e otimizado ao calcular os custos e benefícios de cada caminho de recuperação e escolher o caminho com a melhor relação custo-benefício disponível. Mais especificamente, o método de recuperação proposto estende a abordagem WED-flow (Workflow, Event processing and Data-flow) para permitir a composição ciente de custos e benefícios de passos de recuperação transacionais backward e forward. Por fim, os experimentos mostram que esse método de recuperação pode ser adequadamente incorporado para manipular exceções em uma ampla variedade de processos.
Um método de tractografia global usando imagens de ressonância magnética ponderadas por difusão
As imagens de ressonância magnética ponderadas por difusão retratam a difusividade de moléculas de água presentes em tecidos biológicos. Em estruturas biológicas altamente organizadas e compactas como fibras nervosas e musculares, a difusividade é maior na direção paralela às fibras do que perpendicularmente às mesmas. Essa propriedade permite a reconstrução digital das trajetórias das fibras, técnica denominada tractografia, representando uma das poucas formas não invasivas de investigação da conectividade anatômica e organização estrutural do cérebro e do coração. A metodologia de tractografia mais difundida faz uso da integração numérica da direção principal de difusividade para reconstruir essas trajetórias. Porém, esta técnica apresenta problemas como o erro intrínseco a métodos de integração numérica e o erro associado a regiões de incerteza nos dados de difusividade. Uma metodologia considerada mais robusta consiste da modelagem da tractografia como a simulação de um sistema de partículas. No entanto, tal metodologia possui diversos parâmetros que precisam ser otimizados para cada caso e apresenta alta complexidade computacional. Esta dissertação apresenta uma metodologia de tractografia global baseada em sistema de partículas, mas com custo computacional reduzido pois evita passos desnecessários da otimização para reconstrução das trajetórias. Avaliamos sua acurácia em conjuntos de dados com graus de complexidade crescentes utilizando imagens sintéticas de difusão construídas digitalmente e em imagens reais de difusão do miocárdio humano. Nesses testes foram observadas reduções no consumo de tempo e maior acurácia para metodologia global apresentada com relação às descritas na literatura. Essa metodologia possui o potencial de evidenciar a organização e arquitetura de diversos tecidos do corpo humano com maior fidelidade e menor tempo de reconstrução.
Limitantes de programação semidefinida para o número de contato
O número de contato do Rn (em inglês, kissing number) é o maior número de esferas de raio unitário e interiores dois-a-dois disjuntos que podem tocar simultaneamente uma esfera de raio unitário central. Nesta dissertação estudamos métodos que limitam o tamanho de tais configurações através de técnicas de otimização, como dualidade e programação semidefinida. O principal resultado obtido foi o cálculo de melhores limitantes para o número de contato nas dimensões 9 a 23; o que foi possível graças à exploração de simetrias dos polinômios presentes no limitante proposto por Bachoc e Vallentin (2008), levando à consideração de programas semidefinidos menores. Por fim, o limitante estudado é estendido para uma classe mais geral de problemas.
2017
Fabrício Caluza Machado
Análise preditiva de desempenho de workflows usando teoria do campo médio
Os processos de negócio desempenham um papel muito importante na indústria, principalmente pela evolução das tecnologias da informação. As plataformas de computação em nuvem, por exemplo, com a alocação de recursos computacionais sob demanda, possibilitam a execução de processos altamente requisitados. Para tanto, é necessário definir o ambiente de execução dos processos de tal modo que os recursos sejam utilizados de forma ótima e seja garantida a correta funcionalidade do processo. Nesse contexto, diferentes métodos já foram propostos para modelar os processos de negócio e analisar suas propriedades quantitativas e qualitativas. Há, contudo, vários desafios que podem restringir a aplicação desses métodos, especialmente para processos com alta demanda (como os workflows de numerosas instâncias) e que dependem de recursos limitados. A análise de desempenho de workflows de numerosas instâncias via modelagem analítica é o objeto de estudo deste trabalho. Geralmente, para a realização desse tipo de análise usa-se modelos matemáticos baseados em técnicas Markovianas (sistemas estocásticos), que sofrem do problema da explosão do espaço de estados. Entretanto, a Teoria do Campo Médio indica que o comportamento de um sistema estocástico, sob certas condições, pode ser aproximado por o de um sistema determinístico, evitando a explosão do espaço de estados. Neste trabalho usamos tal estratégia e, com base na definição formal de aproximação determinística e suas condições de existência, elaboramos um método para representar os workflows, e seus recursos, como equações diferenciais ordinárias, que descrevem um sistema determinístico. Uma vez definida a aproximação determinística, realizamos a análise de desempenho no modelo determinístico, verificando que os resultados obtidos são uma boa aproximação para a solução estocástica.
2017
Waldir Edison Farfán Caro
Independência parcial no problema da satisfazibilidade probabilística
O problema da Satisfazibilidade Probabilística, PSAT, apesar da sua flexibilidade, torna exponencialmente complexa a modelagem de variáveis estatisticamente independentes. Esta tese busca desenvolver algoritmos e propostas de relaxamento para permitir o tratamento eficiente de independência parcial pelo PSAT. Apresentamos uma aplicação do PSAT ao problema da etiquetagem morfossintática que serve tanto de motivação como de demonstração dos conceitos apresentados.
2018
Eduardo Menezes de Morais
Semantics modulo satisfiability with applications: function representation, probabilities and game theory
In the context of propositional logics, we apply semantics modulo satisfiability - a restricted semantics which comprehends only valuations that satisfy some specific set of formulas - with the aim to efficiently solve some computational tasks. Three possible such applications are developed. We begin by studying the possibility of implicitly representing rational McNaughton functions in Lukasiewicz Infinitely-valued Logic through semantics modulo satisfiability. We theoretically investigate some approaches to such representation concept, called representation modulo satisfiability, and describe a polynomial algorithm that builds representations in the newly introduced system. An implementation of the algorithm, test results and ways to randomly generate rational McNaughton functions for testing are presented. Moreover, we propose an application of such representations to the formal verification of properties of neural networks by means of the reasoning framework of Lukasiewicz Infinitely-valued Logic. Then, we move to the investigation of the satisfiability of joint probabilistic assignments to formulas of Lukasiewicz Infinitely-valued Logic, which is known to be an NP-complete problem. We provide an exact decision algorithm derived from the combination of linear algebraic methods with semantics modulo satisfiability. Also, we provide an implementation for such algorithm for which the phenomenon of phase transition is empirically detected. Lastly, we study the game theory situation of observable games, which are games that are known to reach a Nash equilibrium, however, an external observer does not know what is the exact profile of actions that occur in a specific instance; thus, such observer assigns subjective probabilities to players actions. We study the decision problem of determining if a set of these probabilistic constraints is coherent by reducing it to the problems of satisfiability of probabilistic assignments to logical formulas both in Classical Propositional Logic and Lukasiewicz Infinitely-valued Logic depending on whether only pure equilibria or also mixed equilibria are allowed. Such reductions rely upon the properties of semantics modulo satisfiability. We provide complexity and algorithmic discussion for the coherence problem and, also, for the problem of computing maximal and minimal probabilistic constraints on actions that preserves coherence.
2021
Sandro Márcio da Silva Preto
Implementação do arcabouço WED-flow para controle de processos transacionais
A área de gerenciamento de processos de negócio apresenta-se ativa e tem recebido atenção tanto da comunidade de pesquisa como da indústria. Uma das principais preocupações nessa área é a escolha da melhor abordagem para modelagem e implementação de processos de negócio. Atualmente, organizações possuem processos de negócio com complexas estruturas que são reavaliados e ajustados com frequência, exigindo flexibilidade das linguagens para modelagem de processos. Além disso, processos de negócio atuais também exigem ambientes para implementação capazes de garantir confiabilidade na execução de instâncias do processo modelado, especialmente em caso de falhas. Embora diversos modelos transacionais tenham sido propostos com o objetivo de garantir propriedades transacionais adaptadas ao contexto de processos de negócio, a implementação de processos transacionais ainda oferece um cenário com desafios teóricos e práticos. Neste trabalho apresentamos uma implementação da abordagem WED-flow para controle de processos transacionais. A WED-flow é uma abordagem que combina conceitos de modelos transacionais avançados, eventos e estados de dados com o objetivo principal de reduzir a complexidade no tratamento de exceções. A ferramenta de software desenvolvida é capaz de controlar a execução de instâncias de processos de negócio, permite a evolução incremental do modelo projetado e ainda disponibiliza a estrutura necessária para apoiar a implementação de mecanismos de recuperação para tratar interrupções em instâncias causadas por exceções.
Raciocínio de agentes musicais composição algorítmica, vida artificial e interatividade em sistemas multiagentes musicais
Os múltiplos trabalhos de sistemas multiagentes musicais realizados nos últimos anos demonstram o interesse crescente na pesquisa de sistemas de composição e de performance musical que utilizem a tecnologia de agentes computacionais, sendo que apresentam um interesse maior por aqueles sistemas que integram técnicas de composição algorítmica, componentes de vida artificial e interatividade. Observamos também que a maioria dos trabalhos existentes apresentam muitas limitações em termos de escopo e flexibilidade, normalmente apresentando codificação musical simbólica e a resolução de um único problema, sendo que a motivação é mais técnica do que musical. Nesse contexto, surgem arcabouços voltados à criação de sistemas multiagentes musicais, como o Ensemble e o Interactive Swarm Orchestra, oferecendo flexibilidade para a modelagem e implementação de sistemas desse tipo, diversificando tanto os tipos de aplicação, tendo um propósito composicional ou performático, como os tipos de codificação musical que podem ser utilizados. Partimos da aparição dessas ferramentas para estudar o agente musical a partir de uma perspectiva interna, focando nos seus raciocínios, que são processos que definem o comportamento do agente no ambiente virtual do sistema e que são fundamentais para determinar e melhorar o seu valor composicional. Os arcabouços estudados se diferenciam por permitir a utilização de áudio como possível formato de codificação musical, o aproveitamento da espacialização sonora e a exploração da interatividade nos aplicativos, seja esta apenas entre agentes computacionais ou entre agentes e usuários humanos. Pretendemos portanto, nessa pesquisa, abordar sistemas com essas características. Através de extensões nos arcabouços e estudos de caso com motivação estética pretendemos dar continuidade a esses projetos e ao mesmo tempo validar e divulgar a sua utilização entre os potenciais usuários das ferramentas, como compositores, músicos interessados em performance e outros entusiastas dos sistemas musicais interativos.
2012
Santiago David Davila Benavides
Assessment of spectrum-based fault localization for practical use
Debugging is one of the most time-consuming activities in software development. Several fault localization techniques have been proposed in the last years, aiming to reduce development costs. A promising approach, called Spectrum-based Fault localization (SFL), consists of techniques that provide a list of suspicious program elements (e.g., statements, basic blocks, methods) more likely to be faulty. Developers should inspect a suspiciousness list to search for faults. However, these fault localization techniques are not yet used in practice. These techniques are based on assumptions about the developer\'s behavior when inspecting such lists that may not hold in practice. A developer is supposed to inspect an SFL list from the most to the least suspicious program elements (e.g., statements) until reaching the faulty one. This assumption leads to some implications: the techniques are assessed only by the position of a bug in a list; a bug is deemed as found when the faulty element is reached. SFL techniques should pinpoint the faulty program elements among the first picks to be useful in practice. Most techniques use ranking metrics to assign suspiciousness values to program elements executed by the tests. These ranking metrics have presented similar modest results, which indicates the need for different strategies to improve the effectiveness of SFL. Moreover, most techniques use only control-flow spectra due to the high execution costs associated with other spectra, such as data-flow. Also, little research has investigated the use of SFL techniques by practitioners. Understanding how developers use SFL may help to clarify the theoretical assumptions about their behavior, which in turn can collaborate with the proposal of techniques more feasible for practical use. Therefore, user studies are a valuable tool for the development of the area. The goal of this thesis research was to propose strategies to improve spectrum-based fault localization, focusing on its practical use. This thesis presents the following contributions. First, we investigate strategies to provide contextual information for SFL. These strategies helped to reduce the amount of code to be inspected until reaching the faults. Second, we carried out a user study to understand how developers use SFL in practice. The results show that developers can benefit from SFL to locate bugs. Third, we explore the use of data-flow spectrum for SFL. Data-flow spectrum singles out faults significantly better than control-flow spectrum, improving the fault localization effectiveness.
Árvores entrelaçadoras de polinômios e grafos de Ramanujan
Este trabalho tem como objetivo o estudo de grafos expansores, em particular, o estudo de técnicas de construção de famílias infinitas de grafos de Ramanujan regulares e de bons esparsificadores espectrais de grafos completos, ambos considerados bons grafos expansores. Dentre essas técnicas, estão a utilização de árvores entrelaçadoras de polinômios e a construção de grafos com funções barreira que limitam o crescimento de seus autovalores. Também estudaremos uma prova recente da resolução do Problema de Kadison-Singer por Marcus, Spielman e Srivastava, que utiliza uma combinação das técnicas de construção de bons expansores citadas anteriormente.
"Desenvolvimento de ferramentas no iGeom: utilizando a geometria dinâmica no ensino presencial e a distância"
Neste trabalho, apresentamos o desenvolvimento de ferramentas no programa iGeom - Geometria Interativa na Internet, para ensino-aprendizagem de Geometria, dando destaque aos recursos que facilitam a integração e uso deste programa, principalmente em ambientes de educação a distância via Internet. Atualmente, este tipo de programa é bastante conhecido e a Geometria que ele possibilita é usualmente denominada Geometria Dinâmica. Em poucas palavras, um programa de Geometria Dinâmica é a implementação computacional da régua e do compasso, permitindo que os objetos construídos sejam movidos mantendo-se às propriedades da construção. Dentre os principais recursos desenvolvidos, destacamos a autoria e a validação automática de exercícios e a comunicação com servidores, que podem ser utilizados para integrarem o iGeom em sistemas gerenciadores de cursos pela Web. Deste modo, se integrado a um sistema gerenciador, estes recursos podem ser utilizados para facilitar a tarefa do professor, que poderá criar exercícios diretamente pela Web e não precisará avaliar pessoalmente as respostas de cada aluno, e também para que o aluno saiba de imediato se sua solução está dentro do esperado pelo professor.¶
Técnicas de modelagem para a análise de desempenho de processos de negócio
As recentes pesquisas na área de Gestão de Processos de Negócio (GPN) vêm contribuindo para aumentar a eficiência nas organizações. A GPN pode ser compreendida como o conjunto de métodos, técnicas e ferramentas computacionais desenvolvidas para amparar os processos de negócios. Tipicamente, a GPN é fundamentada por modelos de processos. Esses modelos, além de permitirem a automação da configuração e execução, aumentam a capacidade de análise dos processos de negócio. Apesar de auxiliar os especialistas de negócio nas diferentes fases envolvidas no ciclo de vida de um processo de negócio (projeto, configuração, implantação/execução e a análise), os modelos definidos em linguagens específicas de domínio, como a BPMN (Business Process Model and Notation), não são os mais apropriados para amparar a fase de análise. De formal geral, esses modelos não possuem uma semântica operacional formalmente definida (o que limita o seu uso para a verificação e validação dos processos) e nem mecanismos para quantificar o comportamento modelado (o que impossibilita a análise de desempenho). Neste trabalho de doutorado, nós desenvolvemos um arcabouço que ampara e automatiza os principais passos envolvidos na análise de desempenho de processos de negócio via modelagem analítica. Nós estudamos a viabilidade da aplicação de três formalismos Markovianos na modelagem de processos de negócio: as Redes de Petri Estocásticas, as Álgebras de Processo Estocásticas e as Redes de Autômatos Estocásticos (SAN, do inglês Stochastic Automata Networks). Escolhemos SAN como formalismo base para o método proposto neste trabalho. Nosso arcabouço é constituído por: (i) uma notação para enriquecer modelos de processos de negócio descritos em BPMN com informações sobre o seu gerenciamento de recursos, e (ii) um algoritmo que faz a conversão automática desses modelos não-formais de processos para modelos estocásticos em SAN. Com isso, somos capazes de capturar o impacto causado pela contenção de recursos no desempenho de um processo de negócio. A partir de um modelo em SAN gerado com o nosso arcabouço, podemos predizer variados índices de desempenho que são boas aproximações para o desempenho esperado do processo de negócio no mundo real.
Reflexões sobre o ensino de metodologias ágeis na academia, na indústria e no governo
As metodologias ágeis e em especial a Programação eXtrema (XP) surgem como um contraponto aos métodos tradicionais de desenvolvimento de software. Nos encontramos em um momento no qual considera-se aceitável encontrar defeitos em programas de computador, até mesmo naqueles sistemas pelos quais temos que pagar muito dinheiro. Melhorar o ensino de técnicas para que equipes possam colaborar no desenvolvimento de software de qualidade é essencial para que esta área do conhecimento alcance a maturidade que esperamos. O ensino de XP é uma tarefa relativamente complexa pois exige que pessoas passem por uma mudança cultural, para aceitar seus valores, princípios e práticas. Diferentes organizações precisam adaptar a metodologia para que ela funcione bem em seu contexto local. Encontrar maneiras de facilitar o ensino e a adoção das práticas ágeis é fundamental para melhorar a qualidade do software desenvolvido no país. Este trabalho pesquisa o ensino de XP em contextos acadêmicos, governamentais e industriais. Três estudos de caso foram conduzidos e analisados para sugerir padrões que podem auxiliar o ensino da metodologia por um educador em qualquer contexto.
2007
Alexandre Freire da Silva
Studies on non-prioritized multiple belief revision
Belief Revision deals with the problem of how a rational agent should proceed in face of new information. In the AGM paradigm, the most used framework in Belief Revision, given a set of beliefs, there are three possible epistemic changes in relation to a new belief: expansion, contraction and revision. Among them, we are particularly interested in the latter. A revision occurs when an agent receives new information possibly inconsistent with its epistemic state and has to change it in order to accommodate the new belief in a consistent way. However, new information may come as a set of beliefs (instead of a single one), a problem known as Multiple Revision, in which, unlike Iterated Revision, all new pieces of information are processed simultaneously. This thesis starts with a survey on the topic of Multiple Revision. The purpose is to bring and organize the state-of-the-art of the area, showing the different approaches developed since 1988 and the open problems that still exist. After that, different contributions on non-prioritized multiple revision are proposed. One of AGM revision\'s main properties is success, which guarantees that new information is always accepted by a rational agent, even when it has to give up a reasonable belief previously held. However, in more realistic scenarios, when dealing with a new belief that contradicts previous ones, an agent has the option to reject it, an approach called non-prioritized revision. Among the possible operations for this approach, Choice Revision is the one that deals with the case in which it is enough for the agent to absorb only a subset of the input set. We propose an axiomatic characterization of Choice Multiple Revision through two different constructions: one based on remainder sets and the other on kernel sets, along with algorithms for both of them. The approach was developed for belief bases and is not restricted to classical propositional logic. Still about the possible operations for non-prioritized multiple revision and the option the agent has to accept or reject a new information, Selective Revision came up as a third possibility, allowing the agent to accept only a part of the new belief. The operation was initially defined for single sentences as inputs and for belief sets. This thesis proposes a generalization of Selective Revision to the multiple case for both belief sets (theories) and belief bases. We provide constructions, postulates and representation theorems for different classes of Multiple Selective Revision.
2021
Fillipe Manoel Xavier Resina
Uma infraestrutura para aplicações distribuídas baseadas em atores Scala
Escrever aplicações concorrentes é comumente tido como uma tarefa difícil e propensa a erros. Isso é particularmente verdade para aplicações escritas nas linguagens de uso mais disseminado, como C++ e Java, que oferecem um modelo de programação concorrente baseado em memória compartilhada e travas. Muitos consideram que o modo de se programar concorrentemente nessas linguagens é inadequado e dificulta a construção de sistemas livres de problemas como condições de corrida e deadlocks. Por conta disso e da popularização de processadores com múltiplos núcleos, nos últimos anos intensificou-se a busca por ferramentas mais adequadas para o desenvolvimento de aplicações concorrentes. Uma alternativa que vem ganhando atenção é o modelo de atores, proposto inicialmente na década de 1970 e voltado especificamente para a computação concorrente. Nesse modelo, cada ator é uma entidade isolada, que não compartilha memória com outros atores e se comunica com eles somente por meio de mensagens assíncronas. A implementação mais bem sucedida do modelo de atores é a oferecida por Erlang, a linguagem que (provavelmente) explorou esse modelo de forma mais eficiente. A linguagem Scala, surgida em 2003, roda na JVM e possui muitas semelhanças com Java. No entanto, no que diz respeito à programação concorrente, os criadores de Scala buscaram oferecer uma solução mais adequada. Assim, essa linguagem oferece uma biblioteca que implementa o modelo de atores e é fortemente inspirada nos atores de Erlang. O objetivo deste trabalho é explorar o uso do modelo de atores na linguagem Scala, especificamente no caso de aplicações distribuídas. Aproveitando o encapsulamento imposto pelos atores e a concorrência inerente ao modelo, propomos uma plataforma que gerencie a localização dos atores de modo totalmente transparente ao desenvolvedor e que tem o potencial de promover o desenvolvimento de aplicações eficientes e escaláveis. Nossa infraestrutura oferece dois serviços principais, ambos voltados ao gerenciamento da localização de atores: distribuição automática e migração. O primeiro deles permite que o programador escreva sua aplicação pensando apenas nos atores que devem ser instanciados e na comunicação entre esses atores, sem se preocupar com a localização de cada ator. É responsabilidade da infraestrutura definir onde cada ator será executado, usando algoritmos configuráveis. Já o mecanismo de migração permite que a execução de um ator seja suspensa e retomada em outro computador. A migração de atores possibilita que as aplicações se adaptem a mudanças no ambiente de execução. Nosso sistema foi construído tendo-se em mente possibilidades de extensão, em particular por algoritmos que usem o mecanismo de migração para melhorar o desempenho de uma aplicação.
2011
Thiago Henrique Coraini
Componentes de Software no desenvolvimento de aplicações colaborativas para Web: Evolução da plataforma Groupware Workbench
A tecnologia de componentes de software é propícia para encapsular questões técnicas de implementação e favorecer o reúso entre aplicações, o que é particularmente relevante no desenvolvimento de aplicações colaborativas na Web. Este trabalho utiliza a plataforma Groupware Workbench nesse contexto. A aplicação social Arquigrafia foi a principal motivadora dessa evolução. O Arquigrafia é um ambiente colaborativo para o estudo de arquitetura e compartilhamento de imagens fortemente baseado em colaboração e inteligência coletiva. Como o conceito de inteligência coletiva é muito amplo e mal definido, foi realizada uma análise de domínio e uma classificação das técnicas e seus usos nos sistemas atuais. Também foi feito o mapeamento e a implementação das funcionalidades do Arquigrafia em componentes do Groupware Workbench e executada uma avaliação da plataforma em quatro vertentes, sendo elas: arquitetura de componentes; suporte à colaboração; arquitetura técnica; e percepção dos desenvolvedores. Limitações tecnológicas e conceituais foram identificadas, como por exemplo, o modelo de mapeamento objeto-relacional e questões ligadas à flexibilidade. Essas limitações e colocações foram tratadas e avaliadas na plataforma, resultando em melhorias na arquitetura dos componentes e na simplificação do código. O Groupware Workbench no geral mostrou-se viável para o desenvolvimento de uma aplicação colaborativa real na Web 2.0.
2012
Straus Michalsky Martins
Piloto baseado em aprendizagem por reforço para o simulador de corridas TORCS
Corrida de carros e um gênero popular de jogos eletrônicos e um domínio com vários desafios a serem explorados no âmbito da Inteligência Artificial (IA), tendo recebido atenção crescente nos últimos anos. Naturalmente, um desses desafios e criar pilotos virtuais capazes de aprender sozinhos a correr nas pistas. Neste projeto de mestrado, nos adaptamos e aplicamos técnicas de Aprendizagem por Reforço (Reinforcement Learning) no desenvolvimento de um agente completamente autônomo capaz de correr em pistas de vários formatos dentro do simulador TORCS. Esse jogo de código aberto possui um sistema de física muito elaborado e permite a criação de módulos de IA para controlar os carros, sendo assim um ambiente de testes frequentemente adotado para pesquisas nesse contexto. O objetivo do nosso agente e encontrar ações de controle do acelerador e freio a fim de gastar o menor tempo possível em cada volta. Para atingir tal meta, ele coleta dados na primeira volta, gera um modelo do circuito, segmenta e classifica cada trecho da pista e, finalmente, da voltas no percurso ate atingir um comportamento consistente. Além das questões relacionadas a aprendizagem, este trabalho explora conceitos de Sistemas de Controle, em especial controladores PID (Proporcional, Integrativo, Derivativo), usados para a implementação da heurística do manejo do volante. Também abordamos os fundamentos de alguns assistentes de direção, tais como ABS (Anti-lock Braking System) e controle de estabilidade. Esses princípios são de grande importância para tornar o agente capaz de guiar o carro dentro de um ambiente com simulação física tão próxima a realidade. Nesse ponto e no emprego do sensoriamento para a aquisição de dados, nosso trabalho flerta com a área de Robótica Móvel. Por fim, avaliamos o desempenho de nosso piloto virtual comparando seus resultados com os de controladores baseados em outras técnicas.