RCAAP Repository
Exploring chaotic time series and phase spaces
Technology advances have allowed and inspired the study of data produced along time from applications such as health treatment, biology, sentiment analysis, and entertainment. Those types of data, typically referred to as time series or data streams, have motivated several studies mainly in the area of Machine Learning and Statistics to infer models for performing prediction and classification. However, several studies either employ batchdriven strategies to address temporal data or do not consider chaotic observations, thus missing recurrent patterns and other temporal dependencies especially in real-world data. In that scenario, we consider Dynamical Systems and Chaos Theory tools to improve datastream modeling and forecasting by investigating time-series phase spaces, reconstructed according to Takens embedding theorem. This theorem relies on two essential embedding parameters, known as embedding dimension and time delay , which are complex to be estimated for real-world scenarios. Such difficulty derives from inconsistencies related to phase space partitioning, computation of probabilities, the curse of dimensionality, and noise. Moreover, an optimal phase space may be represented by attractors with different structures for different systems, which also aggregates to the problem. Our research confirmed those issues, especially for entropy. Although we verified that a well-reconstructed phase space can be described in terms of low entropy of phase states, the inverse is not necessarily true: a set of phase states that presents low levels of entropy does not necessarily describe an optimal phase space. As a consequence, we learned that defining a set of features to describe an optimal phase space is not a trivial task. As alternative, this Ph.D. proposed a new approach to estimate embedding parameters using an artificial neural network training on an overestimated phase space. Then, without the need of explicitly defining any phase-space features, we let the network filter nonrelevant dimensions and learn those features implicitly, whatever they are. After training iterations, we infer and from the skeletal architecture of the neural network. As we show, this method was consistent with benchmarks datasets, and robust in regarding different random initializations of neurons weights and chosen parameters. After obtaining embedding parameters and reconstructing the phase space, we show how we can model time-series recurrences more effectively in a wider scope, thereby enabling a deeper analysis of the underlying data.
2020
Lucas de Carvalho Pagliosa
Modelagem computacional de flutuações térmicas em glóbulos vermelhos
Neste trabalho se estuda um modelo computacional para hemácias que considera flutuações térmicas, as quais aparecem como um termo forçante nas equações de governo. O modelo adotado para as hemácias inclui dois componentes, uma membrana lipídica e um citoesqueleto, os quais estão completamente aderidos entre si. Para estudar o tratamento numérico deste problema, inicialmente, são introduzidos conceitos básicos de equações diferenciais estocásticas e métodos numéricos para a sua solução, os quais são aplicados a um sistema mecânico unidimensional simplificado, que inclui alguns dos ingredientes do problema objetivo, no qual vários métodos numéricos foram testados. Por fim é apresentado o modelo matemático completo e sua discretização por elementos finitos. Testes numéricos em três dimensões espaciais são exibidos. A formulação proposta foi validada reproduzindo resultados teóricos preditos pela teoria de Milner-Safran para os modos de Fourier presentes nas ondulações da linha equatorial de uma hemácia.
2020
Mateus Paranaíba Ribeiro
Estratégia para geração de sequencias de verificação para máquinas de estados finitos
O teste de software engloba diferentes técnicas, métodos e conceitos capazes de garantir a qualidade dos mais variados tipos de sistemas. Dentre tais técnicas, encontra-se o teste baseado em Máquinas de Estados Finitos (MEFs), que visa a garantir a conformidade entre a implementação e a especificação de um software. Com esse propósito, diversos métodos foram propostos para a geração de seqüências de verificação que garantam cobertura total das possíveis falhas existentes em uma implementação. A maioria dos métodos conhecidos são baseados na utilização de seqüências de distinção. Esse recurso, porem, não existe para toda MEF. Alguns métodos buscam a geração de seqüências de verificação baseados em recursos alternativos as seqüências de distinção, contudo, as seqüências geradas são exponencialmente longas. Este trabalho apresenta um método para geração de seqüências de verificação que visa a reduzir o tamanho das seqüências geradas para o domínio de MEFs que não dispõem de seqüência de distinção. Para isso, o método proposto baseia-se na utilização de conjuntos de distinção. Uma avaliação experimental foi realizada afim de mensurar a redução proporcionada pelo método proposto em relação aos principais métodos existentes na literatura. Com esse intuito, foram geradas MEFs aleatórias sob a perspectiva diferentes fatores. Em relação a variação do número de estados, os resultados indicaram reduções acima de 99; 5% em comparação com os métodos existentes, quando analisadas 75% das MEFs geradas
2013
Faimison Rodrigues Porto
Recuperação de informação com realimentação de relevância apoiada em visualização
A mineração de grandes coleções de textos, imagens e outros tipos de documentos tem se mostrado uma forma efetiva para exploração e interação com grandes quantidades de informações disponíveis, principalmente na World Wide Web. Neste contexto, diversos trabalhos têm tratado de mineração tanto de coleções estáticas quanto de coleções dinâmicas de objetos. Adicionalmente, técnicas de visualização têm sido propostas para auxiliar o processo de entendimento e de exploração dessas coleções, permitindo que a interação do usuário melhore o processo de mineração (user in the loop). No caso específico de dados dinâmicos, foi desenvolvido por Roberto Pinho e colegas uma técnica incremental (IncBoard) com o objetivo de visualizar coleções dinâmicas de elementos. Tal técnica posiciona os elementos em um grid bidimensional baseado na similaridade de conteúdo entre os elementos. Procura-se manter elementos similares próximos no grid. A técnica foi avaliada em um processo que simulava a chegada de novos dados, apresentando iterativamente novos elementos a serem posicionados no mapa corrente. Observa-se, entretanto, que um aspecto importante de tal ferramenta seria a possibilidade de novos elementos - a serem exibidos no mapa, mantendo coerência com o mapa corrente - serem selecionados a partir do interesse demonstrado pelo usuário. Realimentação de relevância tem se mostrado muito efetiva na melhoria da acurácia do processo de recuperação. Entretanto, um problema ainda em aberto é como utilizar técnicas de realimentação de relevância em conjunto com exploração visual no processo de recuperação de informação. Neste trabalho, é investigado o desenvolvimento de técnicas de exploração visual utilizando realimentação de relevância para sistemas de recuperação de informação de domínio específico. O Amuzi, um sistema de busca de músicas, foi desenvolvido como uma prova de conceito para a abordagem investigada. Dados coletados da utilização do Amuzi, por usuários, sugerem que a combinação de tais técnicas oferece vantagens, quando utilizadas em determinados domínios. Nesta dissertação, a recuperação de informação com realimentação de relevância apoiada em visualização, bem como o sistema Amuzi são descritos. Também são analisados os registros de utilização dos usuários
2014
Diogo Oliveira de Melo
Quality Evaluation Model for Crisis and Emergency Management Systems-of-Systems
Systems-of-Systems (SoS) have performed an important and even essential role to the whole society and refer to complex softwareintensive systems, resulted from interoperability of independent constituent systems that work together to achieve more complex missions. SoS have emerged specially in critical application domains and, therefore, high level of quality must be assured during their development and evolution. However, dealing with quality of SoS still presents great challenges, as SoS present a set of unique characteristics that can directly affect the quality of such systems. Moreover, there are not comprehensive models that can support the quality evaluation of SoS. Motivated by this scenario, the main contribution of this Masters project is to present a SoS Evaluation Model, more specifically, addressing the crisis/emergency management domain, built in the context of a large international research project. The proposed model covers important evaluation activities and considers all SoS characteristics and challenges not usually addressed by other models. This model was applied to evaluate a crisis/emergency management SoS and our results have shown it viability to the effective management of the SoS quality.
"Generalização de regras de associação"
Mineração de Dados é um processo de natureza iterativa e interativa responsável por identificar padrões em grandes conjuntos de dados, objetivando extrair conhecimento válido, útil e inovador a partir desses. Em Mineração de Dados, Regras de Associação é uma técnica que consiste na identificação de padrões intrínsecos ao conjunto de dados. Essa técnica tem despertado grande interesse nos pesquisadores de Mineração de Dados e nas organizações, entretanto, a mesma possui o inconveniente de gerar grande volume de conhecimento no formato de regras, dificultando a análise e interpretação dos resultados pelo usuário. Nesse contexto, este trabalho tem como objetivo principal generalizar e eliminar Regras de Associação não interessantes e/ou redundantes, facilitando, dessa maneira, a análise das regras obtidas com relação à compreensibilidade e tamanho do conjunto de regras. A generalização das Regras de Associação é realizada com o uso de taxonomias. Entre os principais resultados deste trabalho destacam-se a proposta e a implementação do algoritmo GART e do módulo computacional RulEE-GAR. O algoritmo GART (Generalization of Association Rules using Taxonomies - Generalização de Regras de Associação usando Taxonomias) utiliza taxonomias para generalizar Regras de Associação. Já o módulo RulEE-GAR, além de facilitar o uso do algoritmo GART durante a identificação de taxonomias e generalização de regras, provê funcionalidades para analisar as Regras de Associação generalizadas. Os experimentos realizados, neste trabalho, mostraram que o uso de taxonomias na generalização de Regras de Associação pode reduzir o volume de um conjunto de regras.
2004
Marcos Aurélio Domingues
Mineração de estruturas musicais e composição automática utilizando redes complexas
A teoria das redes complexas tem se tornado cada vez mais em uma poderosa teoria computacional capaz de representar, caracterizar e examinar sistemas com estrutura não trivial, revelando características intrínsecas locais e globais que facilitam a compreensão do comportamento e da dinâmica de tais sistemas. Nesta tese são exploradas as vantagens das redes complexas na resolução de problemas relacionados com tarefas do âmbito musical, especificamente, são estudadas três abordagens: reconhecimento de padrões, mineração e síntese de músicas. A primeira abordagem é desempenhada através do desenvolvimento de um método para a extração do padrão rítmico de uma peça musical de caráter popular. Nesse tipo de peças coexistem diferentes espécies de padrões rítmicos, os quais configuram uma hierarquia que é determinada por aspectos funcionais dentro da base rítmica. Os padrões rítmicos principais são caracterizados por sua maior incidência dentro do discurso musical, propriedade que é refletida na formação de comunidades dentro da rede. Técnicas de detecção de comunidades são aplicadas na extração dos padrões rítmicos, e uma medida para diferenciar os padrões principais dos secundários é proposta. Os resultados mostram que a qualidade da extração é sensível ao algoritmo de detecção, ao modo de representação do ritmo e ao tratamento dado às linhas de percussão na hora de gerar a rede. Uma fase de mineração foi desempenhada usando medidas topológicas sobre a rede obtida após a remoção dos padrões secundários. Técnicas de aprendizado supervisionado e não-supervisionado foram aplicadas para discriminar o gênero musical segundo os atributos calculados na fase de mineração. Os resultados revelam a eficiência da metodologia proposta, a qual foi constatada através de um teste de significância estatística. A última abordagem foi tratada mediante o desenvolvimento de modelos para a composição de melodias através de duas perspectivas, na primeira perspectiva é usada uma caminhada controlada por critérios sobre redes complexas predefinidas e na segunda redes neurais recorrentes e sistemas dinâmicos caóticos. Nesta última perspectiva, o modelo é treinado para compor uma melodia com um valor preestabelecido de alguma característica tonal subjetiva através de uma estratégia de controle proporcional que modifica a complexidade de uma melodia caótica, melodia que atua como entrada de inspiração da rede.
2014
Andrés Eduardo Coca Salazar
Agrupamento de dados em fluxos contínuos com estimativa automática do número de grupos
Técnicas de agrupamento de dados usualmente assumem que o conjunto de dados é de tamanho fixo e pode ser alocado na memória. Neste contexto, um desafio consiste em aplicar técnicas de agrupamento em bases de dados de tamanho ilimitado, com dados gerados continuamente e em ambientes dinâmicos. Dados gerados nessas condições originam o que se convencionou chamar de Fluxo Contínuo de Dados (FCD). Em aplicações de FCD, operações de acesso aos dados são restritas a apenas uma leitura ou a um pequeno número de acessos aos dados, com limitações de memória e de tempo de processamento. Além disso, a distribuição dos dados gerados por essas fontes pode ser não estacionária, ou seja, podem ocorrer mudanças ao longo do tempo, denominadas de mudanças de conceito. Nesse sentido, algumas técnicas de agrupamento em FCD foram propostas na literatura. Muitas dessas técnicas são baseadas no algoritmo das k-Médias. Uma das limitações do algoritmo das k-Médias consiste na definição prévia do número de grupos. Ao se assumir que o número de grupos é desconhecido a priori e que deveria ser estimado a partir dos dados, percorrer o grande espaço de soluções possíveis (tanto em relação ao número de grupos, k, quanto em relação às partições possíveis para um determinado k) torna desafiadora a tarefa de agrupamento de dados - ainda mais sob a limitação de tempo e armazenamento imposta em aplicações de FCD. Neste contexto, essa tese tem como principais contribuições: (i) adaptar algoritmos que têm sido usados com sucesso em aplicações de Fluxo Contínuo de Dados (FCD) nas quais k é conhecido para cenários em que se deseja estimar o número de grupos; (ii) propor novos algoritmos para agrupamento que estimem k automaticamente a partir do FCD; (iii) avaliar sistematicamente, e de maneira quantitativa, os algoritmos propostos de acordo com as características específicas dos cenários de FCD. Foram desenvolvidos 14 algoritmos de agrupamento para FCD capazes de estimar o número de grupos a partir dos dados. Tais algoritmos foram avaliados em seis bases de dados artificiais e duas bases de dados reais amplamente utilizada na literatura. Os algoritmos desenvolvidos podem auxiliar em diversas áreas da Mineração em FCD. Os algoritmos evolutivos desenvolvidos mostraram a melhor relação de custo-benefício entre eficiência computacional e qualidade das partições obtidas.
2015
Jonathan de Andrade Silva
Extração de informação contextual utilizando mineração de textos para sistemas de recomendação sensíveis ao contexto
Com a grande variedade de produtos e serviços disponíveis na Web, os usuários possuem, em geral, muita liberdade de escolha, o que poderia ser considerado uma vantagem se não fosse pela dificuldade encontrada em escolher o produto ou serviço que mais atenda a suas necessidades dentro do vasto conjunto de opções disponíveis. Sistemas de recomendação são sistemas que têm como objetivo auxiliar esses usuários a identificarem itens de interesse em um conjunto de opções. A maioria das abordagens de sistemas de recomendação foca em recomendar itens mais relevantes para usuários individuais, não levando em consideração o contexto dos usuários. Porém, em muitas aplicações é importante também considerar informações contextuais para fazer as recomendações. Por exemplo, um usuário pode desejar assistir um filme com a sua namorada no sábado à noite ou com os seus amigos durante um dia de semana, e uma locadora de filmes na Web pode recomendar diferentes tipos de filmes para este usuário dependendo do contexto no qual este se encontra. Um grande desafio para o uso de sistemas de recomendação sensíveis ao contexto é a falta de métodos para aquisição automática de informação contextual para estes sistemas. Diante desse cenário, neste trabalho é proposto um método para extrair informações contextuais do conteúdo de páginas Web que consiste em construir hierarquias de tópicos do conteúdo textual das páginas considerando, além da bag-of-words tradicional (informação técnica), também informações mais valiosas dos textos como entidades nomeadas e termos do domínio (informação privilegiada). Os tópicos extraídos das hierarquias das páginas Web são utilizados como informações de contexto em sistemas de recomendação sensíveis ao contexto. Neste trabalho foram realizados experimentos para avaliação do contexto extraído pelo método proposto em que foram considerados dois baselines: um sistema de recomendação que não considera informação de contexto e um método da literatura de extração de contexto implementado e adaptado para este mestrado. Além disso, foram utilizadas duas bases de dados. Os resultados obtidos foram, de forma geral, muito bons apresentando ganhos significativos sobre o baseline sem contexto. Com relação ao baseline que extrai informação contextual, o método proposto se mostrou equivalente ou melhor que o mesmo.
2015
Camila Vaccari Sundermann
On the boundary detection for particle-based methods: visibility, learning, interval analysis, metrics, and applications
This thesis is a comprehensive study of the definition, development, and evaluation of boundary detection methods for particle systems. A particle system is a variety of datarepresentation used in many fluid simulation methods, such as Smoothed Particle Hydrodynamics (SPH) and Position-Based Fluids (PBF) use particle systems as their primary representation for the fluid. Other techniques, such as Fluid-Implicit-Particle (FLIP) and Affine Particle-In-Cell (APIC), use particle systems as a supplemental representation. In both cases, the knowledge about the boundaries of the particle system can be useful, as it gives crucial information to improve the precision and quality of the simulation, of the generation of a free-surface, or to resample or redistribute particles in critical regions. Despite all that, this is still a poorly defined problem and with costly and error-prone solutions. In light of this, we introduce a mathematical definition for the problem, and, starting from this definition, we explore four distinct solutions. We based our solutions on visibility tests, machine learning, and a combination of interval arithmetic and computational geometry. We thoroughly tested our solutions using different classes of problems and measured their efficiency. Given the results, we can affirm that each of our solutions has characteristics that make them well suited for several distinct use cases.
2020
Marcos Henrique Alves Sandim
Subsídios para a aplicação de métodos de geração de casos de testes baseados em máquinas de estados
A realização de atividades de teste é indispensável para a garantia da qualidade de um produto e para a identificação de defeitos, diminuindo custos de manutenção e evitando ao máximo o risco do cliente encontrar esses defeitos. Nessa linha, testes baseados em modelos têm se mostrado atrativos, pois o custo de geração de casos de testes e de correção de defeitos tende a ser menor. Devido à sua simplicidade conceitual e expressividade na descrição do comportamento de um sistema, um dos modelos mais usados e pesquisados na área de teste baseado em modelos são as Máquinas de Estados Finitos (MEFs). Por meio de MEFs e com apoio de ferramentas apropriadas, a geração de casos de testes para avaliar os comportamentos esperados de um sistema é automatizada, reduzindo tanto o custo da geração e da manutenção quanto as falhas humanas. Desta forma, a aplicabilidade de métodos de geração de casos de teste baseados em modelos no contexto de sistemas embarcados vem sendo investigada. O objetivo deste trabalho de mestrado consiste em investigar a aplicabilidade dos métodos de geração em cenários de teste reais, com foco em sistemas embarcados, identificando as difi- culdades e limitações do processo, bem como os requisitos essenciais para a adequação dos métodos de geração propostos na literatura e de ferramentas de apoio à atividade de teste. O foco principal do projeto é a implementação de mecanismos que atendam aos requisitos levantados, visando a usabilidade, segurança e portabilidade da ferramenta
2012
Arineiza Cristina Pinheiro
Desenvolvimento e avaliação de algoritmos para composição dinâmica de web services baseada em QoS
Esta dissertação de mestrado aborda a Composição de Web services baseada em atributos de Qualidade de Serviço (CWSbQ). Foi selecionado o domínio de sistemas de e-commerce, por se tratar de uma área em franca expansão, tanto no cenário nacional como internacional. Além disso, os sistemas de e-commerce podem se beneficiar da CWSbQ devido à sua interoperabilidade e atendimento aos requisitos de qualidade de serviço de seus clientes. Foram implementados dez algoritmos para resolver esse problema, usando várias técnicas diferentes, sendo elas: busca aleatória, busca exaustiva, busca heurística, busca meta-heurística e um algoritmo híbrido. Foram realizados experimentos de avaliação de desempenho, considerando tamanhos de espaço de busca diferentes e dois deadlines estabelecidos. As principais contribuições deste trabalho foram o desenvolvimento de três novos algoritmos: Heurística Gulosa (HG), Heurística Gulosa 2 (HG2) e Algoritmo Genético Duplamente Híbrido (AGDH); o uso de planejamento de experimentos e avaliação de desempenho para aperfeiçoar Algoritmos Genéticos (AGs) usados no problema de CWSbQ; e o estudo de adequação dos algoritmos de CWSbQ para diferentes situações
Anotação de imagens radiológicas usando a web semântica para colaboração científica e clínica
Este trabalho faz parte de um projeto maior, o Annotation and Image Markup Project, que tem o objetivo de criar uma base de conhecimento médico sobre imagens radiológicas para identificação, acompanhamento e reasoning acerca de lesões tumorais em pesquisas sobre câncer e consultórios médicos. Esse projeto está sendo desenvolvido em conjunto com o Radiological Sciences Laboratory da Stanford University. O problema específico, que será abordado nesse trabalho, é que a maior parte das informações semânticas sobre imagens radiológicas não são capturados e relacionados às mesmas usando termos de ontologias biomédicas e padrões, como o RadLex e DICOM, o que impossibilita a sua avaliação automática por computadores, busca em arquivos médicos em hospitais, etc. Para tratar isso, os radiologistas precisam de uma solução computacional fácil, intuitiva e acessível para adicionar essas informações. Nesse trabalho foi desenvolvida uma solução Web para inclusão dessas anotações, o sistema ePAD. O aplicativo permite a recuperação de imagens médicas, como as imagens disponíveis em sistemas de informação hospitalares (PACS), o delineamento dos contornos de lesões tumorais, a associação de termos ontológicos a esses contornos e o armazenamento desses termos em uma base de conhecimento. Os principais desafios desse trabalho envolveram a aplicação de interfaces intuitivas baseadas em Rich Internet Applications e sua operação a partir de um navegador Web padrão. O primeiro protótipo funcional do ePAD atingiu seus objetivos ao demonstrar sua viabilidade técnica, sendo capaz de executar o mesmo trabalho básico de anotação de aplicações Desktop, como o OsiriX-iPad, sem o mesmo overhead. Também mostrou a sua utilidade a comunidade médica o que gerou o interesse de usuários potenciais
2012
Kleberson Junio do Amaral Serique
Estudo e desenvolvimento de algoritmos para agrupamento fuzzy de dados em cenários centralizados e distribuídos
Agrupamento de dados é um dos problemas centrais na áea de mineração de dados, o qual consiste basicamente em particionar os dados em grupos de objetos mais similares (ou relacionados) entre si do que aos objetos dos demais grupos. Entretanto, as abordagens tradicionais pressupõem que cada objeto pertence exclusivamente a um único grupo. Essa hipótese não é realista em várias aplicações práticas, em que grupos de objetos apresentam distribuições estatísticas que possuem algum grau de sobreposição. Algoritmos de agrupamento fuzzy podem lidar naturalmente com problemas dessa natureza. A literatura sobre agrupamento fuzzy de dados é extensa, muitos algoritmos existem atualmente e são mais (ou menos) apropriados para determinados cenários, por exemplo, na procura por grupos que apresentam diferentes formatos ou ao operar sobre dados descritos por conjuntos de atributos de tipos diferentes. Adicionalmente, existem cenários em que os dados podem estar distribuídos em diferentes locais (sítios de dados). Nesses cenários o objetivo de um algoritmo de agrupamento de dados consiste em encontrar uma estrutura que represente os dados existentes nos diferentes sítios sem a necessidade de transmissão e armazenamento/processamento centralizado desses dados. Tais algoritmos são denominados algoritmos de agrupamento distribuído de dados. O presente trabalho visa o estudo e aperfeiçoamento de algoritmos de agrupamento fuzzy centralizados e distribuídos existentes na literatura, buscando identificar as principais características, vantagens, desvantagens e cenários mais apropriados para a aplicação de cada um deles, incluindo análises de complexidade de tempo, espaço e de comunicação para os algoritmos distribuídos
Impacto das rajadas no desempenho de serviços executados em ambientes em nuvens
Esta tese apresenta a caracterização de desempenho dos serviços executados em um ambiente em nuvem, quando são consideradas rajadas de diferentes origens, intensidades e variabilidades nas cargas de trabalho. Os resultados mostram que a presença de rajadas no processo de chegada das requisições e/ou nas demandas de serviço, ocasiona uma considerável degradação no desempenho dos serviços e, portanto, devem ser consideradas nos modelos de cargas de trabalhos e nas atividades voltadas para avaliação de desempenho em computação em nuvem. Considerando-se a grande influência das rajadas, é proposta e validada uma metodologia que permite monitorar uma carga de trabalho e determinar a ocorrência de rajadas tanto nas taxas de chegadas de requisições quanto nas demandas de serviços. A metodologia utilizada na condução deste trabalho consta de diferentes modelos de cargas de trabalho com rajadas de diferentes variabilidades e intensidades, desenvolvidos e integrados à arquitetura CloudSim-BEQoS proposta nesta tese. Utilizando-se essa arquitetura é possível executar um conjunto de experimentos que possibilitam a obtenção dos resultados que caracterizam o desempenho dos serviços quando são criadas condições de rajadas nas cargas de trabalho submetidas à nuvem.
2015
Adriana Molina Centurion
MAM - Media Assembly Model
Video and digital stories are important and empowering contemporaneous means of expression. However, the authorship of digital stories or any audiovisual content, specially when considering multimedia presentation, requires technical knowledge which may hinder the authorship by end-users. The literature presents works that aim to ease the explicit authorship of multimedia presentation by means of declarative languages, frameworks, and tools. Other works propose the implicit authorship using the Ubiquitous Computing paradigm of Capture & Access. The first situation may be not appropriate for highly-interactive application and lacks the features of manipulate individual medias, and the later may not be able to produce the users desired result because of its implicit authorship. In this thesis it is proposed, presented and formalized the Media Assembly Model (MAM) and its companion language, the Media Assembly Language (MAL). Using MAM a user can alter media properties and combine different medias in order to produce new monomedia or create interactive multimedia presentation.
Seecology: Data Visualization Framework for Soundscape Ecology Applications
The field of Soundscape Ecology refers to the study of sounds produced in natural environments and how they can provide important information about the state of the environment, as well as on the potential impacts caused by changes due to external influences. The analysis and visualization of large amounts of ecological recordings, as well as the development of appropriate tools for audio analysis contitute a major challenge. Mechanisms for extracting audio features, as well as the characterization of acoustic events of interest, resulting in datasets that capture the frequency variations and the occurrence of acoustic events in the recordings, still constitute a problem due to available solutions do not prove adequate for data analysis in acoustic ecology research, involving domain-specific issues and voluminous amounts of audio records collected over long periods of time. This work aims to address problems related to the extraction of audio features, providing assistance through visualization to the selection of the most significants, that could represent the subtle variations in ecological recordings, as well as assisting specialists in the generation of annotated dtasets by the characterization of acoustic events through exploratory visualizations, and methods for detecting vessels in underwater recordings. A framework named Seecology is presented, encompassing suitable methods and tools to supporting specialists and scholars of environmental analysis. Case studies were carried out with the framework in terrestrial and underwater recordings provided by acoustic ecology researchers, by producing datasets from the custom feature extractor included in the framework, and in the case of the method developed for detecting boats in underwater recordings, a comparative study to another method was conducted to determine its accuracy, in addition to the case study to determine its effectiveness. The presented methods for extracting characteristics, characterizing acoustic events through exploratory visualization and boat detection, demonstrated their effectiveness for applications in acoustic ecology, with the framework containing the methods capable of producing multidimensional datasets without excessive computational costs, allowing the user to easily generate annotations on this data through the included visualizations. The boat detection method performed better than the one it was compared, both in speed and accuracy, being able to detect weak signals from boats even under extreme noise.
2020
Clausius Duque Gonçalves Reis
Avaliação do Uso de Desafios no Aprendizado de Programação Paralela
O aprendizado de programação paralela não é trivial devido à complexidade dos conceitos que a fundamentam, dificuldades de compreensão e visualização do comportamento dos programas concorrentes, e dependência de conhecimentos provenientes de outras disciplinas de ciência da computação. Tais fatores, unidos à ausência de um aprendizado mais agregador e à crescente demanda por profissionais capacitados em desenvolvimento de aplicações de alto desempenho, justificam a necessidade de novos métodos e recursos que facilitem o processo de ensinoaprendizado que favoreça o desenvolvimento das habilidades e competências esperadas neste contexto. O objetivo do presente trabalho é avaliar o uso de desafios para ensinar programação paralela, independentemente da metodologia de ensino (tradicional, Problem Based Learning e outras) ou sistemas de suporte a maratonas de programação. Analisamos como os desafios contribuem para o aprendizado da programação paralela, considerando aspectos técnicos e motivacionais. Os resultados mostram o aprendizado em termos de conteúdo teórico, qualidade e corretude de código. Além disso, representam o nível de satisfação dos estudantes em relação à qualidade do curso. Os resultados foram positivos em relação às análises feitas, evidenciados por percentagens de até 85% em qualidade de código e 83% em satisfação dos alunos. Concluímos que o uso de desafios de programação afeta positivamente o aprendizado de programação paralela, estimula o desenvolvimento de soluções criativas e promove um ambiente saudável de competição entre os alunos. Além disso, percebemos que o uso de sistemas de maratona de programação traz benefícios, como feedback imediato e avaliação simplificada, mas requer um esforço considerável dos responsáveis pelos cursos para preparar as aulas e manter a infraestrutura computacional.
Dynamic output-feedback controllers for discrete-time linear systems with markovian jumping parameters, imperfect mode observation and additive noise perturbations
A class of stationary dynamic output-feedback controllers for discrete-time Markovian Jumping Linear Systems(MJLS) considering the minimization of a long run average cost is studied. The Markov chain that governs the parameters is not required to be ergodic, and it is allowed to be periodic and contain transient states / non-communicating classes, which enlarges the class of system, e.g. now comprising periodic systems as a sub-class. A compact optmization formulation is obtained for the mode-independent/detector-based controller of partial/full order, allowing one to explore the complexity and consequently obtain the best implementable performance for an application. We develop a two stage feasibility - optimization algorithm using the operator-based approach. We present a set of numerical examples in the context of random non-trivial systems that are subject to jumps in order to represent our results and compare the performance with a classical genetic algorithm, resulting in a clear advantage for our proposed algorithm.
2020
Pablo Ivan Zamora Mercado
Adaptive fusion of bright-field microscopy images acquired in different focal planes
Microscopy is an extremely relevant technique related to tasks that deal with micrometric order structures. Its use dates back to the 17th century and tends to evolve in parallel with the evolution of human technological knowledge. Among the various applications, the fields of biological and health sciences stand out, which involve structures normally invisible to the naked eye. There are unavoidable differences in depth between the points of the surfaces and structures which yield out-of-focus blur to images. However, high quality is necessary in order to allow precise analysis in microscopy applications. In this sense, image quality assessment and image fusion are examples of techniques that may be applied to solve the issue. Recent works on such fields show that mathematical techniques such as frequency domain analysis, multiresolution analysis and convolutional neural networks are effective to quantitatively assess the quality of images. At the same time, researchers also present many novel techniques for image fusion, either based on classical tools such as edge detection or based on state-of-the-art machine learning frameworks. The aim of this work is to develop a two-stage method, consisting of a no-reference image quality assessment and an image fusion step, to perform the fusion of bright-field light microscopy images acquired in different focal planes, and propose novel bright-field microscopy image datasets of plant leaf histological samples as a benchmark for testing both quality assessment and fusion algorithms. Frequency domain analysis and statistical methods were used to obtain a quality metric and the energy of edges extracted with the Laplacian of Gaussian filter as the fusion rule. The mean Pearsons correlation coefficient obtained for the image quality method was 0.7448, while the mean spatial frequency for the image fusion method was 0.0667.
2020
Victor Augusto Alves Catanante