Repositório RCAAP
Classificação de fluxos de dados não estacionários com algoritmos incrementais baseados no modelo de misturas gaussianas
Aprender conceitos provenientes de fluxos de dados é uma tarefa significamente diferente do aprendizado tradicional em lote. No aprendizado em lote, existe uma premissa implicita que os conceitos a serem aprendidos são estáticos e não evoluem significamente com o tempo. Por outro lado, em fluxos de dados os conceitos a serem aprendidos podem evoluir ao longo do tempo. Esta evolução é chamada de mudança de conceito, e torna a criação de um conjunto fixo de treinamento inaplicável neste cenário. O aprendizado incremental é uma abordagem promissora para trabalhar com fluxos de dados. Contudo, na presença de mudanças de conceito, conceitos desatualizados podem causar erros na classificação de eventos. Apesar de alguns métodos incrementais baseados no modelo de misturas gaussianas terem sido propostos na literatura, nota-se que tais algoritmos não possuem uma política explicita de descarte de conceitos obsoletos. Nesse trabalho um novo algoritmo incremental para fluxos de dados com mudanças de conceito baseado no modelo de misturas gaussianas é proposto. O método proposto é comparado com vários algoritmos amplamente utilizados na literatura, e os resultados mostram que o algoritmo proposto é competitivo com os demais em vários cenários, superando-os em alguns casos.
Eliminação de ruídos e retoque digital em imagens com textura via difusão anisotrópica
Neste trabalho são apresentadas, complementadas e melhoradas duas técnicas de restauração de imagens: uma abordando o problema de retoque digital/remoção de objetos enquanto a segunda é direcionada ao problema deneliminação de ruído. Em ambas as técnicas, a ideia é trabalhar com imagens contendo texturas e outras características de interesse para um observador humano como a preservação de padrões, bordas, estruturas e regiões de natureza oscilatória. A técnica descrita sobre retoque digital de imagens combina difusão anisotrópica, síntese de texturas, busca dinâmica e um novo termo empregado no mecanismo de atribuição da ordem de prioridade durante o processo de reconstrução. Assim, dada uma imagem com regiões a serem recompostas, uma técnica de difusão anisotrópica é aplicada à imagem afim de se obter um mapa de saliência contendo bordas, estruturas e demais informações de baixa frequência da imagem. Na sequência, um mecanismo de prioridade baseado em um novo termo de confiabilidade regularizado é calculado a partir da combinação do mapa anteriormente gerado com a equação do transporte. Tal mecanismo é utilizado para determinar a ordem de preenchimento das partes faltantes da imagem. Para essa tarefa, a abordagem apresentada utiliza uma nova medida de similaridade entre blocos de pixels(amostrados dinamicamente para acelerar o processo), afim de encontrar os melhores candidatos a serem alocados nas regiões danificadas. A técnica destinada à remoção de ruídos alia a teoria da difusão anisotrópica, técnicas de análise harmônica e modelos numéricos de discretização de EDPs não-lineares em uma equação diferencial parcial regularizada, a qual atua de forma incisiva em regiões mais homogêneas da imagem e de forma mais suave em regiões caracterizadas como textura e bordas, preservando, assim, essas regiões. Além da natureza anisotrópica, a EDP procura recompor partes texturizadas perdidas no processo de eliminação de ruído através da aplicação de técnicas robustas de análise harmônica. Uma validação teórica e experimental para esta EDP e um estudo do ajuste paramétrico do método de eliminação de ruído baseado nesta EDP foram realizados neste trabalho. A eficiência e a performance das técnicas propostas são atestadas por meio das análises experimentais quantitativas e qualitativas com outras abordagens clássicas da literatura.
2016
Marcos Proença de Almeida
"Construção de aplicações de captura e acesso baseada em recorrência de funcionalidades"
Aplicações de captura e acesso exploram o paradigma de computação ubíqua --- que consiste em popular o ambiente com aplicações e dispositivos computacionais a fim de auxiliar transparentemente as pessoas na realização de suas atividades --- para dar apoio à captura automática de informação em experiências ``ao vivo' e à correspondente geração de documentos passíveis de armazenamento, recuperação, visualização e extensão ao longo do tempo. Devido à sua natureza distribuída, à heterogeneidade dos dispositivos computacionais envolvidos e à diversidade nas funcionalidades providas, essas aplicações são difíceis de se construir e requerem infra-estruturas e serviços de software que auxiliem o desenvolvedor nessa tarefa. Este trabalho investiga a construção e o uso de aplicações de captura e acesso por meio do desenvolvimento da xINCA, uma infra-estrutura estendida baseada em componentes de software reutilizáveis que englobam as funcionalidades recorrentes nessa classe de aplicações. A xINCA é uma extensão da infra-estrutura INCA --- uma infra-estrutura de baixo nível que provê abstrações de comunicação para aplicações de captura e acesso. Complementares, as infra-estruturas INCA e xINCA provêem um modelo simplificado para o desenvolvimento de aplicações de captura e acesso, considerando aspectos de projeto, implementação e reuso. Associada ao modelo de armazenamento do serviço StRES, a xINCA tem ainda papel na estruturação da informação capturada com o uso de XML e tecnologias correlatas.
2004
Renan Gonçalves Cattelan
Análise da influência de funções de distância para o processamento de consultas por similaridade em recuperação de imagens por conteúdo
A recuperação de imagens baseada em conteúdo (Content-based Image Retrieval - CBIR) embasa-se sobre dois aspectos primordiais, um extrator de características o qual deve prover as características intrínsecas mais significativas dos dados e uma função de distância a qual quantifica a similaridade entre tais dados. O grande desafio é justamente como alcançar a melhor integração entre estes dois aspectos chaves com intuito de obter maior precisão nas consultas por similaridade. Apesar de inúmeros esforços serem continuamente despendidos para o desenvolvimento de novas técnicas de extração de características, muito pouca atenção tem sido direcionada à importância de uma adequada associação entre a função de distância e os extratores de características. A presente Dissertação de Mestrado foi concebida com o intuito de preencher esta lacuna. Para tal, foi realizada a análise do comportamento de diferentes funções de distância com relação a tipos distintos de vetores de características. Os três principais tipos de características intrínsecas às imagens foram analisados, com respeito a distribuição de cores, textura e forma. Além disso, foram propostas duas novas técnicas para realização de seleção de características com o desígnio de obter melhorias em relação à precisão das consultas por similaridade. A primeira técnica emprega regras de associação estatísticas e alcançou um ganho de até 38% na precisão, enquanto que a segunda técnica utilizando a entropia de Shannon alcançou um ganho de aproximadamente 71% ao mesmo tempo em que reduz significantemente a dimensionalidade dos vetores de características. O presente trabalho também demonstra que uma adequada utilização das funções de distância melhora efetivamente os resultados das consultas por similaridade. Conseqüentemente, desdobra novos caminhos para realçar a concepção de sistemas CBIR
Acessibilidade no desenvolvimento de sistemas web: um estudo sobre o cenário brasileiro
A universalização do acesso ao conteúdo disponibilizado em sistemas Web tem se tornado crucial para que todas as pessoas, independente de deficiências ou de outras restrições possam ter acesso a ele. Diversos estudos indicam que, apesar da instituição de leis federais sobre acessibilidade para conteúdo Web em diversos países, muitos sítios ainda apresentam problemas. A falta de conscientização das pessoas envolvidas em projetos de desenvolvimento Web sobre a acessibilidade e a não utilização de técnicas adequadas para desenvolvimento de aplicações têm um impacto considerável sobre a acessibilidade. Levantamentos foram realizados com o objetivo de identificar características dos desenvolvedores sobre o conhecimento e uso de técnicas para acessibilidade. Entretanto, os estudos realizados investigaram somente o uso de um conjunto restrito de técnicas e, além disso, também não investigaram a correlação entre as respostas obtidas pelos participantes e o nível de acessibilidade das páginas desenvolvidas por eles. Neste trabalho, propõe-se efetuar um levantamento sobre a percepção de acessibilidade e uso de técnicas para desenvolvimento de sistemas Web considerando acessibilidade com pessoas envolvidas em projetos de desenvolvimento Web no Brasil de diferentes áreas de atuação. Este levantamento foi acompanhado de avaliações de acessibilidade automatizadas com uso de métricas sobre sítios desenvolvidos pelos participantes, para verificar a influência dos fatores investigados na acessibilidade dos sítios e na percepção de acessibilidade dos participantes. O levantamento realizado contou com a participação de 613 participantes de todo o Brasil. Os resultados indicaram que no Brasil a percepção da acessibilidade por pessoas que participam de projetos de desenvolvimento Web ainda é bastante limitada. Mais do que promover o treinamento das pessoas envolvidas em projetos sobre questões técnicas, é necessário promover maior conscientização sobre a acessibilidade e sobre os problemas que pessoas com diferentes restrições e habilidades enfrentam ao utilizar a Web.
Políticas de escalonamento de tempo-real para garantia de QoS absoluta em array de servidores web heterogêneos
Em relação aos significativos resultados em Qualidade de Serviço (QoS) para servidores Web, existem ainda muitos problemas não resolvidos. Enquanto as abordagens atuais se limitam a prover QoS relativa através de diferenciação de serviço, este projeto apresenta e compara três modelos que tem por objetivo prover QoS absoluta para um array de servidores Web heterogêneos por meio de uma arquitetura de escalonamento ortogonal: A Multiple Queue (MQ), a Single Queue (SQ) e a Dynamic Single Queue (DSQ). A MQ consiste em receber a requisição HTTP e enviá-la para o servidor escolhido do array de servidores através do balanceamento de carga. A SQ e a DSQ possuem uma única fila gerenciada de forma centralizada. Enquanto a SQ envia a requisição somente quando o servidor esta livre, a DSQ seleciona o servidor com mais curto tempo de término mediante o uso de filas virtuais. Os modelos foram simulados considerando diferentes parâmetros e configurações para o ambiente. A avaliação de desempenho da arquitetura ortogonal demonstra que a mesma provê um bom desempenho na provisão de QoS absoluta com relação as mudanças instantâneas das cargas de trabalho no ambiente Web. Esta pesquisa estende os resultados da politica de escalonamento chamada EBS, concebida para provisão de garantias de tempo de resposta estocásticas em ambientes interativos online, especificamente para os servidores Web. Os resultados demonstram que a combinação da EBS na política de fila com a disciplina de recurso proposta neste trabalho é superior às outras combinações examinadas. Um modelo de política adaptativa é também introduzido
2008
Maycon Leone Maciel Peixoto
Ajuste de parâmetros de técnicas de classificação por algoritmos bioinspirados
Aprendizado de máquina é uma área de pesquisa na qual se investiga como desenvolver sistemas capazes de aprender com a experiência. Muitos algoritmos de aprendizado possuem parâmetros cujos valores devem ser especificados pelo usuário. Em geral, esses valores influenciam diretamente no processo de aquisição do conhecimento, podendo gerar diferentes modelos. Recentemente, algoritmos de otimização bioinspirados têm sido aplicados com sucesso no ajuste de parâmetros de técnicas de aprendizado de máquina. Essas técnicas podem apresentar diferentes sensibilidades em relação aos valores escolhidos para seus parâmetros e diferentes algoritmos de ajuste de parâmetros podem apresentar desempenhos singulares. Esta dissertação investiga a utilização de algoritmos bioinspirados para o ajuste de parâmetros de redes neurais artificiais e máquinas de vetores de suporte em problemas de classificação. O objetivo dessa investigação é verificar quais são as técnicas que mais se beneficiam do ajuste de parâmetros e quais são os algoritmos mais eficientes para essas técnicas. Os resultados experimentais mostram que os algoritmos bioinspirados conseguem encontrar melhores clasificadores que outras abordagens. Porém, essa melhoria é estatisticamente significativa para alguns conjuntos de dados. Foi possível verificar que o uso dos valores padrão para os parâmetros das técnicas de classificação leva a desempenhos similares aos obtidos com os algoritmos bioinspirados. Entretanto, para alguns conjuntos de dados, o ajuste de parâmetros pode melhorar significativamente o desempenho dos classificadores
2009
André Luis Debiaso Rossi
Superfícies de pontos dinâmicas
O estudo do comportamento de fluidos é um antigo domínio das ciências da natureza. Ultimamente, fenômenos de engenharia que eram estudados empiricamente passaram a ser estudados com auxílio computacional. A Dinâmica de Fluidos Computacional (DFC) é a área da ciência da computação que estuda métodos computacionais para simulação de escoamento de fluidos, e muitas vezes é a forma mais prática, ou a única, de se observar fenômenos de interesse no escoamento. Este projeto de Mestrado procurou investigar, no âmbito da simulação de um escoamento bifásico, métodos computacionais para representar a interface entre dois fluidos imiscíveis. A separação dos fluidos por meio de uma interface é necessária para assegurar que, propriedades como viscosidade e densidade, específicas de cada fluido, sejam utilizadas corretamente para o cálculo do movimento de seus respectivos fluidos. Desenvolvemos um método lagrangeano sem a utilização de malhas com o objetivo de suprir algumas restrições de trabalhos prévios. Para representar a interface entre os dois fluidos, este método utiliza uma técnica de reconstrução de superfícies baseada em aproximações de superfícies algébricas de alta ordem. Os resultados numéricos reportados neste documento evidenciam o potencial da nossa abordagem
Avaliação de métodos não-supervisionados de seleção de atributos para mineração de textos
Selecionar atributos é, por vezes, uma atividade necessária para o correto desenvolvimento de tarefas de aprendizado de máquina. Em Mineração de Textos, reduzir o número de atributos em uma base de textos é essencial para a eficácia do processo e a compreensibilidade do conhecimento extraído, uma vez que se lida com espaços de alta dimensionalidade e esparsos. Quando se lida com contextos nos quais a coleção de textos é não-rotulada, métodos não-supervisionados de redução de atributos são utilizados. No entanto, não existe forma geral predefinida para a obtenção de medidas de utilidade de atributos em métodos não-supervisionados, demandando um esforço maior em sua realização. Assim, este trabalho aborda a seleção não-supervisionada de atributos por meio de um estudo exploratório de métodos dessa natureza, comparando a eficácia de cada um deles na redução do número de atributos em aplicações de Mineração de Textos. Dez métodos são comparados - Ranking porTerm Frequency, Ranking por Document Frequency, Term Frequency-Inverse Document Frequency, Term Contribution, Term Variance, Term Variance Quality, Método de Luhn, Método LuhnDF, Método de Salton e Zone-Scored Term Frequency - sendo dois deles aqui propostos - Método LuhnDF e Zone-Scored Term Frequency. A avaliação se dá em dois focos, supervisionado, pelo medida de acurácia de quatro classificadores (C4.5, SVM, KNN e Naïve Bayes), e não-supervisionado, por meio da medida estatística de Expected Mutual Information Measure. Aos resultados de avaliação, aplica-se o teste estatístico de Kruskal-Wallis para determinação de significância estatística na diferença de desempenho dos diferentes métodos de seleção de atributos comparados. Seis bases de textos são utilizadas nas avaliações experimentais, cada uma relativa a um grande domínio e contendo subdomínios, os quais correspondiam às classes usadas para avaliação supervisionada. Com esse estudo, este trabalho visa contribuir com uma aplicação de Mineração de Textos que visa extrair taxonomias de tópicos a partir de bases textuais não-rotuladas, selecionando os atributos mais representativos em uma coleção de textos. Os resultados das avaliações mostram que não há diferença estatística significativa entre os métodos não-supervisionados de seleção de atributos comparados. Além disso, comparações desses métodos não-supervisionados com outros supervisionados (Razão de Ganho e Ganho de Informação) apontam que é possível utilizar os métodos não-supervisionados em atividades supervisionadas de Mineração de Textos, obtendo eficiência compatível com os métodos supervisionados, dado que não detectou-se diferença estatística nessas comparações, e com um custo computacional menor
2009
Bruno Magalhães Nogueira
ChipCflow - uma ferramenta para execução de algoritmos utilizando o modelo a fluxo de dados dinâmico em hardware reconfigurável - operadores e grafos a fluxo de dados
ChipCflow é o projeto de uma ferramenta para execução de algoritmos escritos em linguagem C utilizando o modelo a fluxo de dados dinâmico em hardware com reconfiguração parcial. O objetivo principal do projeto ChipCflow é a aceleração da execução de programas por meio da execução direta em hardware, aproveitando ao máximo o paralelismo considerado natural do modelo a fluxo de dados. Em particular nesta parte do projeto, realizou-se a prova de conceito para a programação a fluxo da dados em hardware reconfigurável. O modelo de fluxo de dados utilizado foi o estático em plataforma sem reconfiguração parcial, dada a complexidade desse sistema, que faz parte de outro módulo em desenvolvimento no projeto ChipCflow
Hierarchical semi-supervised confidence-based active clustering and its application to the extraction of topic hierarchies from document collections
Topic hierarchies are efficient ways of organizing document collections. These structures help users to manage the knowledge contained in textual data. These hierarchies are usually obtained through unsupervised hierarchical clustering algorithms. By not considering the context of the user in the formation of the hierarchical groups, unsupervised topic hierarchies may not attend the user\'s expectations in some cases. One possible solution for this problem is to employ semi-supervised clustering algorithms. These algorithms incorporate the user\'s knowledge through the usage of constraints to the clustering process. However, in the context of semi-supervised hierarchical clustering, the works in the literature do not efficient explore the selection of cases (instances or cluster) to add constraints, neither the interaction of the user with the clustering process. In this sense, in this work we introduce two semi-supervised hierarchical clustering algorithms: HCAC (Hierarchical Confidence-based Active Clustering) and HCAC-LC (Hierarchical Confidence-based Active Clustering with Limited Constraints). These algorithms employ an active learning approach based in the confidence of cluster merges. When a low confidence merge is detected, the user is invited to decide, from a pool of candidate pairs of clusters, the best cluster merge in that point. In this work, we employ HCAC and HCAC-LC in the extraction of topic hierarchies through the SMITH framework, which is also proposed in this thesis. This framework provides a series of well defined activities that allow the user\'s interaction in the generation of topic hierarchies. The active learning approach used in the HCAC-based algorithms, the kind of queries employed in these algorithms, as well as the SMITH framework for the generation of semi-supervised topic hierarchies are innovations to the state of the art proposed in this thesis. Our experimental results indicate that HCAC and HCAC-LC outperform other semi-supervised hierarchical clustering algorithms in diverse scenarios. The results also indicate that semi-supervised topic hierarchies obtained through the SMITH framework are more intuitive and easier to navigate than unsupervised topic hierarchies
2013
Bruno Magalhães Nogueira
Abordagem clássica e bayesiana para os modelos de séries temporais da família GARMA com aplicações para dados de contagem
Nesta dissertação estudou-se o modelo GARMA para modelar séries temporais de dados de contagem com as distribuições condicionais de Poisson, binomial e binomial negativa. A principal finalidade foi analisar no contexto clássico e bayesiano, o desempenho e a qualidade do ajuste dos modelos de interesse, bem como o desempenho dos percentis de cobertura dos intervalos de confiança dos parâmetros para os modelos adotados. Para atingir tal finalidade considerou-se a análise dos estimadores pontuais bayesianos e foram analisados intervalos de credibilidade. Neste estudo é proposta uma distribuição a priori conjugada para os parâmetros dos modelos e busca-se a distribuição a posteriori, a qual associada a certas funções de perda permite encontrar estimativas bayesianas para os parâmetros. Na abordagem clássica foram calculados estimadores de máxima verossimilhança, usandose o método de score de Fisher e verificou-se por meio de simulação a consistência dos mesmos. Com os estudos desenvolvidos pode-se observar que, tanto a inferência clássica quanto a inferência bayesiana para os parâmetros dos modelos em questão, apresentou boas propriedades analisadas por meio das propriedades dos estimadores pontuais. A última etapa do trabalho consiste na análise de um conjunto de dados reais, sendo uma série real correspondente ao número de internações por causa da dengue em Campina Grande. Estes resultados mostram que tanto o estudo clássico, quanto o bayesiano, são capazes de descrever bem o comportamento da série
2011
Adriana Strieder Philippsen
Estudo e definição de ontologias como apoio ao desenvolvimento de módulos educacionais
O desenvolvimento de conteúdos educacionais e a adoção de mecanismos de modelagem representam fatores importantes a serem considerados no contexto de ensino e aprendizagem. Nesse cenário, a utilização de ontologias proporciona vantagens tais como definção formal do conhecimento, reusabilidade e interoperabilidade de informações. Além disso, facilidades como recuperação dos objetos de aprendizagem, reúso do conteúdo de aprendizagem e personalização do conteúdo a partir do desempenho do usuário também são observadas. Diante disso, diversas aplicações com base em ontologias têm sido utilizadas tanto para modelar domínios educacionais como para construir, organizar e atualizar objetos de aprendizagem e perfis de aluno. Ainda, associado ao uso de ontologias em sistemas educacionais, verifica-se um crescente interesse na construção da personalização do conteúdo, de acordo com as preferências e características do usuário envolvendo a utilização de ontologias. O presente projeto está inserido nesse contexto, em que um conjunto de ontologias foi desenvolvido para prover a personalização do conteúdo, com base no perfil do usuário. Foi construído um exemplo na ontologia global (que compõe o conjunto de ontologias), em que o domínio de análise de ponto de função foi instanciado para três usuários com diferentes níveis de conhecimento. A ideia é elicitar a granularidade distinta do conteúdo para cada usuário, em conformidade com suas preferências e nível de conhecimento no domínio, a partir das relações e das inferências estabelecidas nas ontologias
"Métodos de pontos interiores aplicados ao pré-despacho de um sistema hidroelétrico usando o princípio de mínimo esforço - comparação com o modelo de fluxo em redes"
Neste trabalho, os métodos de pontos interiores primal-dual e preditor corretor são estudados e desenvolvidos para o problema de minimização de custos na geração e perdas na transmissão do pré-despacho DC (fluxo de carga em corrente contínua) de um sistema de potência hidroelétrico, com base no modelo de fluxo em redes e no princípio do mínimo esforço. A estrutura matricial, resultante da simplificação do problema proposto pela inclusão do princípio do mínimo esforço, é estudada visando implementações eficientes.
2005
Lilian Milena Ramos Carvalho
Computação em nuvem elástica auxiliada por agentes computacionaise baseada em histórico para web services
A gestão eficaz de recursos computacionais em nuvem está diretamente ligada a gerir corretamente o desempenho das aplicações hospedadas na Máquina Virtual (Virtual Machine - VM), criando um ambiente capaz de controlá-la e redimensionar recursos de Memória, Disco, CPU e outros que se façam necessários, individualmente em resposta a carga de trabalho. Neste trabalho considera-se também a gestão eficaz a qual é possível realizar o retorno sobre o investimento realizado para a contratação do serviço de IaaS. Nesta pesquisa de mestrado, foi proposto o gerenciamento da infraestrutura computacional em nuvem, através de dois modelos que facilitam o provisionamento auto-adaptativo de recursos em um ambiente virtualizado: alocação de recursos utilizando modelo para previsão da carga de trabalho futura e a gestão auto-adaptativa de capacidade utilizando agentes computacionais para monitorarem constantemente as VMs. Além disso, é proposto o retorno do investimento, que trata a relação entre o valor que o cliente contratou do serviço de IaaS e o quanto efetivamente ele está utilizando. Desta forma, a cada período é contabilizado a taxa do valor gasto em unidades monetárias. Para contemplar esta proposta, foram desenvolvidos algoritmos que são o núcleo de todo gerenciamento. Também foram realizados experimentos e os resultados mostram a capacidade do autogerenciamento das máquinas virtuais, com reconfiguração dinâmica da infraestrutura através de previsões baseadas em histórico e também da reconfiguração e monitoramento com o uso de agentes computacionais. Após a análise e avaliação dos resultados obtidos nos experimentos, é possível afirmar que houve uma significativa melhora da reconfiguração dos recursos com agentes computacionais se comparado a reconfiguração com previsão de carga futura.
MLearning-PL: a pedagogical pattern language for mobile learning applications
The development and use of computational applications to support teaching and learning, together with the evolution of mobile computing, have contributed significantly to the establishment of a new learning modality known as mobile learning. Despite the benefits and facilities offered by educational applications, some problems and issues they present must be addressed. Challenges associated with mobile learning are not limited to developmental aspects or technologies. We should also consider the pedagogical aspects of this kind of application. When dealing with domain-specific software, we must be concerned about domain requirements. Therefore, it is important to have expert knowledge in the requirements engineering team and, in the case of mobile learning applications projects, such knowledge come from educators, teachers and tutors. However, capturing and transferring tacit knowledge are not trivial tasks and a supporting mechanism that guides the requirements elicitation phase in mobile learning applications projects would be of major importance. Pattern languages as a method to describe tacit knowledge is acknowledged and could be used as a supporting mechanism. Patterns constitute a mechanism for capturing domain experience and knowledge to allow such experience and knowledge to be reapplied when a new problem is encountered. Similarly, pedagogical patterns try to capture expert knowledge of the practice of teaching and learning. Aiming to solve, or at least diminish, the problems associated with mobile learning and due the lack of pedagogical patterns for this purpose, this work aims to create a pedagogical pattern language to assist the requirements elicitation phase of mobile learning applications projects. In this context, a pedagogical pattern language, named MLearning-PL, was created. It is composed of 14 patterns and focuses on assisting in the definition of mobile applications in order to keep learners motivated and committed to using such applications, considering their different learning styles and an effective knowledge acquisition. Experimental studies comparing MLearning-PL to an ad hoc approach in a pedagogical problem resolution scenario were conducted. The results obtained provided preliminary evidences of the applicability, effectiveness and efficiency of MLearning-PL.
A simulation-driven model-based approach for designing software-intensive systems-of-systems architectures
Context: Software-intensive systems have been increasingly interoperated forming alliances termed as Systems-of-Systems (SoS). SoS comprises a collection of systems joined to achieve a set of missions that none of the systems can accomplish on its own. Each constituent system keeps its own management, goals, and resources while coordinating within the SoS and adapting to meet SoS goals. Applications of SoS range from traffic control to emergency response and crisis management. As SoS often support critical domains, such systems must be correct by dealing with malfunction or defects and avoiding failures that could cause extensive damage and losses to the users. Problem: Correct SoS operations depend on a precise specification and a rigorous attestation of its operational consistency. However, besides limitations on languages to jointly capture SoS structure and behavior, predictions on the SoS operational consistency rely on constituent systems not totally known at design-time. Therefore, SoS have been developed and deployed without evaluating their operations, since current languages do not support such precision in evaluation. Objectives: This thesis provides solutions founded on a formal architectural description language to support an early evaluation of SoS operation regarding SoS structure and behavior by means of simulations. Contribution: The main contributions of this project comprise (i) a model transformation approach for automatically producing simulation models from SoS software architecture descriptions, combining SoS structure and behavior description in a same solution, (ii) a SoS software architecture evaluation method for SoS operation prediction considering the inherent changes that can occur, (iii) environment modelling and automatic generation of stimuli generators to sustain the SoS simulation, delivering data to feed such simulation, and (iv) a method for the automatic synchronization between the runtime descriptive architecture (changed at runtime due to dynamic architecture) and its original prescriptive architecture based on model discovery and recovery mechanisms and a backward model transformation. Evaluation: We conducted case studies to assess our solutions using Flood Monitoring SoS and Space SoS. Results: Our solutions support a high accuracy to (i) produce fault-free and fully operational simulations for SoS software architectures, (ii) support evaluation and prediction of SoS operation at design-time, (iii) automatically generate stimuli generators to sustain and feed the simulation execution, and (iv) maintain the synchronization between the runtime architecture and the intended version of the SoS architecture. Conclusions: We concluded that the proposed solutions advance the state of the art in SoS software architecture evaluation by offering solutions to predict the SoS operations effectiveness to maintain a continuous operation despite architectural changes, providing more trust for users that futurely shall rely on SoS services.
2018
Valdemar Vicente Graciano Neto
Caracterização de cargas de trabalho para avaliação de desempenho em Web services
Esta dissertação de mestrado aborda um estudo sobre a caracterização de cargas de trabalho para Web services por meio da análise de Documentos WSDL (Web Service Description Language). Esses documentos, que representam a interface para os serviços, foram obtidos na Web e seus conteúdos analisados estatisticamente. A metodologia utilizada para alcançar a caracterização desejada, constitui-se da coleta e análise dos dados de 1346 arquivos WSDL válidos. O resultado do estudo proposto nesta dissertação contribui para a avaliação de desempenho no que diz respeito a caracterizar os diversos aspectos das cargas de trabalho de Web services. Dentre os dados obtidos ressaltam-se as porcentagens da ocorrência de algumas características tais como o número de operações, tipos de Binding, quantidade de parâmetros de entrada e saída e tipos de dados mais utilizados. Para auxiliar na busca e avaliação das características das WSDLs uma nova ferramenta denominada WSDLAnalyzer é proposta e implementada
Alcançabilidade e controlabilidade médias para sistemas lineares com saltos markovianos a tempo contínuo
Neste trabalho estudamos as noções de alcançabilidade e controlabilidade para sistemas lineares a tempo contínuo com perturbações aditivas e saltos nos parâmetros sujeitos a uma cadeia de Markov geral. Definimos conceitos de alcançabilidade e controlabilidade médios de maneira natural exigindo que os valores esperados dos gramianos correspondentes sejam definidos positivos. Visando obter uma condição testável para ambos os conceitos, introduzimos conjuntos de matrizes de alcançabilidade e de controlabilidade para esta classe de sistemas e usamos certas propriedades de invariância para mostrar que: o sistema é alcançável em média, e, analogamente, controlável em média, se e somente se as matrizes respectivas, de alcançabilidade e de controlabilidade, têm posto completo. Usamos alcançabilidade média de sistemas para mostrar que a matriz de segundo momento do estado é definida positiva com uma margem uniforme. Uma consequência deste resultado no problema de estimação linear do estado é que a matriz de covariância do erro de estimação é positiva definida em média, no sentido que existe um nível mínimo de ruído nas estimativas. Na sequência, para estimadores lineares markovianos, estudamos a limitação do valor esperado da matriz de covariância do erro para mostrar que o filtro é estável num certo sentido, sendo esta uma propriedade desejável em aplicações reais. Quanto às aplicações da controlabilidade média, usamos este conceito para estabelecer condições necessárias e suficientes que garantem a existência de um processo de controle que leva a componente contínua do estado do sistema para a origem em tempo finito e com probabilidade positiva.
2015
Alfredo Rafael Roa Narvaez
Um modelo multiobjetivo para controle biológico de pragas por meio de VANT: distribuição eficiente de cápsulas
Pragas exóticas podem causar prejuízos financeiros de US$ 1,4 trilhão no mundo e, ameaçar a segurança alimentar mundial. O controle biológico é um fenômeno natural no qual consiste na regulação do número de plantas ou animais por meio de inimigos naturais. O uso de veículo aéreo não tripulado (VANT) como plataforma de apoio ao controle biológico tem se mostrado promissor, pois há a possibilidade de redução de custos operacionais e transposição de barreiras naturais, como rios e animais peçonhentos. Entretanto, os métodos atuais para a disseminação de cápsulas com inimigos naturais são feitos por um VANT pilotado remotamente ou com rota ziguezague, na qual possui baixa eficiência de cobertura e não pode cobrir áreas de qualquer formato. Outra questão importante é a precisão na deposição das cápsulas, que pode ser negativamente influenciada pelos ventos no momento da liberação das cápsulas. Nesta tese propõe-se um sistema e um método para controle biológico de pragas, por meio de VANT, que são compostos por um novo algoritmo para o cálculo dos locais de deposição de cápsulas, conhecido por problema de cobertura, que possa ser empregado em áreas de qualquer formato. Um método para reposicionar a aeronave, em ambiente ventoso, no momento da liberação da cápsula para aumentar a precisão da deposição da cápsula e, um mecanismo liberador de cápsulas. Na questão da cobertura, na situação mais complexa ao comparar com a literatura, os resultados mostram que o algoritmo proposto apresentou 1,54% a mais de área efetivamente coberta, 9,54% a mais na eficiência de cobertura, ineficiência de cobertura 104,88% menor, protegeu 7,16% a mais a região de borda e, necessitou de 13,56% menos cápsulas liberadas. Como reposicionamento da aeronave em ambiente ventoso, os resultados obtidos com o simulador Morse mostram que é mais vantajoso realizar o voo com uma altura de 20 m do que a 10 m. Portanto, é possível utilizar VANT para distribuição eficiente de cápsulas para o controle biológico em áreas de qualquer formato. Os principais impactos são o potencial de redução de custos por liberar menos cápsulas e cobrir melhor as regiões fronteiriças da plantação.
2020
Heitor de Freitas Vieira