RCAAP Repository
Uma abordagem visual para apoio ao aprendizado multi-instâncias
Aprendizado múltipla instância (MIL) é um paradigma de aprendizado de máquina que tem o objetivo de classificar um conjunto (bags) de objetos (instâncias), atribuindo rótulos só para os bags. Em MIL apenas os rótulos dos bags estão disponíveis para treinamento, enquanto os rótulos das instâncias são desconhecidos. Este problema é frequentemente abordado através da seleção de uma instância para representar cada bag, transformando um problema MIL em um problema de aprendizado supervisionado padrão. No entanto, não se conhecem abordagens que apoiem o usuário na realização desse processo. Neste trabalho, propomos uma visualização baseada em árvore multi-escala chamada MILTree que ajuda os usuários na realização de tarefas relacionadas com MIL, e também dois novos métodos de seleção de instâncias, chamados MILTree-SI e MILTree-Med, para melhorar os modelos MIL. MILTree é um layout de árvore de dois níveis, sendo que o primeiro projeta os bags, e o segundo nível projeta as instâncias pertencentes a cada bag, permitindo que o usuário explore e analise os dados multi-instância de uma forma intuitiva. Já os métodos de seleção de instãncias objetivam definir uma instância protótipo para cada bag, etapa crucial para a obtenção de uma alta precisão na classificação de dados multi-instância. Ambos os métodos utilizam o layout MILTree para atualizar visualmente as instâncias protótipo, e são capazes de lidar com conjuntos de dados binários e multi-classe. Para realizar a classificação dos bags, usamos um classificador SVM (Support Vector Machine). Além disso, com o apoio do layout MILTree também pode-se atualizar os modelos de classificação, alterando o conjunto de treinamento, a fim de obter uma melhor classificação. Os resultados experimentais validam a eficácia da nossa abordagem, mostrando que a mineração visual através da MILTree pode ajudar os usuários em cenários de classificação multi-instância.
Supporting architectural design of acknowledged SoS
System-of-Systems (SoS) refer to complex, large-scale, and sometimes critical software-intensive systems that has raised as a promising class of systems in several application domains. In parallel, software architectures play a significant role in the development of software-intensive systems, dealing with both functional and non-functional requirements. In particular, systematic processes to design SoS software architectures can tackle challenges from SoS development, including to handle collaboration of independent constituent systems with different owners, missions, and interests. Despite the relevance and necessity of software-intensive SoS for diverse application domains, most of their software architectures have been still developed in an ad hoc manner. In general, there is a lack of structured processes for architecting SoS, hindering the secure adoption of SoS, reducing possibilities of sharing common architectural solutions, and negatively impacting in the success rate for these systems. This thesis presents SOAR (\\General Process for Acknowledged SoS Software Architectures\") that supports the establishment of architectural design processes for acknowledged SoS. Conceived to provide different levels of support according to each SoS development context, it comprises a high level kernel that describes what must be done when architecting SoS and also three practices with specific activities and work products to guide how to perform architectural analysis, synthesis, and evaluation. To evaluate SOAR, three surveys, a viability study, and an experiment were conducted. Results achieved in these evaluation studies indicate that SOAR can positively support the instantiation of architecting processes for acknowledged SoS and, as a consequence, contribute to the development and evolution of these complex, software-intensive systems.
2016
Marcelo Benites Gonçalves
Uma abordagem flexível para exploração da reutilização de dados on-chip orientada ao padrão de acesso à memória
Aplicações de dados intensivos precisam acessar uma grande quantidade de dados armazenados em memórias off-chip. Devido ao dispendioso tempo de acesso, muitos autores propõem arquiteturas que implementam sistemas tais como cache e Scratch-pad Memories (SPM) para otimizar a reutilização de dados. Algumas vezes a SPM pode ser mais adequada que a memória cache, especialmente quando o elemento de processamento é customizado para a aplicação. No entanto, é necessário definir qual é o melhor tamanho da memória e qual e quando um conjunto de dados deve ser carregado na memória. Neste contexto, é desejável desenvolver uma técnica que possa gerar estes valores automaticamente. Este trabalho apresenta uma técnica para minimizar o número de acessos off-chip e o tamanho da memória on-chip (SPM) usada em aplicações baseadas em FPGA. A técnica desenvolvida é baseada em algoritmos genéticos devido à sua flexibilidade para explorar todo o espaço de projeto e fornecer um conjunto de soluções válidas. Ao usar a abordagem, é possível gerar soluções válidas para loops regulares e função de endereçamento afim (affine). Por exemplo, para a aplicação Sobel nossa técnica foi capaz de encontrar um padrão de acesso que forneceu 83,3% de redução aos acessos à memória off-chip usando menos de 1 KB de memória on-chip. i
2014
Arnaldo Cesar dos Santos
Alinhamento automático de textos e sumários multidocumento
Com o excesso de informação disponível online, a Sumarização Automática tornouse uma área de bastante interesse na grande área da Inteligência Artificial. Alguns autores tentaram caracterizar o processo de sumarização para compreender melhor como sumarizadores o realizam. O alinhamento de um sumário e seus textos fonte pode ser encarado como uma caracterização desse processo. Com relação à sumarização automática, a técnica de alinhamento consiste em obter relações entre segmentos de um ou vários textos e seu sumário e, da forma que o conteúdo de um segmento esteja contido no outro. Uma vez obtidas essas relações, tornase possível (i) aprender como sumarizadores profissionais realizam a sumarização, (ii) explicitar regras e modelos para a sumarização, e (iii) criar métodos automatizados utilizando as regras e modelos explicitados, o que traz uma contribuição à Sumarização Automática. Neste trabalho, foram propostas três abordagens dentro das abordagens superficiais e profundas do Processamento de Língua Natural para realizar os alinhamentos de forma automática. A primeira utiliza três métodos superficiais, sendo eles Word overlap, tamanho relativo e posição relativa. A segunda caracterizase em uma técnica de alinhamento com mais conhecimento linguístico, pois nela foi utilizada uma teoria discursiva, a CST (CrossDocument Structure Theory). A terceira utiliza Aprendizado de Máquina, caracterizando uma abordagem híbrida dada a característica de seus atributos superficiais e profundos, relativo à primeira e à segunda abordagem. Uma avaliação comparativa entre elas, e também entre um trabalho da literatura, foi realizada. Quando os dados do aprendizado de máquina eram balanceados, foi atingido o valor de 97,2% de medidaF, maior valor encontrado. O método superficial Word overlap também obteve um bom resultado, sendo ele 66,2% de medidaF.
Avaliação de um sistema de analítica visual para recuperação de informação em coleções de documentos
A recuperação de informações de coleções de documentos é necessária em muitos contextos, por exemplo, pesquisadores desejam recuperar artigos sobre um tópico de pesquisa, médicos procuram prontuários de pacientes relacionados a uma determinada condição, investigadores de polícia buscam relações em relatórios criminais. Em comum a esses cenários, os usuários precisam identificar informações textuais relevantes em uma coleção de documentos. A tarefa é desafiadora, especialmente quando os usuários esperam por um processo de recuperação que não perca nenhum ou poucos documentos relevantes. Abordagens de Visual Analytics (VA) são frequentemente defendidas para apoiar tarefas de recuperação de documentos. VA depende da integração de visualizações interativas e algoritmos de aprendizado de máquina para que um especialista no domínio possa gradualmente conduzir um sistema para identificar os documentos relevantes. Como exemplo, o TRIVIR é um sistema do estado da arte que permite explorar um corpus enquanto fornece feedback a um classificador que sugere documentos potencialmente relevantes a um documento de consulta de referência. Avaliar as estratégias de recuperação de informações com suporte de VA também é um desafio, pois o uso desses sistemas geralmente envolve muitos aspectos conceituais e práticos e as tarefas de recuperação de texto podem exigir um esforço cognitivo considerável. Neste trabalho, são apresentados resultados de estudos observacionais sobre Recuperação de Informação (RI) de texto apoiada por VA. Foram conduzidas sessões com alunos de pós-graduação e pesquisadores usando o TRIVIR para explorar artigos científicos para fins de revisão de literatura. Um primeiro estudo permitiu recolher opiniões e identificar alguns problemas de usabilidade e limitações práticas da implementação disponível. Depois de tratar alguns problemas críticos observados no nível da interface, foi conduzida uma segunda rodada de sessões para coletar mais opiniões de usuários sobre um processo de recuperação auxiliado por VA. Concluiu-se que a maioria dos usuários tem uma visão muito positiva da usabilidade do sistema e da sua capacidade de facilitar as tarefas de recuperação. No entanto, também observou-se que uma introdução adequada aos diferentes elementos da interface é muito importante, e que pode ser difícil transmitir o modelo conceitual subjacente e suas limitações. Observou-se uma variação significativa na avaliação das funcionalidades específicas por diferentes usuários, e alguns deles podem enfrentar dificuldades práticas para utilizar o sistema adequadamente, de forma autônoma.
2021
Sherlon Almeida da Silva
Uma arquitetura de personalização de conteúdo baseada em anotações do usuário
A extração de metadados semânticos de vídeos digitais para uso em serviços de personalização é importante, já que o conteúdo é adaptado segundo as preferências de cada usuário. Entretanto, apesar de serem encontradas várias propostas na literatura, as técnicas de indexação automática são capazes de gerar informações semânticas apenas quando o domínio do conteúdo é restrito. Alternativamente, existem técnicas para a criação manual dessas informações por profissionais, contudo, são dispendiosas e suscetíveis a erros. Uma possível solução seria explorar anotações colaborativas dos usuários, mas tal estratégia provoca a perda de individualidade dos dados, impedindo a extração de preferências do indivíduo a partir da interação. Este trabalho tem como objetivo propor uma arquitetura de personalização que permite a indexação multimídia de modo irrestrito e barato, utilizando anotações colaborativas, mas mantendo-se a individualidade dos dados para complementar o perfil de interesses do usuário com conceitos relevantes. A multimodalidade de metadados e de preferências também é explorada na presente tese, fornecendo maior robustez na extração dessas informações, e obtendo-se uma maior carga semântica que traz benefícios às aplicações. Como prova de conceito, este trabalho apresenta dois serviços de personalização que exploram a arquitetura proposta, avaliando os resultados por meio de comparações com abordagens previamente propostas na literatura
2011
Marcelo Garcia Manzato
Visualização da evolução temporal de coleções de artigos científicos
Artigos científicos são o principal mecanismo que pesquisadores usam para reportar suas descobertas científicas, e uma coleção de artigos em uma área de pesquisa pode revelar muito sobre sua evolução ao longo do tempo, como a emergência de novos tópicos e a evolução dos mesmos quanto ao seu conteúdo. No entanto, dada uma ampla coleção de artigos é geralmente muito difícil extrair informações importantes que possam ajudar leitores a interpretar globalmente, navegar e então eventualmente focar em itens relevantes para sua tarefa. Mapas de documentos baseados em conteúdo são representações visuais criadas para avaliar a similaridade entre documentos, e têm se mostrado úteis em auxiliar tarefas exploratórias neste cenário. Documentos são representados por marcadores visuais projetados em um espaço bidimensional de forma que documentos com conteúdo similar permaneçam próximos. Apesar de estes mapas permitirem a identificação visual de grupos de documentos relacionados e de fronteiras entre esses grupos, eles não transmitem explicitamente a evolução temporal de uma coleção. Nesta tese, propomos e validamos um mapa de documentos dinâmico interativo para coleções de artigos científicos capaz de evidenciar o comportamento temporal para apoiar tarefas de análise, preservando ao mesmo tempo a acurácia local do mapa e o contexto do usuário. As mudanças nas relações de similaridade, evidenciadas ao longo do tempo nesse mapa, oferecem suporte para detecção da evolução temporal dos tópicos. Essa evolução é caracterizada por meio de eventos de transição entre grupos, como a emergência de novos grupos e tópicos em momentos específicos e a especialização de um grupo, e pela detecção de mudanças no vocabulário dos tópicos, utilizando técnicas que extraem os termos mais relevantes (tópicos) em cada grupo, em diferentes momentos
2013
Aretha Barbosa Alencar
Um algoritmo genético híbrido para supressão de ruídos em imagens
Imagens digitais são utilizadas para diversas finalidades, variando de uma simples foto com os amigos até a identificação de doenças em exames médicos. Por mais que as tecnologias de captura de imagens tenham evoluído, toda imagem adquirida digitalmente possui um ruído intrínseco a ela que normalmente é adquirido durante os processo de captura ou transmissão da imagem. O grande desafio neste tipo de problema consiste em recuperar a imagem perdendo o mínimo possível de características importantes da imagem, como cantos, bordas e texturas. Este trabalho propõe uma abordagem baseada em um Algoritmo Genético Híbrido (AGH) para lidar com este tipo de problema. O AGH combina um algoritmo genético com alguns dos melhores métodos de supressão de ruídos em imagens encontrados na literatura, utilizando-os como operadores de busca local. O AGH foi testado em imagens normalmente utilizadas como benchmark corrompidas com um ruído branco aditivo Gaussiano (N; 0), com diversos níveis de desvio padrão para o ruído. Seus resultados, medidos pelas métricas PSNR e SSIM, são comparados com os resultados obtidos por diferentes métodos. O AGH também foi testado para recuperar imagens SAR (Synthetic Aperture Radar), corrompidas com um ruído Speckle multiplicativo, e também teve seus resultados comparados com métodos especializados em recuperar imagens SAR. Através dessa abordagem híbrida, o AGH foi capaz de obter resultados competitivos em ambos os tipos de testes, chegando inclusive a obter melhores resultados em diversos casos em relação aos métodos da literatura.
2015
Jônatas Lopes de Paiva
MODELAGEM E VISUALIZAÇÃO DE FRACTAIS EM 3-D
Esta dissertação descreve a criação e o desenvolvimento de um sistema interativo de modelagem e visualização de fractais determinísticos em 3-D. O domínio do sistema abrange inicialmente, estruturas fractais obtidas a partir de superficies equipotenciais de Julia e Mandelbrot, bem como quaternions aplicados aos mesmos conjuntos. A técnica de representação/visualização escolhida foi uma modificação de ray-tracing conhecida como \"boundary tracking\", com o auxílio de um z-buffer. O texto visa também introduzir a Geometria Fractal como uma técnica alternativa de modelagem e visualização tridimensional de objetos no contexto da Computação Gráfica.
AVALIAÇÃO DO CUSTO DE APLICAÇÃO DOS CRITÉRIOS POTENCIAIS USOS NO TESTE DE PROGRAMAS COBOL
Este trabalho consiste na avaliação empírica da adequação e do custo de aplicação dos critérios Potenciais Usos no teste de programas COBOL, com o apoio de uma ferramenta de teste denominada POKE-TOOL. Os critérios Potenciais Usos são critérios estruturais de teste baseados em fluxo de dados: informação de fluxo de dados (definição e uso de variáveis do programa) é utilizada para derivar os requisitos de teste. Utiliza-se, para a realização deste experimento, uma estratégia de teste que combina técnicas funcionais e estruturais, reconhecido o aspecto complementar dessas técnicas. Para a geração do conjunto inicial de casos de teste são aplicados os critérios funcionais Análise de Valores Limites e Particionamento em Classes de Equivalência. Utiliza-se a ferramenta POKE-TOOL para a análise de adequação do conjunto inicial de casos de teste em relação aos critérios Potenciais Usos e novos casos de teste são gerados visando a cobrir todos os elementos requeridos. A análise dos resultados obtidos indica que o uso dos critérios Potenciais Usos no teste de programas COBOL é factível, pois um pequeno número de casos de teste é requerido para satisfazer estes critérios. Vários modelos de estimativas para a previsão do número de casos de teste requeridos e do número de caminhos não executáveis gerados para esta classe de programas são analisados. São caracterizadas também as principais causas de não executabilidade nos programas do \"benchmark\" utilizado, uma vez que a existência desses caminhos é um problema inerente ao teste estrutural.
1995
Maria das Gracas Junqueira Machado Tomazela
ASPECTOS DE PARAMETRIZAÇÕES PARA INFERÊNCIAS BAYESIANAS APROXIMADAS PARA MODELOS DE COMPONENTES DE VARIÂNCIA
Neste trabalho, desenvolvemos uma análise para modelos de componentes de variância. Assumindo diferentes densidades a priori para os parâmetros do modelo de componentes de variância com 2 ou 3 componentes de variância, exploramos o uso de métodos de aproximação de Laplace para obter as quantidades a posteriori de interesse. Também estudamos a importância de uma boa parametrização para a obtenção de resultados precisos. Além disso, também consideramos distribuições não-normais para os efeitos aleatórios e desenvolvemos um estudo comparativo considerando diferentes conjuntos de dados.
UMA APLICAÇÃO PRÁTICA DA ANÁLISE DE DOMÍNIOS
A busca por tecnologias que possibilitem ganhos substanciais de produtividade no desenvolvimento de sistemas de software é um dos desafios da engenharia de software. Ao longo dos anos, diversas tecnologias surgiram com o objetivo de aumentar a produtividade. Reutilização de software é uma tecnologia emergente que pode ajudar a aumentar o índice de produtividade no desenvolvimento de software. Um sistema de reutilização deve fornecer mecanismos que permitam ao desenvolvedor de software identificar, catalogar, recuperar e integrar componentes de software. A identificação de componentes de software é tarefa complexa, pois responder o que reutilizar, como reutilizar e quando reutilizar não é simples. Para auxiliar nas respostas às questões citadas, a análise de domínio surge como uma abordagem sistemática para identificação, registro e elaboração de diretrizes do uso dos componentes de software existentes em um domínio de aplicação. Este trabalho descreve uma experiência prática de aplicação de conceitos e técnicas de análise de domínios na busca de abstrações reutilizáveis de software existentes nas aplicações do domínio. Apresenta como resultado da análise: um esquema de classificação dos componentes reutilizáveis de software que permite a criação de uma biblioteca de componentes, apresenta o modelo de domínio através de uma arquitetura padrão de construção de aplicações e uma linguagem de domínio, baseada no jargão utilizado no domínio e que permite especificar novas aplicações. O trabalho mostra, também, um exemplo do uso dos resultados da análise de domínio através da implementação de uma ferramenta automatizada de software para gerencia de uma biblioteca de componentes de software, bem com descreve uma proposta para construção de um gerador de aplicação, ambos como parte de um sistema de reutilização.
1995
Wilson Massashiro Yonezawa
"Utilização de aprendizado de máquina para a adaptação de estruturas em hipermídia adaptativa"
Sistemas Hipermídia são programas capazes de armazenar e recuperar informações não-lineares, estabelecendo uma estrutura complexa e flexível representada por nós interligados. À medida em que aumenta o espaço de navegação, tal como acontece na World Wide Web (WWW ou Web), a possibilidade de desorientação do usuário no espaço de navegação torna-se maior. Assim, a Hipermídia Adaptativa investiga métodos e técnicas para a adaptação automática de conteúdos e/ou ligações para características, interesses ou objetivos individuais. Trabalhos recentes em Hipermídia Adaptativa sugerem o uso de técnicas de Aprendizado de Máquina e Modelagem de Usuários. Este trabalho investiga o uso de técnicas de Aprendizado de Máquina para a adaptação de estruturas (ligações) em um ambiente Hipermídia, em especial a World Wide Web. Para tanto, avalia-se o desempenho de diferentes algoritmos de Aprendizado de Máquina para a adaptção de ligações em ambiente WWW. Os resultados experimentais obtidos sugerem o potencial do emprego de técnicas de Aprendizado de Máquina.
2004
Alfredo Lanari de Aragão
Generation of semantic layouts for interactive multidimensional data visualization
Visualization methods make use of interactive graphical representations embedded on a display area in order to enable data exploration and analysis. These typically rely on geometric primitives for representing data or building more sophisticated representations to assist the visual analysis process. One of the most challenging tasks in this context is to determinate an optimal layout of these primitives which turns out to be effective and informative. Existing algorithms for building layouts from geometric primitives are typically designed to cope with requirements such as orthogonal alignment, overlap removal, optimal area usage, hierarchical organization, dynamic update among others. However, most techniques are able to tackle just a few of those requirements simultaneously, impairing their use and flexibility. In this dissertation, we propose a set of approaches for building layouts from geometric primitives that concurrently addresses a wider range of requirements. Relying on multidimensional projection and optimization formulations, our methods arrange geometric objects in the visual space so as to generate well-structured layouts that preserve the semantic relation among objects while still making an efficient use of display area. A comprehensive set of quantitative comparisons against existing methods for layout generation and applications on text, image, and video data set visualization prove the effectiveness of our approaches.
2017
Erick Mauricio Gomez Nieto
Comparações de populações discretas
Um dos principais problemas em testes de hipóteses para a homogeneidade de curvas de sobrevivência ocorre quando as taxas de falha (ou funções de intensidade) não são proporcionais. Apesar do teste de Log-rank ser o teste não paramétrico mais utilizado para se comparar duas ou mais populações sujeitas a dados censurados, este teste apresentada duas restrições. Primeiro, toda a teoria assintótica envolvida com o teste de Log-rank, tem como hipótese o fato das populações envolvidas terem distribuições contínuas ou no máximo mistas. Segundo, o teste de Log-rank não apresenta bom comportamento quando as funções intensidade cruzam. O ponto inicial para análise consiste em assumir que os dados são contínuos e neste caso processos Gaussianos apropriados podem ser utilizados para testar a hipótese de homogeneidade. Aqui, citamos o teste de Renyi e Cramér-von Mises para dados contínuos (CCVM), ver Klein e Moeschberger (1997) [15]. Apesar destes testes não paramétricos apresentar bons resultados para dados contínuos, esses podem ter problemas para dados discretos ou arredondados. Neste trabalho, fazemos um estudo simulação da estatística de Cramér von-Mises (CVM) proposto por Leão e Ohashi [16], que nos permite detectar taxas de falha não proporcionais (cruzamento das taxas de falha) sujeitas a censuras arbitrárias para dados discretos ou arredondados. Propomos também, uma modificação no teste de Log-rank clássico para dados dispostos em uma tabela de contingência. Ao aplicarmos as estatísticas propostas neste trabalho para dados discretos ou arredondados, o teste desenvolvido apresenta uma função poder melhor do que os testes usuais
2013
Alexandre Hiroshi Watanabe
Formação de grupos em ambientes cscl utilizando traços de personalidade associados às teorias de aprendizagem colaborativa
A Aprendizagem Colaborativa com Suporte Computacional (CSCL) é uma área de pesquisa que investiga como a tecnologia pode ser usada para apoiar a interação e a colaboração nas atividades realizadas em grupo, promovendo a construção do conhecimento individual e coletivo dos seus participantes. Um dos desafios desse campo de pesquisa refere-se à formação de grupos de aprendizagem efetivos. Esses grupos são caracterizados pela sinergia existente entre os seus membros para que os objetivos do trabalho sejam alcançados de forma plena, assegurando a melhoria dos resultados de aprendizagem de cada um dos envolvidos. Apesar das importantes contribuições, pesquisadores da CSCL apontam problemas relacionados à resistência e desmotivação dos estudantes para o trabalho em grupo, que pode ser influenciada por características pessoais dos alunos, como os traços de personalidade. Nesse sentido, este trabalho de doutorado tem como objetivo verificar a influência dos traços de personalidade na formação de grupos baseados em teorias de aprendizagem colaborativa, e criar mecanismos para automatizar e apoiar a formação dos grupos em ambientes CSCL. Para alcançar esse objetivo, três desafios de pesquisa foram estabelecidos. O primeiro se propõe a investigar a influência dos traços de personalidade na efetividade dos grupos (aprendizado, satisfação, motivação) baseados em teorias de aprendizagem colaborativa. Para isso, foi realizado um estudo experimental, com 156 alunos do ensino fundamental II, que confirmou a influência dos traços de personalidade, rigidez mental e emocionalidade, na aprendizagem e motivação de 78 grupos apoiados pela teoria de aprendizagem colaborativa Peer Tutoring. O segundo desafio de pesquisa consiste no desenvolvimento de um modelo formal para relacionar os traços de personalidade às teorias de aprendizagem colaborativa. Dessa forma, foi desenvolvido um método, composto por quatros passos, para modelagem de novos papéis de aprendizagem, denominados de Papéis Colaborativos Afetivos (PCAs). Com base nesses PCAs é possível criar novos cenários de aprendizagem colaborativa e, além disso, estabelecer estratégias de aprendizagem para lidar com as características dos traços de personalidade que podem influenciar negativamente o comportamento dos estudantes. Dois estudos de caso foram conduzidos para avaliar o modelo formal. O primeiro, realizado com 10 alunos na faixa de idade de 13-16 anos, avaliou o impacto da característica de insociabilidade e impulsividade na formação de grupos baseados na teoria de aprendizagem Anchored Instruction. O segundo foi desenvolvido com 15 alunos, na faixa de idade de 09-10 anos, e investigou a influência da característica de alta e baixa impulsividade na formação de grupos baseados na teoria de aprendizagem Distributed Cognition. Os resultados mostraram que este modelo contribui para o design de cenários colaborativos mais efetivos, visto que ele personaliza a formação de grupos ao propor a criação de novos papéis de aprendizagem que consideram os traços de personalidade associados às teorias de aprendizagem. Finalmente, o último desafio de pesquisa refere-se ao desenvolvimento de um algoritmo que utilize os novos PCAs para a criação de grupos. Como resultado, foi implementado o algoritmo G-FusionPT que, baseado em uma amostra simulada de 300 alunos, mostrou ser mais efetivo quando comparado a dois outros algoritmos de formação de grupos.
2019
Rachel Carlos Duque Reis
Comparações múltiplas para dados censurados
O objetivo deste trabalho é estudar a performance de alguns métodos de comparações múltiplas (MCMs) que ajustam o valor-p quando as estatísticas empregadas nos testes são a log-rank e a Cramér-von Mises, ambas não paramétricas e com estrutura de dependência. A vantagem dos MCMs que ajustam o valor-p é que eles controlam as taxas de erro tipo I e tipo II para cada hipótese, afim de atingir um poder estatístico elevado, mantendo a taxa de erro da família dos testes (FWER) menor ou igual ao nível de significância escolhido. Trabalhamos com o procedimento clássico de Bonferroni e com outros métodos vistos como seu melhoramento, com especial atenção a certos procedimentos derivados do método de Simes que permitem realizar inferências sob as hipóteses individuais. Foi verificado teoricamente que a estatística log-rank pertence à classe multivariada totalmente positiva de ordem 2 (\'MTP IND. 2\'), uma vez que o método de Simes garante o controle da FWER quando as estatísticas dependentes assumem esta condição. O controle da FWER empregando a estatística de Cramér-von Mises foi observado apenas por meio de simulações. Os MCMs foram analisados através de estudos computacionais em modelos discretos e contínuos sob censura com foco no problema de comparar um tratamento versus controle
2013
Daiane de Souza Santos
Modelos estocásticos utilizados no planejamento da operação de sistemas hidrotérmicos
Algumas abordagens para o problema de Planejamento Ótimo da Operação de Sistemas Hidrotérmicos (POOSH) utilizam modelos estocásticos para representar as vazões afluentes dos reservatórios do sistema. Essas abordagens utilizam, em geral, técnicas de Programação Dinâmica Estocástica (PDE) para resolver o POOSH. Por outro lado, muitos autores têm defendido o uso dos modelos determinísticos ou, particularmente, a Programação Dinâmica Determinística (PDD) por representar de forma individualizada a interação entre as usinas hidroelétricas do sistema. Nesse contexto, esta dissertação tem por objetivo comparar o desempenho da solução do POOSH obtida via PDD com a solução obtida pela PDE, que emprega um modelo Markoviano periódico, com distribuição condicional Log-Normal Truncada para representar as vazões. Além disso, é realizada a análise com abordagem bayesiana, no modelo de vazões, para estimação dos parâmetros e previsões das vazões afluentes. Comparamos as performances simulando a operação das usinas hidroelétricas de Furnas e Sobradinho, considerando séries de vazões geradas artificialmente
2013
Danilo Alvares da Silva
Aplicação de modelos de defeitos na geração de conjuntos de teste completos a partir de Sistemas de Transição com Entrada/Saída
O Teste Baseado em Modelos (TBM) emergiu como uma estratégia promissora para minimizar problemas relacionados à falta de tempo e recursos em teste de software e visa verificar se a implementação sob teste está em conformidade com sua especificação. Casos de teste são gerados automaticamente a partir de modelos comportamentais produzidos durante o ciclo de desenvolvimento de software. Entre as técnicas de modelagem existentes, Sistemas de Transição com Entrada/Saída (do inglês, Input/Output Transition Systems - IOTSs), são modelos amplamente utilizados no TBM por serem mais expressivos do que Máquinas de Estado Finito (MEFs). Apesar dos métodos existentes para geração de testes a partir de IOTSs, o problema da seleção de casos de testes é um tópico difícil e importante. Os métodos existentes para IOTS são não-determinísticos, ao contrário da teoria existente para MEFs, que fornece garantia de cobertura completa com base em um modelo de defeitos. Esta tese investiga a aplicação de modelos de defeitos em métodos determinísticos de geração de testes a partir de IOTSs. Foi proposto um método para geração de conjuntos de teste com base no método W para MEFs. O método gera conjuntos de teste de forma determinística além de satisfazer condições de suficiência de cobertura da especificação e de todos os defeitos do domínio de defeitos definido. Estudos empíricos avaliaram a aplicabilidade e eficácia do método proposto: resultados experimentais para analisar o custo de geração de conjuntos de teste utilizando IOTSs gerados aleatoriamente e um estudo de caso com especificações da indústria mostram a efetividade dos conjuntos gerados em relação ao método tradicional de Tretmans.
2016
Sofia Larissa da Costa Paiva
HAMSTER healthy, mobility and security-based data communication architecture for unmanned systems
Advances in communicat ions have been unarguably essent ial to enablemodern systems and applicat ions as we know them. Ubiquity has turned into reality, allowing specialised embedded systems to eminent ly grow and spread. That is notably the case of unmanned vehicles which have been creat ively explored on applications that were not as efficient as they currently are, neither as innovative as recent ly accomplished. Therefore, towards the efficient operat ion of either unmanned vehicles and systems they integrate, in addition to communicat ion improvements, it is highly desired that we carefully observe relevant , co-related necessit ies that may lead to the full insert ion of unmanned vehicles to our everyday lives. Moreover, by addressing these demands on integrated solut ions, better resultswill likely be produced. This thesis presentsHAMSTER, theHeAlthy, Mobility and Security based data communication archiTEctuRe for unmanned vehicles, which addresses threemain types of communicat ions: machine-to-machine, machine-to-infrast ructure and internal machine communications. Four addit ional elements on co-related requirements are provided alongside with HAMSTER for more accurate approaches regarding security and safety aspects (SPHERE platform), crit icality analysis (NCI index), energy efficiency (NP plat form) and mobility-oriented ad hoc and infrast ructured communicat ions (NIMBLE platform). Furthermore, three specialised versions are provided: unmanned aerial vehicles (Flying HAMSTER), unmanned ground vehicles (Running HAMSTER) and unmanned surface/ underwater vehicles (Swimming HAMSTER). The architecture validat ion is achieved by case studies on each feature addressed, leading to guidelines on the development of vehicles more likely to meet certificat ion requirements, more efficient and secure communicat ions, assert ive approaches regarding crit icality and green approaches on internal communicat ions. Indeed, results prove the efficiency and effectiveness of HAMSTER architecture and its elements, as well as its flexibility in carrying out different experiments focused on various aspects of communication, which helps researchers and developers to achieve safe and secure communicat ions in unmanned vehicles.
2017
Daniel Fernando Pigatto