Repositório RCAAP

"Simulação numérica de escoamentos viscoelásticos com superfície livre usando o ambiente FreeFlow-2D"

Este trabalho apresenta o desenvolvimento de um método numérico para simular escoamentos viscoelásticos com superfícies livres de um fluido governado pelo modelo de Oldroyd-B. As equações governantes para um fluido Oldroyd-B são consideradas. A derivada temporal é aproximada por um método de segunda ordem. Uma formulação para o cálculo do tensor de tensão extra nos contornos rígidos é apresentada. As equações governantes são resolvidas pelo método de diferenças finitas numa malha deslocada utilizando variáveis primitivas. O método numérico descrito neste trabalho foi implementado no ambiente de simulação Freeflow-2D. Resultados numéricos demonstrando que o método numérico empregado neste trabalho aplicado a vários escoamentos bidimensionais de um fluido Oldroyd-B são apresentados.

Ano

2003

Creators

Gerson Fernandes Silva

Incorporação de metadados semânticos para recomendação no cenário de partida fria

Com o propósito de auxiliar os usuários no processo de tomada de decisão, diversos tipos de sistemas Web passaram a incorporar sistemas de recomendação. As abordagens mais utilizadas são a filtragem baseada em conteúdo, que recomenda itens com base nos seus atributos, a filtragem colaborativa, que recomenda itens de acordo com o comportamento de usuários similares, e os sistemas híbridos, que combinam duas ou mais técnicas. A abordagem baseada em conteúdo apresenta o problema de análise limitada de conteúdo, o qual pode ser reduzido com a utilização de informações semânticas. A filtragem colaborativa, por sua vez, apresenta o problema da partida fria, esparsidade e alta dimensionalidade dos dados. Dentre as técnicas de filtragem colaborativa, as baseadas em fatoração de matrizes são geralmente mais eficazes porque permitem descobrir as características subjacentes às interações entre usuários e itens. Embora sistemas de recomendação usufruam de diversas técnicas de recomendação, a maioria das técnicas apresenta falta de informações semânticas para representarem os itens do acervo. Estudos na área de sistemas de recomendação têm analisado a utilização de dados abertos conectados provenientes da Web dos Dados como fonte de informações semânticas. Dessa maneira, este trabalho tem como objetivo investigar como relações semânticas computadas a partir das bases de conhecimentos disponíveis na Web dos Dados podem beneficiar sistemas de recomendação. Este trabalho explora duas questões neste contexto: como a similaridade de itens pode ser calculada com base em informações semânticas e; como semelhanças entre os itens podem ser combinadas em uma técnica de fatoração de matrizes, de modo que o problema da partida fria de itens possa ser efetivamente amenizado. Como resultado, originou-se uma métrica de similaridade semântica que aproveita a hierarquia das bases de conhecimento e obteve um desempenho superior às outras métricas na maioria das bases de dados. E também o algoritmo Item-MSMF que utiliza informações semânticas para amenizar o problema de partida fria e obteve desempenho superior em todas as bases de dados avaliadas no cenário de partida fria.

Ano

2019

Creators

Eduardo Pereira Fressato

A influência das informações de hardware e software nos serviços de IaaS: uma abordagem sobre desempenho de máquinas virtuais em nuvem

Esta tese apresenta um conjunto de avaliações experimentais com o objetivo de identificar como as camadas de hardware e software podem ser determinantes na obtenção de desempenho em máquinas virtuais em nuvem. A computação em nuvem apresenta benefícios no fornecimento de serviços de infraestrutura de forma conveniente e sob demanda. Essa oferta de serviços, sob demanda, pode conduzir os clientes à contratação de serviços virtualizados que atendam às suas necessidades com bom desempenho. Quando os serviços de infraestrutura são vendidos ou alugados com a descrição apenas das características das máquinas virtuais, o desempenho obtido pode não ser o desejado devido às restrições dos recursos físicos. Sendo assim, é proposto um levantamento sobre quais informações são fornecidas pelos provedores de nuvem. De posse das informações coletadas, um conjunto de experimentos demonstra a importância da camada de virtualização para os serviços de infraestrutura. Os resultados apresentados nesta tese demonstram que apesar de os provedores terem tipos de máquinas virtuais semelhantes nos recursos virtuais, os recursos físicos são determinantes na obtenção do desempenho. Além dos recursos físicos, os recursos de software também são determinantes na obtenção do desempenho, devido principalmente à marcante influência do virtualizador considerado.

Ano

2016

Creators

Dionisio Machado Leite Filho

Previsão de Arestas em Redes Complexas

Este trabalho pretende analisar o problema de previsão e reconstrução de arestas por meio da observação das similaridades entre os nós. A previsão de arestas é um problema de ampla relevância para diversas áreas de conhecimento incluindo estudos sociais, neurociência e redes de infraestrutura. Nestes casos temos o conjunto de arestas observáveis, nosso objetivo é por meio da observação destas e das similaridades entre os vértices que se conectam, inferir arestas faltantes ou arestas que se formarão em algum tempo no futuro. Esse estudo permitirá uma melhor compreensão sobre a relação entre a as características estruturais ou particulares dos vértices e a formação de conexões em redes.

Ano

2021

Creators

Ana Clara Kandratavicius Ferreira

UM ESTUDO DO MÉTODO ISAC COM ALTERNATIVA DO ISD PARA ARTICULAÇÃO COM JSP

É apresentado neste trabalho um estudo detalhado da metodologia ISAC (Information Systems work . and Analysis of Changes). Varios documentos de trabalhos publicados por membros do grupo ISAC, desde 1970, foram analisados, bem como outras publicações em revistas e livros. Essa analise permitiu traçar o perfil de desenvolvimento da metodologia e avaliar a sua repercussão na área acadêmica e profissional. Um sistema de sugestão de compras, que e especificado parcialmente numa das publicações de ISAC foi completado e implementado como um protótipo, usando-se o SGBD Dbase 111 em um microcomputador. Como as metodologias ISAC e JSD (Jackson System Design) incorporam a mesma técnica de projeto de programas: JSP (Jackson System Program), faz-se uma comparação detalhada entre ISAC e JSD, onde se verifica como JSP foi incorporado a ambas as metodologias. Para oferecer subcíclios a essa comparação, o mesmo problema exemplo de ISAC foi especificado em JSD e essa especificação e também apresentada neste trabalho. Outros aspectos evidencia dos pela comparação, como conceitos e ferramentas equivalentes. nas duas metodologias e aspectos peculiares de cada uma, são também relatados.

Ano

1987

Creators

Maria Cecília Vecchiato Saenz Carneiro

ALGORITMOS DO TIPO ROMBERG PARA QUADRATURA NUMÉRICA

Este trabalho tem por objetivo apresentar e analisar diferentes métodos de integração automática, baseados no método de Romberg. Os métodos podem ser adaptativos ou não adaptativos. Experimentos numéricos são realizados com o intuito de comparar os diversos métodos quanto ao seu custo, precisão, e confiança. Dois métodos adaptativos extras, baseados na regra de Simpson, são incluídos para uma comparação mais realista.

Ano

1987

Creators

Lucia Helena Barros Manara

Indexação Eficiente de Múltiplos Espaços Métricos para Otimização de Consultas por Similaridade

Com o crescente aumento na geração de dados ao longo dos últimos anos, tornou-se necessário a captura e armazenamento de grandes quantidades de dados complexos, como imagens, vídeos e áudios, que exigem ferramentas eficientes e flexíveis quando utilizados na recuperação de informações. Muitas abordagens da literatura para recuperar dados complexos seguem o paradigma de Consultas por similaridade, utilizando Métodos de Acesso Métrico (MAMs) para indexar os dados complexos e acelerar a recuperação de informações. Estes métodos indexam vetores de características, extraídos por meio da aplicação de Métodos de Extração de Características (FEMs), que representam o conteúdo intrínseco existente nos dados complexos, como cor, textura ou forma no caso de imagens. Os MAMs foram inicialmente projetados para indexar recursos de dados complexos usando apenas um FEM por vez, levando os usuários a criar vários índices quando mais de um FEM é utilizado nas consultas. Abordagens recentes que utilizam diferentes representações em uma única estrutura de índice, no geral sofrem com um grande número de cálculos de distância, causado principalmente pelo aumento no número de elementos candidatos gerados na recuperação de informações sobre os multiplos espaços métricos. De forma a solucionar este problema, neste trabalho de mestrado, propomos o MAM Spectra, que indexa dados complexos usando vários FEMs simultaneamente, e tem como objetivo principal, agilizar as consultas por similaridade sobre múltiplas representações de objetos complexos. Além disso, o MAM se baseia nas correlações existentes entre diferentes espaços para escolher os melhores FEMs para responder a cada busca, de forma a obter um espaço de indexação que reduza o número de cálculos de distância e consequentemente o tempo de execução de consultas. Nossos resultados utilizando o Spectra mostram que, para diferentes conjuntos de dados, os espaços métricos que apresentam baixa-correlação, resultam em uma redução significativa do número de elementos presentes no conjunto de elementos candidatos, enquanto preserva a qualidade da busca e reduz o tempo de consulta em até uma ordem de magnitude.

Ano

2020

Creators

Guilherme Felipe Zabot

Análise dos resultados de ensaios de proficiência via modelos de regressão com variável explicativa aleatória

Em um programa de ensaio de prociência (EP) conduzido pelo Grupo de Motores, um grupo de onze laboratórios da área de temperatura realizaram medições em cinco pontos da escala de um termopar. Neste trabalho, propomos um modelo de regressão com variável explicativa X (aleatória) representando o termopar padrão que denominaremos por artefato e a variável dependente Y representando as medições dos laboratórios. O procedimento para a realização da comparação é simples, ambos termopares são colocados no forno e as diferenças entre as medições são registradas. Para a análise dos dados, vamos trabalhar com a diferença entre a diferença das medições do equipamento do laboratório e o artefato, e o valor de referência (que é determinado por 2 laboratórios que pertencem a Rede Brasileira de Calibração (RBC)). O erro de medição tem variância determinada por calibração, isto é, conhecida. Assim, vamos encontrar aproximações para as estimativas de máxima verossimilhança para os parâmetros do modelo via algoritmo EM. Além disso, propomos uma estratégia para avaliar a consistência dos laboratórios participantes do programa de EP

Ano

2004

Creators

Aline Othon Montanari

Uma abordagem para indicar o estado emocional de usuários em tempo de interação

O estado emocional dos usuários influencia na tomada de decisão e é essencial para o conhecimento e explicação do comportamento dos usuários com aplicações computacionais. Sistemas computacionais fazem parte da vida cotidiana, influenciando o comportamento humano e estimulando mudanças nos estados emocionais. A avaliação das emoções dos usuários, durante a interação com aplicações computacionais, pode ajudar a fornecer interfaces flexíveis e melhores sistemas de recomendação. No entanto, as emoções são complexas e difíceis de identificar ou avaliar. Pesquisas anteriores demonstraram que o uso de sensores individuais, em um cenário do mundo real, não fornece uma avaliação emocional precisa. Acredita-se que somente uma visão holística pode permitir tirar conclusões significativas sobre o estado emocional dos usuários. Assim, nesta Tese, propõe-se uma abordagem chamada UserSense, que considera vários sensores para estimar os estados emocionais dos usuários em tempo de interação. A abordagem proposta, a partir de múltiplos sensores, considera várias entradas de usuários (como a fala, movimentos faciais, frequência cardíaca e atividades) e utiliza métodos de inteligência artificial para mapear essas diferentes respostas em um ou mais estados emocionais. Para a validação, os dados coletados pelos sensores durante a interação do usuário foram confrontados com os dos especialistas (psicólogos). A Teoria Componencial das Emoções e o Espaço Emocional Semântico de Scherer são utilizados na fundamentação teórica da abordagem UserSense que, baseada no Middleware Adaptativo OpenCom, incorpora funcionalidades para carregar e descarregar novos recursos, necessários a infraestrutura proposta. Os resultados experimentais mostram que a combinação de resultados gerados por vários sensores, fornece uma avaliação mais precisa dos estados emocionais do que considerar sensores individualmente.

Ano

2016

Creators

Vinícius Pereira Gonçalves

Extração de características para a classificação de imagética motora em interfaces cérebro-computador

As Interfaces Cérebro-Computador (do inglês Brain-Computer Interfaces BCI) são sistemas que visam permitir a interação entre usuários e máquinas por meio do monitoramento das atividades cerebrais. Sistemas de BCI são considerados como uma alternativa para que pessoas com perda severa ou total do controle motor, tais como as que sofrem de Esclerose Lateral Amiotrófica, possam contar com algum controle sobre o ambiente externo. Para mapear intenções individuais em operações de máquina, os sistemas de BCI empregam um conjunto de etapas que envolvem a captura e pré-processamento dos sinais cerebrais, a extração e seleção de suas características mais relevantes e a classificação das intenções. O projeto e a implementação de sistemas de BCI viáveis ainda são questões em aberto devido aos grandes desafios encontrados em cada uma de suas etapas. Esta lacuna motivou este trabalho de mestrado o qual apresenta uma avaliação dos principais extratores de características utilizados para classificar ensaios de imagética motora, cujos dados foram obtidos por meio de eletroencefalografia (EEG) e apresentam influências de artefatos, mais precisamente daqueles produzidos por interferências provenientes de atividades oculares (monitoradas por eletrooculografia EOG). Foram considerados sinais coletados pela BCI Competition IV-2b, os quais contêm informações sobre três canais de EEG e três outros de EOG. Como primeira etapa, foi realizado o pré-processamento desses canais utilizando a técnica de Análise de Componentes Independentes (ICA) em conjunto com um limiar de correlação para a remoção de componentes associados a artefatos oculares. Posteriormente, foram avaliadas diferentes abordagens para a extração de características, a mencionar: i) Árvore Diádica de Bandas de Frequências (ADBF); ii) Padrões Espaciais Comuns (CSP); iii) Padrões Espectro-Espaciais Comuns (CSSP); iv) Padrões Esparsos Espectro-Espaciais Comuns (CSSSP); v) CSP com banco de filtros (FBCSP); vi) CSSP com banco de filtros (FBCSSP); e, finalmente, vii) CSSSP com banco de filtros (FBCSSSP). Contudo, como essas técnicas podem produzir espaços de exemplos com alta dimensionalidade, considerou-se, também, a técnica de Seleção de Características baseada em Informação Mútua (MIFS) para escolher os atributos mais relevantes para o conjunto de dados adotado na etapa de classificação. Finalmente, as Máquinas de Vetores de Suporte (SVM) foram utilizadas para a classificação das intenções de usuários. Experimentos permitem concluir que os resultados do CSSSP e FBCSSSP são equiparáveis àqueles produzidos pelo estado da arte, considerando o teste de significância estatística de Wilcoxon bilateral com confiança de 0, 95. Apesar disso o CSSSP tem sido negligenciado pela área devido ao fato de sua parametrização ser considerada complexa, algo que foi automatizado neste trabalho. Essa automatização reduziu custos computacionais envolvidos na adaptação das abordagens para indivíduos específicos. Ademais, conclui-se que os extratores de características FBCSP, CSSP, CSSSP, FBCSSP e FBCSSSP não necessitam da etapa de remoção de artefatos oculares, pois efetuam filtragens por meio de modelos autoregressivos.

A proposal for the evolution of model-driven software

In the Model-Driven Software Engineering (MDSE) context, software production can be performed by defining models. Despite the advantages of this methodology, different domains require specific support tools and modeling languages, which, in turn, must be developed along with the final software. Because of this, developers face problems when applying the method. The objective of this work is twofold: 1) to identify the most critical problems when developing with this method; 2) discuss and provide possible solutions to those problems. The critical problems were identified by performing a systematic mapping, empirical studies, collaborations and interviews with specialists. It has been identified that MDSE, according to basic literature, has an excessively high abstraction level which leads to a lack of adequate processes and developer training, besides the need for modeling tools. A new method is necessary to allow developers to treat models and source-code differently. Therefore, in this thesis, the need for evolving MDSE processes is discussed. In this manner, this work introduces a new development method described as a possible concrete evolution of MDSE that defines a paradigm for software development. This method is defined along with domain specific languages, a tool-chain and sample software systems. After conducting analytic and experimental studies, it has been concluded that these applications also represent a valuable contribution for implementing service-oriented systems which can be employed in real world applications.

Ano

2018

Creators

Thiago Gottardi

Definição de um modelo de referência de dados educacionais para a descoberta de conhecimento

Sistemas educacionais possuem diversas funcionalidades capazes de apoiar a interação entre alunos e professores de maneira dinâmica, síncrona e assíncrona. Uma das formas de monitorar a eficácia do processo educacional e por meio da utilização dos dados armazenados nesses sistemas como fonte de informação. Pesquisas em Learning Analytics, Academic Analytics e Mineração de Dados Educacionais, buscam explorar os dados de sistemas educacionais utilizando processamento analítico e técnicas de mineração de dados. No entanto, há uma serie de fatores que dificultam a gestão eficiente do processo educacional a partir dos dados de sistemas educacionais. A transformação de dados provenientes de diferentes tipos de sistemas educacionais, como Sistemas de Gestão de Aprendizagem e Sistemas Acadêmicos, e uma tarefa complexa devido a natureza heterogênea dos dados. Dados provenientes desses sistemas podem ser analisados considerando diferentes stakeholders, sob varias perspectivas e níveis de granularidade. Neste cenário, um modelo de referência para a descoberta de conhecimento a partir de dados de sistemas educacionais, denominado Modelo de Referência de Dados Educacionais (EDRM), foi desenvolvido neste trabalho. O EDRM e um modelo dimensional no formato star schema, estruturado em um Data Warehouse, projetado para ser uma fonte única de dados integrados e correlacionados voltada a tomada de decisão. Assim, e possível armazenar dados de diversas fontes, combina-los e, por fim, realizar analises que levem as instituições a desenvolver uma melhor compreensão, rastrear tendências e descobrir lacunas e ineficiências acerca do processo educacional. Neste trabalho, o EDRM foi validado por meio de um estudo de caso, utilizando bases de dados reais coletadas de diferentes sistemas educacionais. Os resultados mostram que o EDRM e eficiente em tarefas com diferentes objetivos, utilizando processamento analítico e mineração de dados.

Ano

2017

Creators

Vanessa Araujo Borges

Uma contribuição para o teste de especificações SDL: aspectos teóricos e empíricos

Atividades sistemáticas e rigorosas no processo de desenvolvimento são fundamentais para a obtenção de produtos de software de qualidade, entre elas a utilização de técnicas formais. Apesar do rigor estabelecido pelo uso dessas técnicas nas fases iniciais de desenvolvimento, a qualidade da especificação pode não ser satisfatória. A condução de atividades de W&T Verificação, Validação e Teste, paralelamente às atividades de desenvolvimento, visa a assegurar a qualidade adequada a cada passo do processo. Este trabalho tem como objetivo contribuir para o teste de especificações SDL. SDL é uma técnica formal que surgiu da necessidade de se desenvolver uma linguagem padrão de especificação para a área de telecomunicações. Mais recentemente, SDL tem sido utilizada para a descrição de arquiteturas de software. Diversas técnicas têm sido propostas e utilizadas para garantir a qualidade de especificações SDL, como simulação e model checking; no entanto, não propiciam a análise quantitativa da atividade de validação, como por exemplo, a análise de cobertura, um dos aspectos fundamentais reconhecidos por diversos pesquisadores para avaliar a qualidade das atividades de teste e validação. Neste trabalho foram propostos critérios de teste baseados em fluxo de controle, em fluxo de dados e em mutação, além de estratégias de teste associadas para o teste dos processos de especificações SDL. Também foi definida uma família de critérios de fluxo de controle, FCCSDL, considerando o comportamento de todo o sistema, representado pela Arvore de Alcançabilidade para SDL proposta no escopo deste trabalho. Também foram definidas facilidades para a depuração de especificações SDL, com base nas informações de cobertura de teste. As ferramentas CATSDL e SmartDsDL foram desenvolvidas para apoiar as atividades de teste e depuração de especificações SDL. Com base no estudo de caso conduzido, foram fornecidas evidências da viabilidade da aplicação dos critérios de teste definidos e estabelecida uma estratégia de teste para guiar a atividade de teste de especificações SDL.

Alinhamento lexical de textos paralelos português-inglês

Num cenário mundial de rápida expansão das relações interculturais e da transmissão de conhecimento científico e tecnológico, a língua muitas vezes representa uma barreira para a comunicação. Ferramentas computacionais, como os tradutores automáticos, podem acelerar e facilitar a comunicação escrita e oral entre povos de línguas e culturas diversas. Algoritmos e técnicas de alinhamento de textos paralelos têm recebido muita atenção nesse cenário. Neste projeto foram implementadas algumas técnicas de alinhamento lexical de textos paralelos para um corpus em português do Brasil e inglês, que foram avaliadas segundo as métricas de revocação e precisão, e seus resultados foram analisados.

Ano

2004

Creators

Aline Maria da Paz Silva

Estudo sobre adaptação de critérios de teste de programas concorrentes para o teste de integração de sistemas robóticos móveis

A definição de abordagens de teste de software no contexto de sistemas embarcados críticos é de fundamental importância para a melhoria de qualidade desses sistemas. Este projeto de mestrado concentra-se essencialmente na área de robôs móveis que são sistemas críticos. O mapeamento das técnicas de teste dos programas tradicionais para sistemas robóticos móveis não é trivial, pois é necessário considerar as características inerentes a esses sistemas, as quais incluem comunicação, sincronização, não determinismo e paralelismo. Esses sistemas são formados por diferentes componentes, como sensores, atuadores e softwares de controle, os quais se comunicam, em geral, por meio de troca de mensagens. Nesse sentido, este projeto visa aproveitar a experiência adquirida pelo grupo de pesquisa do ICMC/USP com a proposição de critérios e ferramentas de teste para programas concorrentes, para o contexto de teste de integração de sistemas robóticos móveis. Assim, neste estudo é apresentado um comparativo sobre as similaridades e diferenças presentes em programas concorrentes e sistemas robóticos móveis com objetivo de auxiliar na adaptação dos critérios de teste. Dois estudos de caso foram conduzidos nos quais os critérios propostos para programas concorrentes foram aplicados a sistemas robóticos desenvolvidos em ROS. Como resultados, observou-se os critérios de teste são capazes de testar adequadamente aspectos de comunicação e sincronização de sistemas robóticos, contribuindo com a qualidade desses sistemas.

Ano

2016

Creators

Marcos Pereira dos Santos

Projeto de células de manufatura com o auxílio de coloração em grafos

Nesta dissertação é apresentado um método para o projeto de células de manufatura baseado em coloração em grafos. O método proposto calcula as dissimilaridades entre as peças e organiza o sistema de produção em famílias de peças e grupos de máquinas. Um grafo correspondente ao sistema de produção é gerado e um algoritmo de coloração acionado para obter um número de cores igual ao número desejado de células. O programa correspondente foi escrito em linguagem Delphi e está implementado em microcomputador. Os resultados obtidos sobre vários exemplos da literatura são equivalentes ou melhores do que aqueles propostos até o presente momento, em termos do número de movimentos inter-células e da dimensão das células.

Ano

2002

Creators

Edsandra Mara de Azevedo Biscaro

GQS-AE - uma abordagem evolucionista para garantia de qualidade de software

A exigência por produtos de software com qualidade tem-se mostrado recorrente no mercado dos dias atuais. A fim de que essa qualidade possa se manifestar, vários processos que concorrem para a \"fabricação\" do software necessitam ser muito bem definidos, executados e gerenciados. É, pois, imperativo, que se tenha uma abordagem para Garantia de Qualidade de Software, bem planejada e sistemática, para ser utilizada na avaliação dos produtos e dos processos envolvidos no desenvolvimento de software, e que permita e assegure o uso dos resultados dessa avaliação pelos gerentes e desenvolvedores ao longo de todo o ciclo de desenvolvimento. O que o presente trabalho propõe, então, é a abordagem GQS-AE (uma abordagem evolucionista para garantir a qualidade do software), que descreve a forma como manipular, organizar e gerenciar os recursos - técnicos e humanos - disponíveis em uma empresa de software, sob uma base pré-estabelecida, a fim de que sejam alcançados os objetivos de melhoria da qualidade de tal software. Ressalta-se, porém, que essa abordagem foi concebida de forma simplificada e presa às restrições que normalmente apresenta uma pequena empresa, incapacitada, na grande maioria das vezes, de adaptar modelos já existentes por serem eles mais adequados à realidade de empresas de maior porte.

Ano

2002

Creators

Glaucio Giuliano Brogini

Uma avaliação de meta-heurísticas para o problema de designação quadrática

Este trabalho apresenta uma avaliação de meta-heurísticas para a resolução do Problema de Designação Quadrática (Quadratic Assignment Problem). O Problema de Designação Quadrática consiste em posicionar-se um determinado conjunto de instalações em um determinado conjunto de localidades, dados os fluxos entre as instalações e as distâncias entre as localidades, com o objetivo de minimizar um somatório que vincula os fluxos às distâncias de acordo com o posicionamento. Foram implementadas heurísticas que utilizam Busca Tabu, Algoritmos Genéticos e Algoritmos Meméticos, e uma avaliação com exemplos numéricos encontrados na literatura foi realizada.

Ano

2002

Creators

Thiago D'Martin Maia

Automatic generation of configurable test-suites for software product lines

Software Product Line Engineering (SPLE) is an approach used in the development of similar products, which explores the systematic reuse of software artifacts. The SPLE process has several activities executed to ensure software quality. Quality assurance is of vital importance for achieving and maintaining a high quality of all kinds of artifacts, such as products and processes. Testing activities are widely used in the industry for quality management. However, the effort for applying testing is usually high, and increasing the testing efficiency is a major concern of all systems engineering activities. A common means of increasing efficiency is automation of the test execution and the test design. Automated test design can be performed using approaches such as Model-Based Testing (MBT) in which the real behavior of a software system is compared to an abstract test model. Several techniques, processes, and strategies were developed for SPLE testing, but still many problems are open in this area of research. The challenge in focus is the reduction of the overall test effort required to test SPLE products. Test effort can be reduced by maximizing test reuse using models that take advantage of the similarity between products. The thesis goal is to automate the generation of small test-suites with high fault detection and low test redundancy between products. To achieve the goal, equivalent tests are identified for a set of products using complete and configurable test-suites. Two research directions are explored, one is product-based centered, and the other is product line-centered. For test design, test-suites that have full fault coverage were generated from state machines with and without feature constraints. A prototype implementation tool was developed for test design automation. In addition, the proposed approach was evaluated using examples, experimental studies, and an industrial case study for the automotive domain. The results indicates test effort reduction of 36% in the first research direction for a product line with 24 products, and in the second research direction increasing test effort reduction based on the number of products that require testing. For 6 products 15% reduction (from case study), and for 20 random products 50% reduction (from experimental studies).

Ano

2017

Creators

Vanderson Hafemann Fragal

Conjuntos K de redes neurais e sua aplicação na classificação de imagética motora

Esta dissertação de mestrado tem por objetivo analisar os conjuntos-K, uma hierarquia de redes neurais biologicamente mais plausíveis, e aplicá-los ao problema de classificação de imagética motora através do eletroencefalograma (EEG). A imagética motora consiste no ato de processar um movimento motor da memória humana de longo tempo para a memória de curto prazo. A imagética motora deixa um rastro no sinal do EEG que torna possível a identificação e classificação dos diferentes movimentos motores. A tarefa de classificação de imagética motora através do EEG é reconhecida como complexa devido à não linearidade e quantidade de ruído da série temporal do EEG e da pequena quantidade de dados disponíveis para aprendizagem. Os conjuntos-K são um modelo conexionista que simula o comportamento dinâmico e caótico de populações de neurônios do cérebro e foram modelados com base em observações do sistema olfatório feitas por Walter Freeman. Os conjuntos-K já foram aplicados em diversos domínios de classificação diferentes, incluindo EEG, tendo demonstrado bons resultados. Devido às características da classificação de imagética motora, levantou-se a hipótese de que a aplicação dos conjuntos-K na tarefa pudesse prover bons resultados. Um simulador para os conjuntos-K foi construído para a realização dos experimentos. Não foi possível validar a hipótese levantada no trabalho, dado que os resultados dos experimentos realizados com conjuntos-K e imagética motora não apresentaram melhorias significativas para a tarefa nas comparações realizadas.

Ano

2014

Creators

Denis Renato de Moraes Piazentin