RCAAP Repository
Agrupamento de séries temporais em fluxos contínuos de dados
Recentemente, a área de mineração de fluxos contínuos de dados ganhou importância, a qual visa extrair informação útil a partir de conjuntos massivos e contínuos de dados que evoluem com o tempo. Uma das técnicas que mais se destaca nessa área e a de agrupamento de dados, a qual busca estruturar grandes volumes de dados em hierarquias ou partições, tais que objetos mais similares estejam em um mesmo grupo. Diversos algoritmos foram propostos nesse contexto, porém a maioria concentrou-se no agrupamento de fluxos compostos por pontos em um espaço multidimensional. Poucos trabalhos voltaram-se para o agrupamento de séries temporais, as quais se caracterizam por serem coleções de observações coletadas sequencialmente no tempo. Técnicas atuais para agrupamento de séries temporais em fluxos contínuos apresentam uma limitação na escolha da medida de similaridade, a qual na maioria dos casos e baseada em uma simples correlação, como a de Pearson. Este trabalho mostra que até para modelos clássicos de séries temporais, como os de Box e Jenkins, a correlação de Pearson não é capaz de detectar similaridade, apesar das séries serem provenientes de um mesmo modelo matemático e com mesma parametrização. Essa limitação nas técnicas atuais motivou este trabalho a considerar os modelos geradores de séries temporais, ou seja, as equações que regem sua geração, por meio de diversas medidas descritivas, tais como a Autoinformação Mútua, o Expoente de Hurst e várias outras. A hipótese considerada e que, por meio do uso de medidas descritivas, pode-se obter uma melhor caracterização do modelo gerador de séries temporais e, consequentemente, um agrupamento de maior qualidade. Nesse sentido, foi realizada uma avaliação de diversas medidas descritivas, as quais foram usadas como entrada para um novo algoritmo de agrupamento baseado em árvores, denominado TS-Stream. Experimentos com bases sintéticas compostas por diversos modelos de séries temporais foram realizados, mostrando a superioridade de TS-Stream sobre ODAC, a técnica mais popular para esta tarefa encontrada na literatura. Experimentos com séries reais provenientes de preços de ações da NYSE e NASDAQ mostraram que o uso de TS-Stream na escolha de ações, por meio da criação de uma carteira de investimentos diversificada, pode aumentar os retornos das aplicações em várias ordens de grandeza, se comparado a estratégias baseadas somente no indicador econômico Moving Average Convergence Divergence
2013
Cássio Martini Martins Pereira
Classificação de fluxos de dados com mudança de conceito e latência de verificação
Apesar do grau relativamente alto de maturidade existente na área de pesquisa de aprendizado supervisionado em lote, na qual são utilizados dados originários de problemas estacionários, muitas aplicações reais lidam com fluxos de dados cujas distribuições de probabilidade se alteram com o tempo, ocasionando mudanças de conceito. Diversas pesquisas vêm sendo realizadas nos últimos anos com o objetivo de criar modelos precisos mesmo na presença de mudanças de conceito. A maioria delas, no entanto, assume que tão logo um evento seja classificado pelo algoritmo de aprendizado, seu rótulo verdadeiro se torna conhecido. Este trabalho explora as situações complementares, com revisão dos trabalhos mais importantes publicados e análise do impacto de atraso na disponibilidade dos rótulos verdadeiros ou sua não disponibilização. Ainda, propõe um novo algoritmo que reduz drasticamente a complexidade de aplicação do teste de hipótese não-paramétrico Kolmogorov-Smirnov, tornado eficiente seu uso em algoritmos que analisem fluxos de dados. A exemplo, mostramos sua potencial aplicação em um método de detecção de mudança de conceito não-supervisionado que, em conjunto com técnicas de Aprendizado Ativo e Aprendizado por Transferência, reduz a necessidade de rótulos verdadeiros para manter boa performance de um classificador ao longo do tempo, mesmo com a ocorrência de mudanças de conceito.
2016
Denis Moreira dos Reis
Análise retórica com base em grande quantidade de dados
Com uma quantidade quase incontável de informação textual disponível na web, a automatização de diversas tarefas referentes ao processamento automático de textos é uma necessidade inegável. Em abordagens superficiais do PLN (Processamento da Linguagem Natural), importantes propriedades do texto são perdidas, como posição, ordem, adjacência e contexto dos segmentos textuais. Uma análise textual mais profunda, como a realizada no nível do discurso, ocupa-se da busca e identificação da organização retórica do texto, gerando uma estrutura hierárquica em que as intenções do autor são explicitadas e relacionadas entre si. Para a automatização dessa tarefa, tem-se utilizado técnicas de aprendizado automático, predominantemente do paradigma supervisionado. Nesse paradigma, são necessários dados rotulados manualmente para a geração dos modelos de classificação. Como a anotação para essa tarefa é algo custoso, os resultados obtidos no aprendizado são insatisfatórios, pois estão bem aquém do desempenho humano na mesma tarefa. Nesta tese, o uso massivo de dados não rotulados no aprendizado semissupervisionado sem fim foi empregado na tarefa de identificação das relações retóricas. Foi proposto um framework que utiliza textos obtidos continuamente da web. No framework, realiza-se a monitoração da mudança de conceito, que pode ocorrer durante o aprendizado contínuo, e emprega-se uma variação dos algoritmos tradicionais de semissupervisão. Além disso, foram adaptados para o Português técnicas do estado da arte. Sem a necessidade de anotação humana, a medida-F melhorou, por enquanto, em 0,144 (de 0,543 para 0,621). Esse resultado consiste no estado da arte da análise discursiva automática para o Português.
Sistema de hardware reconfigurável para navegação visual de veículos autônomos
O número de acidentes veiculares têm aumentado mundialmente e a principal causa associada a estes acidentes é a falha humana. O desenvolvimento de veículos autônomos é uma área que ganhou destaque em vários grupos de pesquisa do mundo, e um dos principais objetivos é proporcionar um meio de evitar estes acidentes. Os sistemas de navegação utilizados nestes veículos precisam ser extremamente confiáveis e robustos o que exige o desenvolvimento de soluções específicas para solucionar o problema. Devido ao baixo custo e a riqueza de informações, um dos sensores mais utilizados para executar navegação autônoma (e nos sistemas de auxílio ao motorista) são as câmeras. Informações sobre o ambiente são extraídas por meio do processamento das imagens obtidas pela câmera, e em seguida são utilizadas pelo sistema de navegação. O objetivo principal desta tese consiste do projeto, implementação, teste e otimização de um comitê de Redes Neurais Artificiais utilizadas em Sistemas de Visão Computacional para Veículos Autônomos (considerando em específico o modelo proposto e desenvolvido no Laboratório de Robótica Móvel (LRM)), em hardware, buscando acelerar seu tempo de execução, para utilização como classificadores de imagens nos veículos autônomos desenvolvidos pelo grupo de pesquisa do LRM. Dentre as contribuições deste trabalho, as principais são: um hardware configurado em um FPGA que executa a propagação do sinal em um comitê de redes neurais artificiais de forma rápida com baixo consumo de energia, comparado a um computador de propósito geral; resultados práticos avaliando precisão, consumo de hardware e temporização da estrutura para a classe de aplicações em questão que utiliza a representação de ponto-fixo; um gerador automático de look-up tables utilizadas para substituir o cálculo exato de funções de ativação em redes MLP; um co-projeto de hardware/software que obteve resultados relevantes para implementação do algoritmo de treinamento Backpropagation e, considerando todos os resultados, uma estrutura que permite uma grande diversidade de trabalhos futuros de hardware para robótica por implementar um sistema de processamento de imagens em hardware.
2016
Mauricio Acconcia Dias
Seleção de atributos relevantes para aprendizado de máquina utilizando a abordagem de Rough Sets.
No Aprendizado de Máquina Supervisionado---AM---o algoritmo de indução trabalha com um conjunto de exemplos de treinamento, no qual cada exemplo é constituído de um vetor com os valores dos atributos e as classes, e tem como tarefa induzir um classificador capaz de predizer a qual classe pertence um novo exemplo. Em geral, os algoritmos de indução baseiam-se nos exemplos de treinamento para a construção do classificador, sendo que uma representação inadequada desses exemplos, bem como inconsistências nos mesmos podem tornar a tarefa de aprendizado difícil. Um dos problemas centrais de AM é a Seleção de um Subconjunto de Atributos---SSA---cujo objetivo é diminuir o número de atributos utilizados na representação dos exemplos. São três as principais razões para a realização de SSA. A primeira razão é que a maioria dos algoritmos de AM, computacionalmente viáveis, não trabalham bem na presença de vários atributos. A segunda razão é que, com um número menor de atributos, o conceito induzido através do classificador pode ser melhor compreendido. E, a terceira razão é o alto custo para coletar e processar grande quantidade de informações. Basicamente, são três as abordagens para a SSA: embedded, filtro e wrapper. A Teoria de Rough Sets---RS---é uma abordagem matemática criada no início da década de 80, cuja principal funcionalidade são os redutos, e será tratada neste trabalho. Segundo essa abordagem, os redutos são subconjuntos mínimos de atributos que possuem a propriedade de preservar o poder de descrição do conceito relacionado ao conjunto de todos os atributos. Neste trabalho o enfoque esta na abordagem filtro para a realização da SSA utilizando como filtro os redutos calculados através de RS. São descritos vários experimentos sobre nove conjuntos de dados naturais utilizando redutos, bem como outros filtros para SSA. Feito isso, os atributos selecionados foram submetidos a dois algoritmos simbólicos de AM. Para cada conjunto de dados e indutor, foram realizadas várias medidas, tais como número de atributos selecionados, precisão e números de regras induzidas. Também, é descrito um estudo de caso sobre um conjunto de dados do mundo real proveniente da área médica. O objetivo desse estudo pode ser dividido em dois focos: comparar a precisão dos algoritmos de indução e avaliar o conhecimento extraído com a ajuda do especialista. Embora o conhecimento extraído não apresente surpresa, pôde-se confirmar algumas hipóteses feitas anteriormente pelo especialista utilizando outros métodos. Isso mostra que o Aprendizado de Máquina também pode ser visto como uma contribuição para outros campos científicos.
Otimização de processos acoplados: programação da produção e corte de estoque
Em diversas indústrias de manufatura (por exemplo, papeleira, moveleira, metalúrgica, têxtil) as decisões do dimensionamento de lotes interagem com outras decisões do planejamento e programação da produção, tais como, a distribuição, o processo de corte, entre outros. Porém, usualmente, essas decisões são tratadas de forma isolada, reduzindo o espaço de soluções e a interdependência entre as decisões, elevando assim os custos totais. Nesta tese, estudamos o processo produtivo de indústrias de móveis de pequeno porte, que consiste em cortar placas grandes disponíveis em estoque para obter diversos tipos de peças que são processadas posteriormente em outros estágios e equipamentos com capacidades limitadas para, finalmente, comporem os produtos demandados. Os problemas de dimensionamento de lotes e corte de estoque são acoplados em um modelo de otimização linear inteiro cujo objetivo é minimizar os custos de produção, estoque de produtos, preparação de máquinas e perda de matéria-prima. Esse modelo mostra o compromisso existente entre antecipar ou não a fabricação de certos produtos aumentando os custos de estoque, mas reduzindo a perda de matéria-prima ao obter melhores combinações entre as peças. O impacto da incerteza da demanda (composta pela carteira de pedidos e mais uma quantidade extra estimada) foi amortizado pela estratégia de horizonte de planejamento rolante e por variáveis de decisão que representam uma produção extra para a demanda esperada no melhor momento, visando a minimização dos custos totais. Dois métodos heurísticos são desenvolvidos para resolver uma simplificação do modelo matemático proposto, o qual possui um alto grau de complexidade. Os experimentos computacionais realizados com exemplares gerados a partir de dados reais coletados em uma indústria de móveis de pequeno porte, uma análise dos resultados, as conclusões e perspectivas para este trabalho são apresentados
2009
Carla Taviane Lucke da Silva
Geração automática de dados de teste para programas concorrrentes com meta-heurística
A programação concorrente é cada vez mais utilizada nos sistemas atuais com o objetivo de reduzir custos e obter maior eficiência no processamento. Com a importância da programação concorrente é imprescindível que programas que implementam esse paradigma apresentem boa qualidade e estejam livres de defeitos. Assim,diferentes técnicas e critérios de teste vêm sendo definidos para apoiar a validação de aplicações desenvolvidas nesse paradigma. Nesse contexto, a geração automática de dados de teste é importante, pois permite reduzir o custo na geração e seleção de dados relevantes. O uso de técnicas meta-heurísticas tem sido uma área de grande interesse entre os pesquisadores para geração de dados, pois essas técnicas apresentam abordagens aplicáveis a problemas complexos e de difícil solução. Considerando esse aspecto, este trabalho apresenta uma abordagem de geração automática de dados para o teste estrutural de programas concorrentes em MPI (Message Passing Interface). A meta-heurística usada foi Algoritmo Genético em que a busca é guiada por critérios de teste que consideram características implícitas de programas concorrentes. O desempenho da abordagem foi avaliado por meio da cobertura dos dados detestes, da eficácia em revelar defeitos e do custo de execução. Para comparação, a geração aleatória foi considerada. Os resultados indicaram que é promissor usar geração de dados de teste no contexto de programas concorrentes, com resultados interessantes em relação à eficácia e cobertura dos requisitos de teste.
2014
José Dario Pintor da Silva
Simulação numérica de escoamentos com superfície livre e com influência de temperatura
Este trabalho apresenta uma extensão do ambiente de simulação Freeflow-2D para simulação de escoamentos incompressíveis com superfície livre e influência de temperatura. Dois modelos matemáticos foram analisados e implementados: o modelo de Boussinesq; e uma modificação no modelo proposto por V. Casulli (Casulli, 1980). As equações de conservação (momento, massa e energia) e as condições de fronteiras associadas são discretizadas utilizando diferenças finitas sobre malhas deslocadas. Resultados numéricos obtidos de simulações com os dois modelos são apresentados e discutidos.
2002
Juliana Maria da Silva
Uma extensão do sistema de telemetria e telecomandos do Projeto ARARA para transmissão digital de vídeo e dados
O monitoramento aéreo é uma ferramenta excelente para descobrir problemas que, analisados ao nível do solo, podem consumir muito mais tempo e até mesmo passarem despercebidos. Entre esses problemas estão a detecção de defeitos em linhas de transmissão de energia elétrica e a realização do mapeamento geográfico de uma certa área. Para realizar o monitoramento aéreo utilizam-se aviões dotados de equipamentos de fotografia ou filmagem que possam voar em baixa velocidade. O custo do avião convencional, sua manutenção e operação apresentam valores elevados, restringindo seu uso em diversas aplicações. A utilização de aeronaves não tripuladas (UAVs) de escala reduzida inverte esse quadro, possibilitando que qualquer pessoa possa ser treinada para a realização desse tipo tarefa a baixo custo. O projeto ARARA (Aeronaves de Reconhecimento Assistidas por Rádio e Autónomas), em que este trabalho está incluído, tem por objetivo o desenvolvimento de UAVs de baixo custo para a realização de missões autónomas, pré-estabelecidas pelos usuários. O STT (Sistema de Telemetria e Telecomandos) do projeto ARARA foi desenvolvido para possibilitar o envio de sinais de telemetria e telecomando entre uma aeronave e uma estação no solo. A primeira versão do STT utiliza o canal de áudio de um transmissor de vídeo analógico para enviar esses dados. Neste trabalho, o STT é estendido para possibilitar a utilização de um canal digital de comunicação entre a aeronave e a estação no solo. Esse canal substitui a transmissão analógica da versão anterior, possibilitando novas opções como a transmissão de vídeo digital com parâmetros ajustáveis e a geração dos sinais de radio controle a partir do computador da estação. O protocolo de comunicação da primeira versão foi revisto e ampliado. O software do sistema foi desenvolvido e documentado utilizando-se técnicas de análise estruturada. Os testes realizados em bancada mostraram a perfeita adequação do novo sistema aos objetivos do projeto ARARA e uma considerável evolução em relação à primeira versão desenvolvida para o STT.
2002
Kleber Manrique Trevizani
Especificação de Aplicações Hipermídia Baseada em Statecharts.
Uma classificação de requisitos de aplicações hipermídia é apresentada e alguns dos mais importantes modelos de especificação desse tipo de aplicação são revisados com base nessa classificação. Uma análise do HMBS (\"Hypertext Model Based on Statecharts\") frente à classificação de requisitos apresentada é também realizada. Uma extensão do HMBS para a especificação de aplicações hipermídia, denominada XHMBS (\"Extended Hyperdocument Model Based on Statecharts\"), é proposta e, no final, também comparada com essa mesma classificação de requisitos. Esse modelo tem como base uma extensão de statecharts proposta nesta dissertação, denominada hypercharts, na qual são definidos mecanismos de especificação temporal e de sincronização, como história temporal, transições temporais e transições MN sincronizadas, além de mecanismos de abstração, caracterizados por estados parametrizados e abstração de transições. Os hypercharts constituem a técnica de especificação subjacente ao XHMBS, permitindo que requisitos temporais e de sincronização sejam satisfeitos. Além disso, novos recursos de especificação que fazem do XHM3S um modelo mais completo e, ao mesmo tempo, mais flexível do que o HMBS para especificar requisitos relativos à apresentação da informação, são apresentados. Um exemplo utilizado na literatura como base para comparações é especificado em XHMBS e os resultados comparados com relação à quantidade de símbolos usados na especificação (complexidade) e à capacidade de especificar os requisitos da aplicação.
Desafios e perspectivas da implementação computacional de testes adaptativos multidimensionais para avaliações educacionais
Testes educacionais possibilitam a obtenção de medidas e resultados, a realização de análises e o estabelecimento de objetivos para os processos de ensino e a aprendizagem, além de subsidiarem processos seletivos e políticas públicas. A avaliação de desempenho dos examinados pode considerar uma única ou múltiplas habilidades e/ou competências. Como alternativa para testes via lápis e papel, o Teste Baseado em Computador (CBT) pode compor, aplicar e corrigir testes e produzir estatísticas individuais ou do grupo de examinados automaticamente. Considerando que o examinado possua múltiplas habilidades, o Teste Adaptativo baseado na Teoria de Resposta ao Item Multidimensional (MCAT) mantém a mesma acurácia de um teste tradicional, baseando-se no conhecimento do examinado a partir do histórico de itens anteriormente respondidos. A seleção de itens por Kullback Leibler entre Posteriores Subsequentes (\'K POT. p\') evita selecionar um item difícil para um examinado com baixa habilidade, sugerindo que \'K POT. p\' é um critério aplicável em testes educacionais. A revisão da literatura apontou para: (i) a carência de estudos para o critério \'K POT. P\', (ii) a carência de estudos com MCATs operacionais em contextos educacionais para usuários reais, (iii) a carência de estudos e propostas de critérios iniciais e de parada para MCATs, quando o número de itens administrados pelo teste é variável, e (iv) a ausência de trabalhos brasileiros na área de MCATs. Diante das lacunas apresentadas, esta tese de doutoramento trata da seguinte questão de pesquisa: Qual a abordagem para viabilizar o uso do critério KP em MCATs operacionais para contextos educacionais, que permita que o sistema implementado seja aprovado nos critérios de funcionalidade, confiabilidade, eficiência, manutenibilidade e portabilidade da ISO-9126, que é a base para avaliar testes computadorizados? Os objetivos específicos desta pesquisa foram os seguintes: (i) implementar e validar o critério de seleção \'K POT. P\', comparando-o com o critério bayesiano usual, (ii) propor melhorias e calcular o tempo computacional de processamento da seleção de itens por \'K POT. P\', (iii) propor critérios iniciais consistentes com a realidade e a necessidade das avaliações educacionais, (iv) validar o critério de parada inédito KPIC, quando a intenção é se ter MCATs que administrem um número variável de itens para os examinados, (v) desenvolver uma arquitetura que viabilize a aplicação via Web de MCATs com usuários reais, (vi) discutir aspectos teóricos e metodológicos da nova abordagem CBMAT via prova de conceito, por meio da implementação do sistema MADEPT, que avalia examinados na perspectiva da avaliação diagnóstica, (vii) avaliar o MADEPT de acordo com as normas internacionais de produto de software ISO-9126 e apontar a factibilidade, a viabilidade, as dificuldades, as vantagens e as limitações do desenvolvimento CBMATs para o ambiente Web. A metodologia utilizada para responder a questão de pesquisa foi: (i) organizar e selecionar as teorias, os métodos, os modelos e os resultados inerentes a MCATs, (ii) expandir a equação de \'K POT. P\', (iii) implementar o MCAT contemplando o critério de seleção \'K POT. P\' e a metodologia bayesiana para estimação e seleção de itens, (iv) validar estatisticamente \'K POT. P\' e KPIC, (v) implementar o CBMAT, contemplando o MCAT como um subsistema e (vi) avaliar o CBMAT via ISO-9126. Os resultados deste trabalho são vários: (i) uma ampla revisão da literatura nas teorias/métodos/critérios necessários para a implementação computacional de MCATs, (ii) a reformulação da equação que expressa a seleção por \'K POT. P\' para implementação via linguagem de programação científica, (iii) os estudos de simulações do MCAT quando a seleção de itens é por \'K POT. P\' e o critério de parada por KPIC mostram que \'K POT. P\' é um critério adequado e indicado quando o objetivo é ter um teste com um número baixo e variável de itens administrados, mantendo um vício adequado e com alta acurácia na estimação da habilidade, (iv) o desenvolvimento de algoritmos inéditos para os critérios iniciais, (v) a validação de uma nova arquitetura que viabiliza a aplicação via Web de MCATs com usuários reais e (vi) a implementação e avaliação via ISO-9126 do sistema computacionalWeb MADEPT. Conclui-se que é possível desenvolver uma arquitetura que viabilize a aplicação viaWeb de MCATs com usuários reais, utilizando o critério de seleção \'K POT. P\' e critérios iniciais condizentes com as avaliações educacionais. Quando a intenção é aplicar MCATs em cenários reais, a seleção de itens por \'K POT. P\' combinado com o critério de parada KPIC proporcionam um teste mais curto e com mais acurácia do que aqueles que utilizam a metodologia bayesiana usual, e com um tempo computacional de processamento condizente com as características da abordagem multidimensional
Representação de tomadas como suporte à segmentação em cenas
A área de Personalização de Conteúdo tem sido foco de pesquisas recentes em Ciências da Computação, sendo a segmentação automática de vídeos digitais em cenas uma linha importante no suporte à composição de serviços de personalização, tais como recomendação ou sumarização de conteúdo. Uma das principais abordagens de segmentação em cenas se baseia no agrupamento de tomadas relacionadas. Logo, para que esse processo seja bem sucedido, é necessário que as tomadas estejam bem representadas. Porém, percebe-se que esse tópico tem sido deixado em segundo plano pelas pesquisas relacionadas à segmentação. Assim, este trabalho tem o objetivo de desenvolver um método baseado nas características visuais dos quadros, que possibilite aprimorar a representação de tomadas de vídeos digitais e, consequentemente, contribuir para a melhoria do desempenho de técnicas de segmentação em cenas.
2014
Tamires Tessarolli de Souza Barbieri
Geração Automatizada de Malhas
geração numérica de malhas tomou-se uma importante ferramenta na obtenção de soluções numéricas de equações diferenciais parciais (EDPs), em domínios físicos com geometrias complexas. Esta dissertação apresenta o Sistema Iterativo de Geração de Malha (SIGEM). O SIGEM foi desenvolvido durante este trabalho e utiliza o método diferencial que emprega EDPs elípticas para a geração da malha. O SIGEM permite a geração de malha em domínios simplesmente conexos bidimensionais, com o controle do posicionamento dos pontos pelo usuário. Para mostrar uma aplicação típica do SIGEM, foram geradas malhas em domínios irregulares, onde foram resolvidas a equação de Laplace e a equação do calor.
1998
Alessandra Teodoro Neves
Programas em MATLAB para Implementação de Exemplos em Discretização de Equações Diferenciais Parciais
O presente trabalho tem como finalidade o ensino, e consistiu na implementação de urna classe de métodos de resolução numérica para equações diferenciais parciais que constam em \"Discretização de Equações Diferenciais Parciais: Técnica de Diferenças Finitas\", Cuminato [7]. O software utilizado foi o MATLAB, e com ele foi desenvolvido um conjunto de programas que são acessados mediante uma interface padrão para entrada de dados e visualização de resultados. No que tange a visualização de resultados, o que foi desenvolvido permite ao usuário analisar os resultados, tanto através das aproximações obtidas como através dos gráficos das mesmas. Esses programas irão acompanhar o texto final de [7] para formar uma biblioteca que o acompanhará, para servir de apoio ao professor que vier a utilizá-lo.
1998
Alessandro Alves Santana
Uma Proposta de Reengenharia para o Ambiente de Simulação Automático (ASiA)
Esta dissertação descreve o processo de engenharia reversa do ASiA (Ambiente de Simulação Automático), desenvolvida usando a Fusion-RE, que é uma abordagem para a engenharia reversa de sistemas implementados sem orientação a objetos, produzindo modelos de análise orientados a objetos. A dissertação também apresenta uma revisão bibliográfica cobrindo: modelagem e simulação de sistemas, o ASiA (que é o ambiente simulação enfocado no trabalho) e manutenção de software (para justificar a escolha da engenharia reversa). A documentação produzida para a versão atual do ambiente e os modelos gerados para o futuro processo de reengenharia são incluídos. O processo utilizado para a aplicação da Fusion- RE ao ASiA, a proposta para sua reengenharia e sugestões de melhorias a serem implementadas também são discutidos.
1998
Ana Elisa Tozetto Piekarski
Desenvolvimento de um Sistema Servidor de Vídeo para Aplicações Multimídia
A criação de um ambiente para provimento de dados multimídia sobre uma rede de computadores, apresenta vários limitantes, sendo um deles a arquitetura do servidor responsável pela entrega de vídeo. Esse trabalho investiga, define e implementa os componentes que compõem um servidor de vídeo. Para contornar os problemas oriundos da precariedade dos protocolos TCP/IP e ethemet para a transmissão de mídia contínua, nota-se o aparecimento de várias tecnologias que possibilitam o uso de um sistema de armazenamento remoto de vídeo e sua apresentação local com razoáve| qualidade sem a utilização de sincronismo durante todo o processo (p. ex. Vxtreme, Realvideo, CU-Seeme e o padrão JMF). Desta forma, a questão principal toma-se o provimento de largura de banda necessária para a aplicação. A maioria dos problemas inseridos pela rede e pelos sistemas operacionais são resolvidos através de esquemas avançados de bufferização. Como resultado desse trabalho, foi definido um sistema bem ajustado para o provimento de dados multimídia sobre uma rede de computadores, um sistema básico para o gerenciamento dos dados multimídia através do ambiente www, a avaliação de desempenho do sistema e detecção de possíveis gargalos do sistema. O trabalho mostra também algumas configurações possíveis de serem utilizadas para o serviço de armazenamento e distribuição de vídeo. os testes realizados mostram que é perfeitamente possível a implementação de sistemas de distribuição de vídeo via tecnologias de rede Intemet.
1998
Antonio Marcos Massao Hachisuca
Stochastic Feature Charts - Uma Extensão Estocástica para os Statecharts
Esta dissertação apresenta uma discussão geral sobre técnicas de avaliação de desempenho de sistemas computacionais, levando em consideração duas áreas principais: as técnicas que envolvem experimentação com os sistemas (técnicas de aferição) e a criação de abstrações para representar os sistemas (técnicas de modelagem). O trabalho enfoca as técnicas de modelagem, especialmente as redes de fila, as redes de Petri e os statecharts. Algumas das abordagens preferidas para essas técnicas são discutidas na revisão bibliográfica mas, como essas técnicas são de propósito geral, elas podem ser aplicadas a qualquer sistema computacional. O objetivo principal é mostrar as vantagens e desvantagens na adoção de uma ou outra técnica, considerando as mesmas situações com diferentes modelos de sistemas. Uma extensão estocástica original para statecharts é proposta (Stochastic Feature Charts - SFC), cujo objetivo é prover uma avaliação probabilistica, através da incorporação de cadeia de Markov nos statecharts. Assim, um sistema pode ser visualizado através de seus estados e transições entre esses estados. O objetivo principal é estender os statecharts e criar uma ferramenta com características similares àquelas encontradas em redes de fila e redes de Petri. A extensão proposta, SFC, é usada para avaliar o desempenho de um servidor de arquivos usado em rede local, considerando três modelos diferentes, com complexidade diferente. O comportamento das probabilidades é observado e os resultados obtidos são discutidos visando a validação da extensão dos statecharts proposta.
1998
Carlos Renato Lisboa Francês
Teste de programas orientados a aspectos: uma abordagem estrutural para AspectJ
Em meados dos anos 90, alguns pesquisadores constataram a existência de certos interesses que, independente da técnica de programação utilizada ou da maneira como o sistema venha a ser decomposto, não se encaixam em módulos individuais, mas ficam espalhados por várias unidades do software (também chamados de interesses transversais). A programação orientada a aspectos (POA) foi concebida como uma proposta de resolução desse problema, a partir do uso de mecanismos que permitem o isolamento dos interesses transversais. Entretanto, por ser uma técnica nova, nesses primeiros anos os pesquisadores preocuparam-se em estabelecer os conceitos e técnicas básicos das linguagens orientadas a aspectos, deixando para uma segunda fase a investigação de outras características do desenvolvimento de programas orientados a aspectos, como métodos de projeto e abordagens de teste. Nesta dissertação é apresentada uma abordagem de teste estrutural para programas orientados a aspectos baseados na linguagem AspectJ, que pode contribuir para o aumento da confiança no software desenvolvido utilizando essa técnica e auxiliar o entendimento das novas construções e comportamentos envolvidos nesses programas. Modelos de fluxo de controle e de dados baseados no código-objeto resultante da compilação/ combinação de programas escritos na linguagem AspectJ são propostos, bem como nove critérios de teste baseados nesses modelos. Uma ferramenta desenvolvida para apoiar o teste estrutural de unidade de programas Java foi estendida para dar apoio aos modelos e critérios propostos nesta dissertação. Além disso, algumas propriedades do teste de integração de programas orientados a aspectos são discutidas teoricamente.
2005
Otávio Augusto Lazzarini Lemos
Aplicação da análise de mutantes no contexto do teste e validação de redes de Petri coloridas"
O uso de técnicas e métodos formais contribui para o desenvolvimento de sistemas confiáveis. No entanto, apesar do rigor obtido, em geral, é necessário que essas técnicas sejam complementadas com atividades de teste e validação. Deve-se ressaltar que o custo para eliminar erros encontrados nas etapas iniciais de desenvolvimento é menor do que quando esses erros são encontrados nas fases posteriores. Dessa forma, é essencial a condução de atividades de VV&T - Verificação, Validação e Teste - desde as primeiras fases de desenvolvimento. Critérios de teste, como uma forma sistemática de avaliar e/ou gerar casos de teste de qualidade e, dessa forma, contribuir para aumentar a qualidade da atividade de teste, têm sido investigados para o teste de especificação de Sistemas Reativos. A técnica Redes de Petri Coloridas tem sido constantemente utilizada para a especificação do aspecto comportamental de Sistemas Reativos. Apesar de existirem diversas técnicas de análise, um aspecto não considerado é a cobertura alcançada, visto que, em geral, a aplicação exaustiva não é viável devido ao alto custo. Considerando a relevância do estabelecimento de métodos sistemáticos para o teste e validação dessas especificações, este trabalho propõe a aplicação do critério de teste Análise de Mutantes para o teste de Redes de Petri Coloridas. Neste trabalho foram almejados três objetivos principais, os quais podem ser divididos em estudos teóricos, estudos empíricos e automatização. No contexto de estudos teóricos, foi realizada a definição e embasamento teórico para possibilitar a aplicação da Análise de Mutantes no contexto de Redes de Petri Coloridas. Além disso, investigaram-se mecanismos genéricos para a descrição e geração de mutantes. Definiu-se um algoritmo para a geração de casos de teste baseado na Análise de Mutantes. No contexto de estudos empíricos, foram conduzidos estudos de caso para avaliar a aplicabilidade e eficácia dos resultados teóricos obtidos. Finalmente, no contexto de automatização, foram desenvolvidas ferramentas de apoio à aplicação da Análise de Mutantes.
2004
Adenilso da Silva Simão
Critérios de teste baseados em grafo de cena para aplicações de realidade virtual
A atividade de teste de software tem recebido considerável atenção de pesquisadores e engenheiros de software que reconhecem a sua utilidade na criação de produtos de qualidade. No entanto, os testes são caros e propensos a erros, o que impõe a necessidade de sistematizar e, portanto, a definição de técnicas para aumentar a qualidade e produtividade na sua condução. Várias técnicas de teste têm sido desenvolvidas e têm sido utilizadas, cada um com características próprias em termos de eficácia, custo, fases de aplicação, etc. Sistemas de realidade virtual frequentemente utilizam uma estrutura hierárquica denominada grafo de cena para representar as características dos objetos em um ambiente virtual tridimensional. Os grafos de cena também armazenam informações sobre o relacionamento entre os objetos, permitindo respostas adequadas ao usuário quando ocorrem interações. Neste trabalho, critérios de teste baseados em grafo de cena são estudados e definidos afim de aumentar a qualidade de aplicações de realidade virtual. Além disso, estudos de caso são apresentados, utilizando os critérios definidos aplicados a um framework de realidade virtual construído para gerar aplicações na área médica, além de utilizar uma aplicação de demonstração. Como forma de apoio aos critérios definidos foi desenvolvida uma ferramenta de teste capaz de verificar se os nós, que representam os objetos virtuais na cena, satisfazem seus requisitos conforme foram especificados