Repositório RCAAP
Uma abordagem bayesiana para modelos não lineares na presença de assimetria e heteroscedasticidade
Esta dissertação flexibiliza a suposição de normalidade, dispondo de distribuições assimétricas em modelos de crescimento. Propõe uma abordagem bayesiana para ajuste de modelos não lineares quando a suposição de normalidade para os erros não é razoável e/ou apresentam heteroscedasticidade. Assim, adota-se as distribuições skew-normal e skew-t para as situações em que é necessário modelar dados com caudas mais pesadas ou mais leves que a normal e assimétricos; sendo que é considerado também a presença de heteroscedasticidade. Diferentes funções são utilizadas na estrutura multiplicativa para modelar a variância. Com esse objetivo, métodos de inferência na abordagem bayesiana são desenvolvidos para estimar os parâmetros dos modelos de regressão não linear com os erros seguindo as distribuições citadas anteriormente. A metodologia visa aplicação à curvas de crescimento para dados de árvores
2022-12-06T14:47:11Z
Aline Minniti de Campos
Improving time series modeling by decomposing and analysing stochastic and deterministic influences
This thesis presents a study on time series analysis, which was conducted based on the following hypothesis: time series influenced by additive noise can be decomposed into stochastic and deterministic components in which individual models permit obtaining a hybrid one that improves accuracy. This hypothesis was confirmed in two steps. In the first one, we developed a formal analysis using the Nyquist-Shannon sampling theorem, proving Intrinsic Mode Functions (IMFs) extracted from the Empirical Mode Decomposition (EMD) method can be combined, according to their frequency intensities, to form stochastic and deterministic components. Considering this proof, we designed two approaches to decompose time series, which were evaluated in synthetic and real-world scenarios. Experimental results confirmed the importance of decomposing time series and individually modeling the deterministic and stochastic components, proving the second part of our hypothesis. Furthermore, we noticed the individual analysis of both components plays an important role in detecting patterns and extracting implicit information from time series. In addition to these approaches, this thesis also presents two new measurements. The first one is used to evaluate the accuracy of time series modeling in forecasting observations. This measurement was motivated by the fact that existing measurements only consider the perfect match between expected and predicted values. This new measurement overcomes this issue by also analyzing the global time series behavior. The second measurement presented important results to assess the influence of the deterministic and stochastic components on time series observations, supporting the decomposition process. Finally, this thesis also presents a Systematic Literature Review, which collected important information on related work, and two new methods to produce surrogate data, which permit investigating the presence of linear and nonlinear Gaussian processes in time series, irrespective of the influence of nonstationary behavior
2022-12-06T14:47:11Z
Ricardo Araújo Rios
Seleção de características em SVMs aplicadas a dados de expressão gênica
Recentemente, diversas tecnologias de análise de expressão gênica têm sido introduzidas. Os miroarrays estão entre as mais utilizadas. Dentre suas aplicações mais comuns, pode-se destacar a classificação de amostras de tecido, essencial para a identificação correta do tipo de câncer. Esta classificação é realizada com a ajuda de algoritmos de AMáquina (AM), como as Máquinas de Vetores de Suporte, ou simplesmente SVMs. Uma particularidade dos dados de expressão gênica é que a quantidade de amostras utilizadas pelo algoritmo de aprendizado é, normalmente, muitas vezes inferior à quantidade de características consideradas, o que pode deteriorar o desempenho dos algoritmos de AM e dificultar a compreensão dos dados. Neste contexto, o presente trabalho visa à comparação de diversas técnicas de seleção de características (SC) em SVMs aplicadas a dados microarrays. Além disso, durante a pesquisa, foram desenvolvidas 2 novas técnicas de SC baseadas em algoritmos genéticos. Os experimentos demonstram que a maioria das técnicas testadas é capaz de reduzir sobremaneira a dimensionalidade dos dados de expressão gênica sem prejudicar o desempenho das SVMs.
2022-12-06T14:47:11Z
Bruno Feres de Souza
Simulação numérica de escoamentos de fluidos utilizando diferenças finitas generalizadas
Este trabalho apresenta parte de um sistema de simulação integrado para escoamento de fluido incompressível bidimensional em malhas não estruturadas denominado UmFlow-2D. O sistema consiste de três módulos: um módulo modelador, um módulo simulador e um módulo visualizador. A parte do sistema apresentado neste trabalho é o módulo simulador. Este módulo, implementa as equações de Navier-Stokes. As equações governantes são discretizadas pelo método de diferenças finitas generalizadas e os termos convectivos pelo método semi-lagrangeano. Um método de projeção é empregado para desacoplar as componentes da velocidade e pressão. O gerenciamento da malha, não estruturada é feito pela estrutura de dados SHE. Os resultados numéricos obtidos pelo UmFlow-2D são comparados com soluções analíticas e soluções numéricas de outros trabalhos.
2022-12-06T14:47:11Z
Fernanda Olegario dos Santos
P2l - Uma ferramenta de profiling a nível de instrução para o processador softcore LEON3
A maioria dos sistemas embarcados hoje desenvolvidos utilizam complexos sistemas eletrônicos integrados em um único chip, os Systems-on-a-Chip (SoC). A análise do comportamento de uma aplicação em execução, ou seja, o profiling nesses sistemas não é uma tarefa trivial em virtude da complexidade dos SoCs e pela restrição de ferramentas de profiling adequadas. Neste contexto, este trabalho apresenta o P2L, uma ferramenta de profiling que se baseia em métricas de nível de instrução e função para o processador LEON3. O P2L fornece estatísticas detalhadas de uso do processador, memórias e barramento de programas em execução sem uso de instrumentação. A ferramenta é composta por um componente em hardware e drivers e aplicativos em software. Os resultados mostram que o P2L fornece medidas com erro inferior a 1% e overhead desprezível quando comparado ao tempo de execução nativa do programa e ao do profiler GNU gprof.
2022-12-06T14:47:11Z
Carlos Roberto Pereira Almeida Júnior
Classificação semissupervisionada de séries temporais extraídas de imagens de satélite
Nas últimas décadas, com o crescimento acelerado na geração e armazenamento de dados, houve um aumento na necessidade de criação e gerenciamento de grandes bases de dados. Logo, a utilização de técnicas de mineração de dados adequadas para descoberta de padrões e informações úteis em bases de dados é uma tarefa de interesse. Em especial, bases de séries temporais têm sido alvo de pesquisas em áreas como medicina, economia e agrometeorologia. Em mineração de dados, uma das tarefas mais exploradas é a classificação. Entretanto, é comum em bases de séries temporais, a quantidade e complexidade de dados extrapolarem a capacidade humana de análise manual dos dados, o que torna o processo de supervisão dos dados custoso. Como consequência disso, são produzidos poucos dados rotulados, em comparação a um grande volume de dados não rotulados disponíveis. Nesse cenário, uma abordagem adequada para análise desses dados é a classificação semissupervisionada, que considera dados rotulados e não rotulados para o treinamento do classificador. Nesse contexto, este trabalho de mestrado propõe 1) uma metodologia de análise de dados obtidos a partir de séries temporais de imagens de satélite (SITS) usando tarefas de mineração de dados e 2) uma técnica baseada em grafos para classificação semissupervisionada de séries temporais extraídas de imagens de satélite. A metodologia e a técnica de classificação desenvolvidas são aplicadas na análise de séries temporais de índices de vegetação obtidas a partir de SITS, visando a identificação de áreas de plantio de cana-de-açúcar. Os resultados obtidos em análise experimental, realizada com apoio de especialistas no domínio de aplicação, indicam que a metodologia proposta é adequada para auxiliar pesquisas em agricultura. Além disso, os resultados do estudo comparativo mostram que a técnica de classificação semissupervisionada desenvolvida supera métodos de classificação supervisionada consolidados na literatura e métodos correlatos de classificação semissupervisionada.
2022-12-06T14:47:11Z
Bruno Ferraz do Amaral
FlexPersuade - Explorando uma abordagem flexível em softwares de persuasão: um estudo de caso com players de música
Estudos atuais na área de Interação Humano-Computador evidenciam a importância de se considerar aspectos emocionais na interação com sistemas computacionais. Acredita-se que ao permitir agentes artificiais identificar emoções de usuários, em uma interação humano-computador, torna-se possível induzir e despertar emoções a fim de estimulá-los em suas atividades. Um dos grandes desafios dos pesquisadores em Interação humano-computador é prover sistemas capazes de reconhecer, interpretar e reagir de modo inteligente e sensível às emoções do usuário, para atender aos requisitos do maior número possível de indivíduos; um dos caminhos que se apresenta é o desenvolvimento de sistemas flexíveis. O principal objetivo de se promover essa interação emotiva é contribuir para o aumento da coerência, consistência e credibilidade das reações e respostas computacionais providas durante a interação humana via interface humano-computador. Nesse contexto, surge a oportunidade de explorar sistemas computacionais capazes de identificar e inferir o estado emocional do usuário em tempo de execução. Este projeto tem como objetivo desenvolver e avaliar um modelo que possa: i.) identificar o estado emocional do usuário; ii.) prover um mecanismo de persuasão com vistas a mudar o estado emocional do usuário (com um estudo de caso em player de música) e; iii.) explorar a abordagem flexível na persuasão (de acordo com o estado emocional particular de cada usuário) através de mecanismos persuasivos que poderão variar entre um player de música, jogos e/ou vídeos. Assim, ao longo do estudo, o modelo baseado em Comitê de Classificação se mostrou eficiente na identificação das emoções básicas (alegria, aversão, medo, neutro, raiva, surpresa e tristeza) com média de acurácia superior a 80% e, ainda, observou-se a satisfação dos usuários mediante a aplicação do modelo com o player de música.
2022-12-06T14:47:11Z
Leandro Yukio Mano Alves
Coarse-refinement dilemma: on generalization bounds for data clustering
Machine Learning (ML) is typically organized into two main paradigms: (i) the Supervised Machine Learning (SML) to identify patterns from pre-labeled data, in which a loss function is used to adapt the corresponding model; and, (ii) the Unsupervised Machine Learning (UML) to organize data points in the absence of labels, taking similarity relations among elements into account. SML relies on well-consolidated theoretical frameworks, such as the Statistical Learning Theory (SLT) and the Algorithmic Stability (AS) to define assumptions, properties and convergence guarantees, allowing the comparison of different methods and, consequently, their improvements. Complementary, UML has been supported by investigations on Data Clustering (DC) and Hierarchical Clustering (HC) in order to define properties and improve their characterizations. Specifically, Kleinberg stated richness, scale-invariance and partition consistency as the necessary properties to define the DC problem, proving they do not hold simultaneously, while Ackerman, Ben-David and Loker explored other properties such as locality, and Carlsson and Mémoli developed stability and consistency frameworks for HC from metric spaces. To bring an additional contribution to UML, we considered topological spaces to design more general theoretical results given: (i) the invariance on topological spaces, more precisely isomorphism of homology groups, guarantees the properties of scale-invariance, partition consistency and locality; and (ii) this same invariance is inherited along less general spaces, such as the metric, thus allowing a more abstract clustering representation. Taking such invariance into account, we demonstrated that over-refined topologies endowed by DC and HC models lead to non-consistency in terms of their associated homology groups and, on the other hand, over-coarsed topologies devise consistent but unrepresentative homology groups, a phenomenon that we referred to as the Coarse-Refinement Dilemma (CRD). We then formulated DC and HC problems by employing Carlsson and Zomorodians bidimensional persistent homology, with the first dimension corresponding to the HC levels and the second to the inclusion of new data, thus allowing a probabilistic study based on martingales process and subsequent formalization of generalization bounds. From such results, we contributed with the related work by: (i) defining lower and upper bounds for Carlsson and Mémolis metric consistency; (ii) showing that Kleinbergs richness axiom must be relaxed otherwise over-refined or over-coarsed clusterings could be obtained; and, finally, (iii) defining unexpected changes in consistent topologies using what we named as Topological Concept Drift (TCD). An extensive set of experiments was performed to analyze the CRD and the TCD, including a brief study of a real-world scenario involving text documents. Results corroborated the usefulness in representing DC and HC problems using topological spaces, in detecting topology changes and the existence of CRD.
2022-12-06T14:47:11Z
Yule Vaz
Um estudo dos zeros de polinômios ortogonais na reta real e no círculo unitário e outros polinômios relacionados
O principal objetivo deste trabalho 6 estudar o comportamento dos zeros de polinômios ortogonais e similares. Inicialmente, consideramos uma relação entre duas sequências ele polinômios ortogonais, onde as medidas associadas estão relacionadas entre si. Usamos esta relação para estudar as propriedades de monotonicidade dos zeros dos polinômios ortogonais relacionados a uma medida obtida através da generalização da medida associada a uma outra sequência de polinômios ortogonais. Apresentamos, como exemplos, os polinômios ortogonais obtidos a partir da generalização das medidas associadas aos polinômios de Jacobi, Laguerre e Charlier. Em urna segunda etapa, consideramos polinômios gerados por uma certa relação de recorrência de três termos com o objetivo de encontrar limitantes, em termos dos coeficientes da relação de recorrência, para as regiões onde os zeros estão localizados. Os zeros são estudados através do problema de autovalor associado a uma matriz de Hessenberg. Aplicações aos polinômios de Szegó, polinômios para-ortogonais e polinômios com coeficientes complexos não-nulos são consideradas.
2022-12-06T14:47:11Z
Andrea Piranhe da Silva
Desenvolvimento de um método numérico para simular escoamentos viscoelásticos axissimétricos com superfícies livres
Neste trabalho são apresentadas as equações governantes para um fluido Oldroyd-B juntamente com as condições de contorno para escoamentos viscoelásticos axissimétricos com superfícies livres. Um método numérico para simular escoamentos com superfícies livres é apresentado e as equações resultantes são resolvidas utilizando o método de diferenças finitas numa malha deslocada. São desenvolvidas formulações para o cálculo do tensor extra-tensão em contornos rígidos e no eixo de simetria. As condições de contorno na superfície livre são discutidas em detalhes. Os termos convectivos são aproximados pelo método \'upwind\' de alta ordem CUBISTA (\'A convergent and universally bounded interpolation scheme for the treatment of advection\'). O fluido é modelado utilizando a técnica \'Marker-and-Cell\' o que permite visualizar e localizar a superfície livre do fluido. Para evitar ondulações, a superfície livre é suavizada pela técnica TSUR (\'Trapezoidal Surface Removal\'). O método numérico descrito neste trabalho foi implementado no sistema de simulação Freeflow-AXI e validado comparando os resultados numéricos do escoamento em um tubo com a respectiva solução analítica. Resultados numéricos incluem: simulação do inchamento do extrudado, gota incidindo contra uma superfície rígida e a simulação do \'splashing drop\' para vários números de Reynolds e de Weissenberg.
2022-12-06T14:47:11Z
Marcela Alexandra da Silva
Simulação de escoamentos multifásicos em malhas não estruturadas
Esta monografia apresenta o desenvolvimento e os resultados obtidos da implementação de um método numérico para simular escoamentos multifásicos em malhas dinâmicas não estruturadas. As equações de Navier-Stokes são desenvolvidas em uma formulação Lagrangeana-Euleriana arbitrária e são aproximadas utilizando-se o método de elementos finitos. Um método de projeção baseado em decomposição LU é utilizado para desacoplar aceleração e pressão. A interface que define a fronteira livre entre os fluidos imiscíveis é representada explicitamente por vértices e arestas da triangulação, e a tensão interfacial é calculada através de uma distribuição baseada na discretização do gradiente de uma função Heaviside. 0 movimento da malha é computado através da composição entre a velocidade do escoamento e uma velocidade elástica, calculada utilizando-se um filtro Laplaciano a partir da posição dos vértices. O controle da malha dinâmica é feito através de inserção e remoção de pontos baseando-se em triangulações localmente Delaunay, para se manter a qualidade dos elementos. Adicionalmente, é proposto um esquema de distribuição de pontos através da estimativa do erro baseado na Hessiana das velocidades. São apresentadas validações para escoamentos monofásicos e multifásicos, com comparações teóricas e corroboração por outros métodos, ilustrando o bom desempenho do método proposto. Adicionalmente, é mostrada uma aplicação a problemas de escoamentos de bolhas, comparando-se os resultados obtidos com resultados de outras técnicas numéricas.
2022-12-06T14:47:11Z
Fabrício Simeoni de Sousa
Uma arquitetura sistólica para solução de sistemas lineares implementada com circuitos FPGAs.
Neste trabalho de mestrado foi desenvolvido o projeto de uma máquina paralela dedicada para solução de sistemas de equações lineares. Este é um problema presente em uma grande variedade de aplicações científicas e de engenharia e cuja solução torna-se uma tarefa computacionalmente intensiva , a medida em que o número de incógnitas aumenta. Implementou-se uma Arquitetura Sistólica unidimensional, conectada numa topologia em anel, que mapeia métodos de solução iterativos. Essa classe de arquiteturas paralelas apresenta características de simplicidade, regularidade e modularidade que facilitam implementações em hardware, sendo muito utilizadas em sistemas de computação dedicados à solução de problemas específicos, que possuem como características básicas a grande demanda computacional e a necessidade de respostas em tempo real. Foram adotadas metodologias e ferramentas avançadas para projeto de hardware que aceleram o ciclo de desenvolvimento e para a implementação foram utilizados circuitos reconfiguráveis FPGAs (Field Programmable Gate Arrays). Os resultados de desempenho são apresentados e avaliados apontado a melhor configuração da arquitetura para atingir um speedup em relação a implementações em máquinas seqüenciais. Também são discutidas as vantagens e desvantagens deste tipo de abordagem e metodologia na solução de problemas que possuem requisitos de tempo.
2022-12-06T14:47:11Z
Antônio Carlos de Oliveira Souza Aragão
"Aplicação de técnicas de data mining em logs de servidores web"
Com o advento da Internet, as empresas puderam mostrar-se para o mundo. A possibilidade de colocar um negócio na World Wide Web (WWW) criou um novo tipo de dado que as empresas podem utilizar para melhorar ainda mais seu conhecimento sobre o mercado: a sequência de cliques que um usuário efetua em um site. Esse dado pode ser armazenado em uma espécie de Data Warehouse para ser analisado com técnicas de descoberta de conhecimento em bases de dados. Assim, há a necessidade de se realizar pesquisas para mostrar como retirar conhecimento a partir dessas sequências de cliques. Neste trabalho são discutidas e analisadas algumas das técnicas utilizadas para atingir esse objetivo. é proposta uma ferramenta onde os dados dessas sequências de cliques são mapeadas para o formato atributo-valor utilizado pelo Sistema Discover, um sistema sendo desenvolvindo em nosso Laboratório para o planejamento e execução de experimentos relacionados aos algoritmos de aprendizado utilizados durante a fase de Mineração de Dados do processo de descoberta de conhecimento em bases de dados. Ainda, é proposta a utilização do sistema de Programação Lógica Indutiva chamado Progol para extrair conhecimento relacional das sessões de sequências de cliques que caracterizam a interação de usuários com as páginas visitadas no site. Experimentos iniciais com a utilização de uma sequência de cliques real foram realizados usando Progol e algumas das facilidades já implementadas pelo Sistema Discover.
2022-12-06T14:47:11Z
Ramon Chiara
Perseus:uma nova técnica para tratar árvores de sufixo persistentes
O avanço tecnológico dos laboratórios de biologia molecular tem proporcionado um grande aumento no volume de seqüências de nucleotídeos armazenadas em bancos de dados biológicos, introduzindo o desafio de pesquisar eficientemente estes dados. Neste contexto, a árvore de sufixo é um método de acesso utilizado por muitas aplicações que envolvem pesquisa em dados biológicos. Entretanto, o custo de construção das árvores de sufixo é alto devido ao tamanho da estrutura de indexação gerado e à necessidade da árvore de sufixo caber em memória principal para ser construída com complexidade linear em relação ao tempo. Esta dissertação propõe o Perseus, uma nova técnica para tratar árvores de sufixo persistentes. A técnica Perseus apresenta os seguintes diferenciais. Ela introduz uma abordagem que realiza a construção de árvores de sufixo persistentes cujos tamanhos podem exceder a capacidade da memória principal. Além disso, ela provê um algoritmo que constrói árvores de sufixo por meio do particionamento destas árvores somente quando necessário. Esta construção também permite que o usuário escolha quais subseqüências de uma seqüência devem ser indexadas, de acordo com os requisitos particulares de suas aplicações. Por fim, a técnica proposta também introduz um algoritmo de casamento exato que permite a busca por uma seqüência de consulta em árvores de sufixo que podem estar particionadas. A validação do Perseus foi realizada por meio de testes de desempenho considerando genomas de vários organismos, os quais possuem diferentes ordens de magnitude de tamanho. Os resultados obtidos foram comparados com a técnica Trellis+, a qual representa o estado da arte nesta linha de pesquisa. Os testes indicaram que o Perseus construiu árvores de sufixo mais rapidamente do que o Trellis+, reduzindo o tempo total gasto na construção em até 24%. Perseus também criou árvores de sufixo mais compactas, atingindo uma redução média de 27% no espaço de memória secundária utilizado. Já com relação ao tempo total gasto no processamento de consultas, Perseus sempre produziu os melhores resultados, respondendo consultas em média 49% mais rápido do que o seu principal concorrente. Com relação à indexação de subseqüências escolhidas pelo usuário, comparando os resultados obtidos com o Trellis+, os testes mostraram que Perseus proveu uma redução no tempo de construção de árvores de sufixo de 97% na média e uma redução no tempo gasto no processamento de consultas de genes de 93% na média
2022-12-06T14:47:11Z
Caio Cesar Mori Carelo
O efeito do uso de diferentes formas de extração de termos na compreensibilidade e representatividade dos termos em coleções textuais na língua portuguesa
A extração de termos em coleções textuais, que é uma atividade da etapa de Pré-Processamento da Mineração de Textos, pode ser empregada para diversos fins nos processos de extração de conhecimento. Esses termos devem ser cuidadosamente extraídos, uma vez que os resultados de todo o processo dependerão, em grande parte, da \"qualidade\" dos termos obtidos. A \"qualidade\" dos termos, neste trabalho, abrange tanto a representatividade dos termos no domínio em questão como sua compreensibilidade. Tendo em vista sua importância, neste trabalho, avaliou-se o efeito do uso de diferentes técnicas de simplificação de termos na compreensibilidade e representatividade dos termos em coleções textuais na Língua Portuguesa. Os termos foram extraídos seguindo os passos da metodologia apresentada neste trabalho e as técnicas utilizadas durante essa atividade de extração foram a radicalização, lematização e substantivação. Para apoiar tal metodologia, foi desenvolvida uma ferramenta, a ExtraT (Ferramenta para Extração de Termos). Visando garantir a \"qualidade\" dos termos extraídos, os mesmos são avaliados objetiva e subjetivamente. As avaliações subjetivas, ou seja, com o auxílio de especialistas do domínio em questão, abrangem a representatividade dos termos em seus respectivos documentos, a compreensibilidade dos termos obtidos ao utilizar cada técnica e a preferência geral subjetiva dos especialistas em cada técnica. As avaliações objetivas, que são auxiliadas por uma ferramenta desenvolvida (a TaxEM - Taxonomia em XML da Embrapa), levam em consideração a quantidade de termos extraídos por cada técnica, além de abranger tambéem a representatividade dos termos extraídos a partir de cada técnica em relação aos seus respectivos documentos. Essa avaliação objetiva da representatividade dos termos utiliza como suporte a medida CTW (Context Term Weight). Oito coleções de textos reais do domínio de agronegócio foram utilizadas na avaliaçao experimental. Como resultado foram indicadas algumas das características positivas e negativas da utilização das técnicas de simplificação de termos, mostrando que a escolha pelo uso de alguma dessas técnicas para o domínio em questão depende do objetivo principal pré-estabelecido, que pode ser desde a necessidade de se ter termos compreensíveis para o usuário até a necessidade de se trabalhar com uma menor quantidade de termos
2022-12-06T14:47:11Z
Merley da Silva Conrado
Reduzindo a dispersão dos atrasos em sistemas de tempo real soft com restrições de média de tempo de resposta
A Qualidade de Serviço oferece aos Sistemas de Tempo Real garantias das restrições temporais de aplicações tais como comércio eletrônico, vídeo conferência, telemedicina, entre outras que necessitam de confiabilidade e desempenho para efetivação dos seus serviços. Contribuições nessas áreas têm focado a provisão de qualidade de serviço em termos absolutos, descritos num limite máximo de média de tempo de atendimento, destinado às aplicações Web. Todavia, o controle de qualidade baseado em tempo médio de resposta durante todo o período de serviço prestado, não restringe os tempos de resposta quanto a sua dispersão. Um valor médio razoável pode ser resultado da combinação de tempos de resposta elevados e pequenos. O objetivo deste trabalho é reduzir a dispersão dos atrasos em sistemas escalonados com a política EBS (Exigency Based Scheduling ), definidos pela diferença positiva entre o tempo de resposta da requisição do usuário e o valor médio contratado, em um modelo de contrato determinado por janelas deslizantes de operações. A EBS é uma política de escalonamento que define um modelo de contratos de tempo médio de resposta avaliados durante todo o tempo de serviço. Avalia-se a dispersão dos atrasos, pois, é preferível que haja a possibilidade dos tempos de resposta ficarem substancialmente abaixo da média contratada. Os resultados são obtidos utilizando métodos de simulação dos algoritmos desenvolvidos durante o projeto
2022-12-06T14:47:11Z
Michelle Nery
e-Termos: Um ambiente colaborativo web de gestão terminológica
Em uma de suas definções, a Terminologia representa o conjunto de princípios e métodos adotados no processo de gestão e criação de produtos terminológicos, tais como glossários e dicionários de termos. A sistematização desses métodos envolve a aplicação de ferramentas computacionais específicas e compatíveis com as tarefas terminológicas, contribuindo para o desenvolvimento desses produtos e a difusão de conhecimento especializado. Entretanto, principalmente no Brasil, a combinação da Terminologia e Informática é incipiente, e dentre as atividades do trabalho terminológico é comum a utilização de várias ferramentas não especializados para esse fim. Isso torna o trabalho dos terminólogos muito moroso, pois esse trabalho geralmente é feito por uma equipe multidisciplinar que deve ter acesso, a todo o momento, à versão mais atual das várias etapas da geração de um produto terminológico. Além disso, deixa o gerenciamento dos dados mais complicado, pois não existe um padrão de entrada e saída definido para os programas. Apoiado nos pressupostos da Teoria Comunicativa da Terminologia (TCT), este trabalho apresenta a proposta de desenvolvimento e avaliação do e- Termos, um Ambiente ColaborativoWeb composto por seis módulos de trabalho bem definidos, cujo propósito é automatizar as tarefas de gestão e criação de produtos terminológicos. Cada módulo do e-Termos possui a responsabilidade de abrigar tarefas inerentes ao processo de criação das terminologias, sendo atreladas a eles diferentes ferramentas de apoio lingüístico, que possuem a função de dar suporte às atividades de Processamento de Língua Natural envolvidas nesse processo. Além delas, há também ferramentas colaborativas, designadas para dar apoio às necessidades comunicacionais e de interação da equipe de trabalho. Particularmente com relação ao processo de avaliação proposto, uma de suas características é a capacidade de ser executado em um tempo curto, viabilizando a avaliação controlada de vários grupos, mas executada no ambiente de trabalho do público alvo. As principais contribuições desta pesquisa são o aspecto colaborativo instanciado na prática terminológica, a criação flexível da Ficha Terminológica, a possibilidade didática de uso para o ensino de terminologia, lexicografia e tradução e o processo de avaliação para sistemas colaborativos desenvolvido para o e-Termos, que combina Cenários de Uso e um Questionário de Pesquisa. Utilizando tecnologias Web e da área de Computer Supported Collaborative Work (CSCW) para o desenvolvimento da sua arquitetura computacional colaborativa, o e-Termos apresenta-se como um ambiente inovador para a pesquisa terminolóogica assistida por computador, pois automatiza um método prático que exp~oe os postulados da terminologia de orientação descritiva e evidencia todas as etapas do processo de criação de produtos terminológicos com o inédito diferencial colaborativo. Para certificar este êxito, o e-Termos tem recebido um número crescente de novas propostas de projeto, tendo até Agosto de 2009 mais de 130 usuários cadastrados, alocados em 68 diferentes projetos terminológicos
2022-12-06T14:47:11Z
Leandro Henrique Mendonça de Oliveira
Uma contribuição para o teste baseado em defeitos de software orientado a aspectos
A Programação Orientada a Aspectos (POA) é uma técnica contemporânea de desenvolvimento de software fortemente baseada no princípio da separação de interesses. Ela tem como objetivo tratar de problemas de modularização de software por meio da introdução do aspecto como uma nova unidade de implementação que encapsula comportamento relacionado aos interesses transversais do software. A despeito dos benefícios que podem ser alcançados com o uso da POA, seus mecanismos de implementação representam novas potenciais fontes de defeitos que devem ser tratados durante a fase de teste de software. Nesse contexto, o teste de mutação consiste em um critério de seleção de testes baseado em defeitos que tem sido bastante investigado para demonstrar a ausência de defeitos pré-especifiados no software. Acredita-se que o teste de mutação seja uma ferramenta adequada para lidar com as particularidades de técnicas de programação contemporâneas como a POA. Entretanto, até o presente momento, as poucas iniciativas para adaptar o teste de mutação para o contexto de programas orientados a aspectos (OA) apresentam cobertura limitada em relação aos tipos de defeitos simulados, ou ainda requerem adequado apoio automatizado e avaliações. Esta tese visa a mitigar essas limitações por meio da definição de uma abordagem abrangente de teste de mutação para programas OA escritos na linguagem AspectJ. A tese inicia como uma investigação da propensão a defeitos de programas OA e define uma taxonomia de defeitos para tais programas. A taxonomia inclui uma variedade de tipos de defeitos e serviu como base para a definição de um conjunto de operadores de mutação para programas OA. Suporte automatizado para a aplicação dos operadores também foi disponibilizado. Uma série de estudos quantitativos mostra que a taxonomia de defeitos proposta é suficiente para classificar defeitos encontrados em vários sistemas OA. Os estudos também mostram que os operadores de mutação propostos são capazes de simular defeitos que podem não ser relevados por conjuntos de teste pré-existentes, não derivados para cobrir mutantes. Além disso, observou-se que o esforço requerido para evoluir tais conjuntos de teste de forma a torná-los adequados para os requisitos gerados pelos operadores
2022-12-06T14:47:11Z
Fabiano Cutigi Ferrari
Um estratégia para geração de seqüências de verificação para máquinas de estados finitos
O teste baseado em modelos tem como objetivo auxiliar a atividade de testes, gerando conjuntos de casos de teste a partir de modelos, como Máquinas de Estados Finitos (MEFs). Diversos métodos de geração de conjuntos de caso de teste têm sido propostos ao longo das últimas décadas, com algumas contribuições recentes. Dentre esses trabalhos, há os que geram seqüências de verificação que são conjuntos de caso de teste formados por uma única seqüência e que são capazes de detectar os defeitos de uma implementação cujo comportamento pode ser modelado a partir de uma MEF. Neste trabalho é proposto um algoritmo de geração de seqüências de verificação que tem a finalidade de gerar seqüências menores que as seqüências geradas pelos métodos existentes. O algoritmo, que é baseado na técnica de algoritmos genéticos e nas condições de suficiência para a completude de casos de teste, consiste basicamente em criar novas seqüências a partir de seqüências menores. Por meio de mutações, novas seqüências são geradas pelo algoritmo. As condições de suficiência são utilizadas para determinar quais seqüências geradas são seqüências de verificação. Também são apresentados neste trabalho os estudos experimentais realizados para determinar o comportamento do algoritmo diante de diferentes contextos
2022-12-06T14:47:11Z
Paulo Henrique Ribeiro
Integrando mineração de séries temporais e fractais para encontrar padrões e eventos extremos em bases de dados climáticas e de sensoriamento remoto
Esta tese apresenta novos metodos baseados na teoria dos fractais e em tecnicas de mineração de dados para dar suporte ao monitoramento agrícola em escala regional, mais especicamente areas com plantações de cana-de-açucar que tem um papel importante na economia brasileira como uma alternativa viavel para a substituição de combustíveis fósseis. Uma vez que o clima tem um grande impacto na agricultura, os agrometeorologistas utilizam dados climáticos associados a índices agrometeorológicos e mais recentemente dados provenientes de satélites para apoiar a tomada de decisão. Neste sentido, foi proposto um método que utiliza a dimensão fractal para identicar mudanças de tendências nas séries climáticas juntamente com um módulo de análise estatística para definir quais atributos são responsáveis por essas alterações de comportamento. Além disso, foram propostos dois métodos de medidas de similaridade para auxiliar na comparação de diferentes regiões agrícolas representadas por múltiplas variáveis provenientes de dados meteorológicos e imagens de sensoriamento remoto. Diante da importância de se estudar os extremos climáticos que podem se intensicar dado os cenários que preveem mudanças globais no clima, foi proposto o algoritmo CLIPSMiner que identifica padrões relevantes e extremos em séries climáticas. CLIPSMiner também permite a identificação de correlação de múltiplas séries considerando defasagem de tempo e encontra padrões de acordo com parâmetros que podem ser calibrados pelos usuários. A busca por padrões de associação entre séries foi alcançada por meio de duas abordagens distintas. A primeira delas integrou o cálculo da correlação de dimensão fractal com uma técnica para tornar os valores contínuos das séries em intervalos discretos e um algoritmo de regras de associação gerando o método Apriori-FD. Embora tenha identificado padrões interessantes em relação a temperatura, este método não conseguiu lidar de forma apropriada com defasagem temporal. Foi proposto então o algoritmo CLEARMiner que de forma não-supervisionada minera padrões em uma série associando-os a padrões em outras séries considerando a possibilidade de defasagem temporal. Os métodos propostos foram comparados a técnicas similares e avaliados por um grupo composto por meteorologistas, agrometeorologistas e especialistas em sensoriamento remoto. Os experimentos realizados mostraram que a aplicação de técnicas de mineração de dados e fractais contribui para melhorar a análise dos dados agrometeorológicos e de satélite auxiliando no trabalho de pesquisadores, além de se configurar como uma ferramenta importante para apoiar a tomada de decisão no agronegócio
2022-12-06T14:47:11Z
Luciana Alvim Santos Romani