Repositório RCAAP

Peônia: um ambiente web para apoiar processos de desenvolvimento com utilização de padrões de software e requisitos de teste no projeto de aplicações

A expansão e a popularização da World Wide Web têm incentivado o desenvolvimento de aplicações Web. É crescente a exigência por aplicações Web cada vez mais complexas, cujo desenvolvimento deve ser feito com qualidade e rapidez. Para orientar o ciclo de vida dessas aplicações, diversos métodos de desenvolvimento Web têm sido criados, além de ferramentas de apoio a sua utilização. O emprego de padrões de software no desenvolvimento de aplicações pode aumentar a produtividade e a qualidade. Com o objetivo de minimizar erros e facilitar a utilização, ferramentas de apoio à utilização de padrões têm sido desenvolvidas. No entanto, há uma carência por ambientes e ferramentas que apóiem o emprego de padrões durante as etapas do desenvolvimento de aplicações. Algumas das principais atividades para a garantia da qualidade de software são as de VV&T (Verificação, Validação e Teste). Algumas iniciativas de associação de teste a padrões têm sido estudadas com o intuito de minimizar o tempo despendido em VV&T. Neste trabalho é apresentado o ambiente Peônia com o intuito de apoiar o emprego de padrões de software durante as etapas de um processo de desenvolvimento. Para isso, os padrões de software podem ser previamente associados a essas etapas para que possam ser sugeridos durante a execução de um projeto. Além disso, o ambiente Peônia oferece a possibilidade de associar requisitos de teste a padrôes de software, para auxiliar nas atividades de VV&T. Também é proposto um Método Para Desenvolvimento Utilizando Padrões de Software, formalizando a técnica empregada no ambiente Peônia durante a execução de projetos, onde é incentivada a utilização de padrões de software na criação de artefatos e execução de fases e atividades. O método proposto estimula usuários a empregar padrões de software durante as etapas do processo de desenvolvimento, independentemente de utilizar, ou não, o ambiente Peônia

Ano

2022-12-06T14:47:11Z

Creators

Alessandra Chan

Avaliação de métricas para determinar o grau de heterogeneidade de sistemas computacionais

Este trabalho avalia de maneira detalhada diferentes parâmetros para a definição de níveis de homogeneidade e heterogeneidade em sistemas computacionais distribuídos. O objetivo é analisar a eficiência da métrica GH - Grau de Heterogeneidade - em relação a diferentes perspectivas. Métricas encontradas na literatura e benchmarks de código aberto (reconhecidos pela comunidade científica) são utilizados para quantificar a heterogeneidade do sistema computacional. A métrica GH também é empregada no AMIGO, um ambiente de escalonamento real, para analisar a sua utilização em algoritmos de escalonamento de processos. Os principais resultados obtidos neste trabalho são: a comprovação da estabilidade da métrica GH para determinar o grau de heterogeneidade de plataformas computacionais distribuídas, o uso da métrica GH com sucesso em um ambiente de escalonamento real e o desenvolvimento de um algoritmo de escalonamento adaptativo. Sub-produtos deste trabalho são: um levantamento dos principais benchmarks com código aberto e livre disponíveis na literatura, os quais podem ser utilizados em trabalhos futuros no grupo de pesquisa e a continuidade do desenvolvimento do ambiente de escalonamento AMIGO

Ano

2022-12-06T14:47:11Z

Creators

Fábio Hitoshi Ide

Minimização de conjuntos de casos de teste para máquinas de estados finitos

O TESTE baseado em modelos visa a possibilitar a derivação de conjuntos de casos de teste a partir de especificações formais, tais como Máquinas de Estados Finitos. Os conjuntos de teste podem ser obtidos tanto pelos métodos clássicos de geração quanto por alguma abordagem ad hoc. Procura-se obter um conjunto de teste que consiga detectar todos os possíveis defeitos de uma implementação e possua tamanho reduzido para que a sua aplicação seja factível. Por questões de ordem prática, pode não ser possível a aplicação de todo o conjunto de teste gerado. Desse modo, um subconjunto de casos de teste deve ser selecionado, ou seja, uma minimização do conjunto de teste deve ser realizada. No entanto, é fundamental que a minimização reduza o custo de aplicação dos testes, mas mantenha a efetividade em revelar defeitos. Neste trabalho, propõe-se um algoritmo de minimização de conjuntos de teste para Máquinas de Estados Finitos. O algoritmo baseia-se em condições de suficiência para que a completude em relação à detecção de defeitos seja mantida. O algoritmo foi utilizado em dois diferentes contextos. Utilizou-se o algoritmo com conjuntos de teste gerados de forma aleatória para verificar a minimização obtida. O algoritmo também foi utilizado para reduzir o esforço em se obter um conjunto completo em relação à detecção de defeitos

Ano

2022-12-06T14:47:11Z

Creators

Lúcio Felippe de Mello Neto

Método para melhoria da eficiência na identificação computacional de RNAs não-codificantes

Até pouco tempo acreditava-se que a maioria das moléculas de RNA estava relacionada à tradução de proteínas. Porém, descobriu-se que outros tipos de moléculas de RNA que não são traduzidas estão presentes em muitos organismos diferentes e afetam uma variedade de processos moleculares, são os chamados RNAs não-codificantes (ncRNAs). Apesar de sua importância funcional, os métodos biológicos e computacionais para a detecção e caracterização de RNAs não-codificantes ainda são imprecisos e incompletos. A identificação de novas espécies de ncRNAs é difícil através de procedimentos experimentais e as técnicas computacionais existentes são lentas. O objetivo deste trabalho foi obter uma ferramenta mais eficiente para a comparação de uma seqüência de RNA não-codificante contra um banco de seqüências. Para isso foi proposto e implementado um modelo para identificação computacional de ncRNAs com apoio dos pacote Viena e Infernal e foram realizados experimentos para avaliá-lo

Ano

2022-12-06T14:47:11Z

Creators

Cristina Teixeira de Oliveira

Um estudo de caracterização e avaliação de critérios de teste estruturais entre os paradigmas procedimental e OO

O Teste de software é uma atividade de garantia da qualidade que tem por finalidade diminuir o número de defeitos do software. Esta atividade contribui para redução do custo de manutenção e para a melhora da qualidade do software, durante o processo de desenvolvimento. Isso tem motivado a investigação e proposta de estratégias, técnicas, critérios e ferramentas de teste para diferentes paradigmas de desenvolvimento, tais como procedimental, orientado a objetos e orientado a aspectos. Vários estudos experimentais têm sido desenvolvidos para avaliar e comparar critérios de teste. Grande parte desses experimentos foram realizados com programas construídos sob um mesmo paradigma ou desconsiderando a influência do mesmo sobre os resultados. Entretanto, é importante avaliar o impacto de um paradigma específico sobre a atividade de teste uma vez que alguns defeitos podem estar relacionados ao seu uso. Este trabalho apresenta um estudo experimental realizado para caracterizar e avaliar o custo de aplicação e a dificuldade de satisfação de critérios de teste, comparando dois paradigmas: o orientado a objetos e o procedimental. O estudo considera critérios de teste funcionais e estruturais e utiliza um conjunto de programas do domínio de Estrutura de Dados. Os termos e fases do processo de experimentação controlada foram usados, à medida em que estes se mostraram adequados, para definir e executar o presente estudo. Os objetivos com a execução dessa pesquisa foram obter resultados iniciais sobre as questões investigadas bem como gerar artefatos que sirvam de base para a definição e condução de futuros experimentos e a criação de pacotes de laboratório. Além disso, pretende-se apoiar, por meio dos materiais gerados, o treinamento e o ensino da atividade do teste de software

Ano

2022-12-06T14:47:11Z

Creators

Marllos Paiva Prado

Visualização como suporte à extração e exploração de regras de associação

Desde a definção do problema de obtenção de regras de associação, vários algoritmos eficientes foram introduzidos para tratá-lo. Entretanto, ainda hoje o problema apresenta várias dificuldades práticas para os mineradores, como a determinação de limiares adequados de suporte mínimo e confiança mínima, a manipulação de grandes conjuntos de regras, e a compreensão de regras (especialmente aquelas contendo muitos itens). Para tratar estes problemas, pesquisadores têm investigado a aplicação de técnicas interativas, sumarização (de conjuntos de regras) e representações visuais. Entretanto, nenhuma abordagem na qual os usuários podem entender e controlar o processo por meio da interação com o algoritmo analítico ao longo de sua execução foi introduzida. Neste trabalho, é introduzida uma abordagem interativa para extração e exploração de regras de associação que insere o usuário no processo por meio de: execução interativa do Apriori ; seleção interativa de itemsets freqüentes; extração de regras baseada em itemsets e orientada por agrupamentos de itemsets similares; e exploração de regras aos pares. Para validar a abordagem, foram realizados diversos estudos, apoiados pelo Sistema \'I IND.2\' E, com o objetivo de: comparar a abordagem interativa, sob diversos aspectos, com uma abordagem convencional de obtenção de regras de associação; avaliar o efeito de variar alguns parâmetros do processo nos resultados finais; e mostrar a aplicação dos recursos oferecidos em situações reais e com usuários reais. Os resultados indicam que a abordagem apresentada é adequada, tanto em cenários exploratórios quanto em cenários em que há um direcionamento inicial para o processo, à execução de certas tarefas de extração de regras de associação, pois: provém recursos capazes de evitar execuções inteiras do algoritmo antes que os resultados sejam analisados; gera conjuntos de regras mais compactos; preserva a cobertura de itemsets; favorece a reformulação de tarefas ou a formulação de novas tarefas; e provê meios para comparação visual de regras, aumentando o poder de análise do minerador

Ano

2022-12-06T14:47:11Z

Creators

Claudio Haruo Yamamoto

Desenvolvimento e avaliação de um registro de serviços de ferramentas de teste

Um importante mecanismo da arquitetura orientada a serviços é o componente de registro de serviços. Ele permite a interação entre provedores e clientes, oferecendo um meio de acesso aos serviços desenvolvidos e publicados no registro. Nesta dissertação é proposto o desenvolvimento de um registro de serviços para dar apoio à publicação, busca e classificação de serviços Web, em particular, àqueles relacionados a ferramentas de teste de software. Uma limitação comum dos serviços de registro refere-se às buscas realizadas, pois são basicamente sintáticas e podem trazer resultados pouco relacionados aos interesses do usuário. Para resolver este problema uma ontologia de teste foi adaptada e incorporada ao registro com o objetivo de oferecer facilidades de busca e agregar informação semântica nos serviços registrados. Uma arquitetura genérica baseada em serviços para o domínio de engenharia de software é apresentada e instanciada para o domínio de teste de software com o objetivo de auxiliar no entendimento e implementação do registro de serviços proposto. Também são apresentados exemplos de ferramentas de teste publicadas no registro e um exemplo de busca e interação com o serviço de teste JaBUTiWS, previamente publicado no registro, que tem por objetivo apoiar o teste estrutural de componentes e serviços

Ano

2022-12-06T14:47:11Z

Creators

Rodrigo Pinto Gondim

Avaliação de roteamento em redes P2P visando obtenção de QoS na busca de serviço em nuvem

Este trabalho apresenta a avaliação de diferentes algoritmos de roteamento utilizados na camada lógica ponto a ponto (P2P) adotada por um Metaescalonador que provê Qualidade de Serviços (QoS) na Computação em Nuvem. Experimentos mostram a superioridade de três algoritmos de roteamento P2P (BCR, Chord e Pastry) em relação à utilização de Round Robin, analisando-se o tempo de resposta e a variabilidade entre os resultados obtidos em diferentes testes. Os experimentos consideram, além dos algoritmos de roteamento, a influência do número de usuários e do tipo de serviço requisitado e como esses fatores interagem entre si. É apresentado ainda um estudo sobre a melhor métrica a ser adotada para representar as informações da rede. As métricas consideradas foram latência e número de saltos. Os resultados obtidos permitem determinar, com base nos objetivos especificados, qual o impacto dos sistemas P2P utilizados pelo metaescalonador na busca e descoberta de serviços em relação à forma como a qualidade de serviços é abordada

Ano

2022-12-06T14:47:11Z

Creators

Dionisio Machado Leite Filho

Navegação de robôs móveis utilizando visão estéreo

Navegação autônoma é um tópico abrangente cuja atenção por parte da comunidade de robôs móveis vemaumentando ao longo dos anos. O problema consiste em guiar um robô de forma inteligente por um determinado percurso sem ajuda humana. Esta dissertação apresenta um sistema de navegação para ambientes abertos baseado em visão estéreo. Uma câmera estéreo é utilizada na captação de imagens do ambiente e, utilizando o mapa de disparidades gerado por um método estéreo semi-global, dois métodos de detecção de obstáculos são utilizando para segmentar as imagens em regiões navegáveis e não navegáveis. Posteriormente esta classificação é utilizada em conjunto com um método de desvio de obstáculos, resultando em um sistema completo de navegação autônoma. Os resultados obtidos por está dissertação incluem a avaliação de dois métodos estéreo, esta sendo favorável ao método estéreo empregado (semi-global). Foram feitos testes visando avaliar a qualidade e custo computacional de dois métodos para detecção de obstáculos, um baseado em plano e outro baseado em cone. Tais testes deixaram claras as limitações de ambos os métodos e levaram a uma implementação paralela do método baseado em cone. Utilizando uma unidade de processamento gráfico, a versão paralelizada do método baseado em cone atingiu um ganho no tempo computacional de aproximadamente dez vezes. Por fim, os resultados demonstrarão o sistema completo em funcionamento, onde a plataforma robótica utilizada, um veículo elétrico, foi capaz de desviar de pessoas e cones alcançando seu objetivo seguramente

Ano

2022-12-06T14:47:11Z

Creators

Caio César Teodoro Mendes

Abordagem clássica e bayesiana em modelos auto-regressivos com transformações de Box & Cox

Atualmente as projeções de demanda e ganho tornam-se variáveis importantes no processo de tomada de decisões para investimentos envolvendo custo e capital, em pesquisa de mercado envolvendo produtos de consumo, em pesquisa de populações e em qualquer outro tipo de previsões que tenham a ver com ganhos ou demandas futuras, por exemplo o volume de água que é preciso para ser gerada determinada quantidade de energia consumido por uma população através de um sistema de operação e planejamento de um sistema hidroelétrico, etc. Em resposta desse interesse muitos estudos examinaram a possibilidade de gerar previsões usando séries temporais, ajustando modelos mediante a metodologia de Box e Jenkins, porém estas séries sugeriam variabilidade maior em diferentes níveis, violando deste modo a suposição de variância constante na formulação dos modelos ARIMA. Nestas situações, é comum na prática, contemplar uma extensão destes modelos, assumindo que alguma transformação da série obedeça um modelo ARIMA, frequentemente são usadas transformações de Box e Cox, porém as previsões destas séries transformadas afeta as interpretações em quanto à série original. Uma abordagem combinada de métodos clássicos e bayesianos é apresentada no tratamento destas transformações, os quais estimam junto com os parâmetros do modelo a potência desta transformação, apresentamos também uma alternativa para examinar a estrutura das auto-covariâncias através do Polinómio de Hermite. A pergunta que surge é, se a incorporação destas transformações resulta numa melhora nas previsões. No caso particular apresentamos resultados em processos auto-regressivos. É feita uma aplicação destes métodos em séries de vazões medias mensais no Reservatório de Furnas.

Ano

2022-12-06T14:47:11Z

Creators

Juana Rosa Lindo Samaniego

"Balanceamento de cargas de aplicações SPMD em sistemas computacionais distribuídos"

Este trabalho apresenta a implementação e a utilização da migração de processos SPMD (Single Program Multiple Data), a qual realiza somente a transferência dos dados, que estão sendo manipulados pelo processo, para realizar a migração. Seu principal objetivo foi o estudo do impacto do balanceamento de carga no desempenho de aplicações, desenvolvidas utilizando o modelo de programação SPMD. Depois de realizados testes com aplicações SPMD reais, em sistemas computacionais distribuídos utilizando a migração de processos SPMD, foi possível verificar que ganhos de desempenho podem ser alcançados, tanto na migração de processos quanto no tempo de execução de aplicações paralelas SPMD.

Ano

2022-12-06T14:47:11Z

Creators

Gustavo Antonio Furquim

Evidence-based software engineering: systematic literature review process based on visual text mining

Context: Systematic literature review (SLR) is a methodology used to aggregate all relevant evidence of a specific research question. One of the activities associated with the SLR process is the selection of primary studies. The process used to select primary studies can be arduous, particularly when the researcher faces large volumes of primary studies. Another activity associated with an SLR is the presentation of results of the primary studies that meet the SLR purpose. The results are generally summarized in tables and an alternative to reduce the time consumed to understand the data is the use of graphic representations. Systematic mapping (SM) is a more open form of SLR used to build a classification and categorization scheme of a field of interest. The categorization and classification activities in SM are not trivial tasks, since they require manual effort and domain of knowledge by reviewers to achieve adequate results. Although clearly crucial, both SLR and SM processes are time-consuming and most activities are manually conducted. Objective: The aim of this research is to use Visual Text Mining (VTM) to support different activities of SLR and SM processes, e.g., support the selection of primary studies, the presentation of results of an SLR and the categorization and classification of an SM. Method: Extensions to the SLR and SM processes based on VTM were proposed. A series of case studies were conducted to demonstrate the usefulness of the VTM techniques in the selection, review, presentation of results and categorization context. Results: The findings have showed that the application of VTM is promising in terms of providing positive support to the study selection activity and that visual representations of SLR data have led to a reduction in the time taken for their analysis, with no loss of data comprehensibility. The application of VTM is relevant also in the context of SM. Conclusions: VTM techniques can be successfully employed to assist the SLR and SM processes

Ano

2022-12-06T14:47:11Z

Creators

Katia Romero Felizardo Scannavino

Métodos com passo temporal adaptativo para a simulação de escoamentos com superfícies livres

A simulação de escoamentos com superfícies livres vem ganhando importância ao longo dos últimos anos devido às várias aplicações práticas em que esse tipo de escoamento está envolvido. Dentre os métodos numéricos existentes para a simulação de escoamentos, temos o GENSMAC, que é uma técnica numérica para simular escoamentos newtonianos com superfícies livres. A implementação de métodos semi-implícitos para a discretização temporal das equações de Navier-Stokes permitiu uma relaxação significativa na restrição no passo temporal, reduzindo consideravelmente o custo computacional na simulação de escoamentos com Re 1. Mas, mesmo no caso dos métodos semi-implícitos, o passo temporal não pode aumentar além de certos limites, bem aquém daquele da restrição CFL, sem provocar sérios problemas de precisão nos resultados numéricos e consequente aparecimento de resultados não físicos. Portanto, mesmo na formulação semi-implícita, uma restrição no passo temporal é aplicada. Neste trabalho, analisamos e implementamos no sistema FREEFLOW2D uma estratégia de adaptação do passo temporal de maneira a garantir a estabilidade e a precisão utilizando o maior passo temporal possível. A eficiência e robustez da técnica incorporada à formulação implícita do GENSMAC são demonstradas na solução de problemas bidimensionais complexos com superfícies livres e baixo número de Reynolds, incluindo os problemas do inchamento do extrudado e jet flow

Ano

2022-12-06T14:47:11Z

Creators

Gabriela Aparecida dos Reis

Uso de técnicas de navegação em árvores para auxílio na visualização de dados multidimensionais

Com base em métodos de extração de características de imagens e extração de vocabulários de textos, podemos empregar técnicas para posicionamento de dados multidimensionais no plano para mapear conjuntos de dados em espaços visuais, auxiliando usúarios na interpretação e análise dos dados. Alguns desses métodos constroem árvores de similaridade, impondo uma hierarquia sobre as relações entre as características extraídas dos dados. Em um ambiente de análise exploratória, é natural que se procurem métodos e técnicas capazes de manipular e interagir com os dados de forma rápida e eficiente. Nesse contexto, o trabalho visa implementar e aplicar técnicas conhecidas de navegação e interação em árvores no contexto de visualizações baseadas em posicionamento de pontos no plano. Em particular as técnicas NJ e MST, implementadas e utilizadas com sucesso na ferramenta PEx-Image, tornaram-se pontos chave para o auxílio na exploração dos dados através das apresentações radial e hiperbólica, implementadas juntamente com ferramentas de exploração. Este trabalho implementa e apresenta a capacidade exploratória dessas duas formas de apresentação de árvores sobre as visualizações NJ e MST.

Ano

2022-12-06T14:47:11Z

Creators

Marcel Yugo Nakazaki

Planejamento de experimentos com várias replicações em paralelo em grades computacionais

Este trabalho de mestrado apresenta um estudo de Grades Computacionais e Simulações Distribuídas sobre a técnica MRIP. A partir deste estudo foi possível propor e implementar o protótipo de uma ferramenta para Gerenciamento de Experimento em Ambiente de Grade, denominada Grid Experiments Manager - GEM, organizada de forma modular podendo ser usada como um programa ou integrada com outro software, podendo ser expansível para vários middlewares de Grades Computacionais. Com a implementação também foi possível avaliar o desempenho de simulações sequenciais com aquelas executadas em cluster e em uma Grade Computacional de teste, sendo construído um benchmark que possibilitou repetir a mesma carga de trabalho para os sistemas sobre avaliação. Com os testes foi possível verificar um ganho alto no tempo de execução, quando comparadas as execuções sequenciais e em cluster, obteve-se eficiência em torno de 197% para simulações com tempo de execução baixo e 239% para aquelas com tempo de execução maior; na comparação das execuções em cluster e em grade, obteve-se os valores para eficiência de 98% e 105%, para simulações pequenas e grandes, respectivamente

Ano

2022-12-06T14:47:11Z

Creators

Lourenço Alves Pereira Júnior

Uma contribuição para a melhoria colaborativa e distribuída de processos de software

A área de melhoria de processos de software (MPS) tem sido investigada sistematicamente, dadas as evidências de que a qualidade do processo pode influenciar significativamente na qualidade do produto final. Modelos e guias com boas práticas para a MPS têm sido sintetizados. Ainda assim, a literatura carece de trabalhos que estabeleçam estratégias de como implementar as boas práticas sugeridas por tais modelos e guias na indústria. Em paralelo, o desenvolvimento distribuído de software (DDS) tornou-se uma realidade, aumentando a complexidade e a importância do processo de desenvolvimento de software e demandando estratégias que permitam uma MPS também distribuída. O objetivo deste trabalho é investigar estratégias e mecanismos que possam promover uma MPS distribuída e colaborativa. A ColabSPI, uma estratégia colaborativa e distribuída para MPS, é proposta para apoiar a evolução estruturada do processo; o tratamento de propostas de melhorias de processo; e a comunicação e participação dos desenvolvedores na MPS. Durante a investigação, fatores que podem influenciar a MPS foram identificados e a relação entre eles foi mapeada, tanto a partir da literatura quanto a partir de um estudo em campo. Dois contextos foram explorados durante a investigação: (i) a MPS em uma organização de grande porte, com unidades distribuídas; e (ii) a MPS no desenvolvimento de software livre (SL). Contribuições para a MPS no desenvolvimento de SL foram geradas no contexto do projeto internacional Qualipso, com a co-autoria do Qualipso Open Source Maturity Model (OMM) e a adequação de ColabSPI para evoluir o OMM. Em ambiente industrial, estudos experimentais foram conduzidos para validar a aplicação de ColabSPI e revelaram que algumas práticas do desenvolvimento de software, inclusive do DDS e do desenvolvimento de SL, podem ser aplicadas com sucesso à MPS, trazendo ganhos de eficácia e eficiência para a melhoria de um processo de desenvolvimento de software. A estratégia proposta está sendo base também para a definição do ambiente de MPS do processo Demoiselle, um processo livre para desenvolvimento de software

Ano

2022-12-06T14:47:11Z

Creators

Viviane Dias Malheiros de Pinho

Um método para previsão de sobrecarga transiente em sistemas computacionais por meio de modelos dinâmicos obtidos empiricamente

Este trabalho apresenta um método empírico para previsão de sobrecargas transientes em sistemas computacionais por meio de modelagem dinâmica. A técnica, baseada em aproximações lineares e invariantes no tempo, tem como objetivo identificar a capacidade de um sistema computacional absorver variações na carga de trabalho. Experimentalmente, a identificação dessa capacidade do sistema pode ser feita por meio de técnicas de avaliação de desempenho, em que a abordagem prevalente é a estimação da capacidade estática em regime estacionário de operação, observando-se o desempenho sob demanda constante. Entretanto, essa avaliação não considera o regime transiente do sistema, i.e durante o período de restabelecimento ao regime estacionário após uma perturbação, e durante o qual, o esforço exigido pode ser bastante diverso, e potencialmente acima daquele apurado sob condições de regime estacionário. A proposta deste trabalho é a formulação de uma metodologia para avaliação de desempenho em regime transiente em sistemas computacionais sob carga de trabalho variável e que forneça informação para o dimensionamento de recursos e políticas de controle de admissão que evitem sobrecargas por efeitos transitórios. A metodologia baseia-se na parametrização de um modelo dinâmico a partir de ensaios experimentais, considerando perturbações bruscas e de longa duração, e os resultados são avaliados por comparação das predições do modelo em relação aos objetivos por simulação ou aferição.

Ano

2022-12-06T14:47:11Z

Creators

Helder Jefferson Ferreira da Luz

Sistema de visão baseado em redes neurais artificiais para o controle de robôs móveis

Sistemas de visão computacional (SVCs) são interessantes ferramentas para a navegação de robôs. Este trabalho propõe um SVC baseado em redes neurais multi-camadas para o controle de um robô móvel. Dois módulos principais compõe o SVC: módulo de visão e módulo de controle de navegação. O primeiro é dividido em três partes:pré-processamento, segmentação e reconhecimento das imagens. este módulo processa as imagens (obtidas por uma câmera) que podem conter diversos com cores diferentes, retornando a posição ou a forma e a posição de um dos objetos, o qual corresponde a cor especificada. O processamento das imagens é realizada por redes neurais multi-camadas. O módulo de controle é responsável por validar os resultados do módulo de visão e conduzir o robô utilizando os dados provenientes do módulo de visão. O objetivo do sistema proposto é capacitar um robô a realizar as tarefas: seguir um objeto de cor determinada, seguir um objeto de cor e forma determinada ou ainda navegar pelo ambiente seguindo um objeto de cor determinada evitando obstáculos. Vários experimentos são apresentados, em um ambiente real, utilizando o robô. Pioneer I, para mostrar as vantagens e desvantagens do sistema proposto.

Ano

2022-12-06T14:47:11Z

Creators

Marcos Gonçalves Quiles

Desenvolvimento de um método numérico para resolver escoamentos viscoelásticos: Modelo de Maxwell

Neste trabalho é desenvolvido um método numérico para resolver escoamentos viscoelásticos com superfícies livres. As equações governantes para escoamentos governados pelo modelo de Maxwell juntamente com as condições de contorno para escoamentos bidimensionais usando coordenadas cartesianas são apresentadas. As equações são resolvidas utilizando o método de diferenças finitas numa malha deslocada. Também, é desenvolvida uma formulação para o cálculo do tensor não-Newtoniano em contornos rígidos. As condições de contorno na superfície livre são discutidas em detalhes. Resultados numéricos mostrando a convergência do método numérico desenvolvido nesse trabalho são apresentados. Finalmente, são apresentados resultados numéricos que mostram que a técnica numérica empregada nesse trabalho é capaz de simular escoamentos viscoelásticos governados pelo modelo de Maxwell. Em particular, os seguintes problemas são simulados: jato oscilante, inchamento do extrudado e uma gota de fluido viscoelástico incidindo sobre uma superfície rígida.

Ano

2022-12-06T14:47:11Z

Creators

Dayene Miralha de Carvalho

Label operation for multi-label learning

Classification tasks in which instances are associated with multiple concepts are known as multilabel classification. They have attracted growing attention in the machine-learning community, given the high number of applications and multi-labeled data available nowadays. Consequently, many strategies have been proposed exploring different particularities, such as label imbalance, dimensionality reduction and labels dependence. Despite that, some aspects that may affect strategies as a whole have been overlooked. For instance, some strategies transform the original multi-labeled data into single-labeled data upon which a base algorithm can be applied. However, the impact of choosing a specific base algorithm against another is unknown and usually ignored. Moreover, it was observed that many labels are never correctly predicted regardless of the strategies used. So far, very little attention has been paid to theses issues, which may produce misleading results. Therefore, this thesis aims to investigate the multi-label strategies covering these particularities. For such, an extensive comparative study is performed focusing on the influence of the base algorithms on the results. Moreover, label operation is proposed as an optimization procedure able to reduce the number of labels never predicted. Through an empirical methodology, label expansion and reduction enhanced different evaluation measures, mitigating the label prediction problem, although it was not completely removed. Additionally, metalearning is used to reduce the complexity of the operations and to provide some understanding concerning the studied issue. Considering this, characterization measures for meta-learning were systematically investigated, which resulted in a new taxonomy to organize them. In summary, the findings and contributions presented here are relevant to the multi-label and meta-learning research fields. They potentially have an impact on the methodology, and raise open new questions concerning unnoticed aspects of these areas.

Ano

2022-12-06T14:47:11Z

Creators

Adriano Rivolli da Silva