Repositório RCAAP
Uso de métodos Bayesianos para modelos com pontos de mudança
Neste trabalho apresentamos uma análise Bayesiana para modelos de sobrevivência e de contagem com pontos de mudança, assumindo diferentes densidades a priori e métodos computacionais para obter as inferências a posteriori de interesse. Em particular, destacamos o método de Laplace e métodos de simulação de Monte Cano em cadeias de Markov. Além disso introduzimos um critério de seleção de modelos Bayesiano. Ilustramos a metodologia proposta em alguns exemplos numéricos.
2022-12-06T14:47:11Z
Selene Maria Coelho Loibel
Cálculo do Risco de Falha no Controle de Cheias: Uma Abordagem por Equações Diferenciais Estocásticas
Este trabalho propõe um modelo estocástico em conjunto com conceitos de análise de confiabilidade. Nestes modelos, a afluência que atinge o reservatório durante uma cheia é considerada como uma carga, e a capacidade do reservatório para amortecer esta cheia é considerada como uma resistência que o reservatório oferece à sua propagação. Aqui, a carga e a resistência são modeladas como processo do tipo difusão, e utili7a-se a fórmula de Itô para calcular o volume de espera associado a um determinado risco de falha A inferência dos parâmetros do modelo é feita por meio de inferência bayesiana usando-se o algoritmo de simulação de Monte Carlo em cadeias de Markov. Os estimadores de máxima verossimilhança são usados para comparação. O método foi aplicado para um conjunto de dados utilizando-se nove anos de vazões afluentes diárias em período de cheia que chegam à usina de Xavantes. O volume de espera foi calculado pelo método proposto, usando-se descarga de referência constante, e comparado com os volumes obtidos por outros métodos existentes. O método da curva volume x duração deixa um volume de espera constante durante todo o período chuvoso, usando-se somente 83,6% da capacidade do reservatório. O método proposto faz uma alocação dinâmica do volume de espera, utilizando-se 96.5% e 95.3% da capacidade do reservatório quando a abordagem bayesiana e o método de máxima verossimilhança são adotados, respectivamente. Dentre os métodos propostos, o método bayesiano mostrou-se mais vantajoso em relação ao desperdício de energia devido à utilinção da capacidade do reservatório. O método das trajetórias críticas necessita de séries com um comprimento significativo de vazões diárias, e na prática só pode ser aplicado com séries sintéticas de vazões.
2022-12-06T14:47:11Z
Silvana Aparecida Meira
Construção Automática de Funções de Proximidade para Redes de Termos usando Evolução Gramatical
Com o crescente volume de dados textuais, a simples tarefa de rotulação de documentos tornase onerosa. Algoritmos de aprendizado de máquina podem aprender com dados históricos e então serem capazes de realizar a tarefa de rotulação automática em novos documentos. Geralmente, os algoritmos supervisionados são utilizados. Nessa abordagem uma grande quantidade de exemplos é necessária para que o algoritmo seja capaz de identificar padrões e generalizar esse conhecimento com a rotulação de novos exemplos. Uma alternativa é o uso de algoritmos transdutivos, que necessitam apenas de poucos documentos rotulados para realizar a generalização. Geralmente, algoritmos transdutivos utilizam redes de documentos ou um modelo espaço vetorial para representação de documentos. A rede de documentos cresce a medida que novos documentos são adicionados, enquanto o modelo espaço vetorial sofre de problemas como a independência entre termos e alta esparsidade. Uma rede de termos é uma alternativa interessante aos modelos anteriores porque o número de termos tende a se estabilizar a medida que novos documentos são adicionados, a representação da relação entre termos é natural e é possível realizar a seleção de termos diminuir a rede e acelerar a classificação. O Transductive Classification through Terms Networks (TCTN) é estado-da-arte na classificação de documentos utilizando rede de termos, contudo um de seus hiperparâmetros é a função de proximidade que quantifica a proximidade entre termos e a escolha por uma função pode não ser trivial. Nessa dissertação, uma abordagem para construção automática de funções de proximidade para redes de termos é proposta, implementada e avaliada. A abordagem denominada Grammatical Evolution for Automatically Design Interestingness Measures for Transductive Classification through Term Networks (GE-TCTN) utiliza uma gramática livre de contexto para evolução de novas funções de proximidade através do algoritmo de otimização denominado Evolução Gramatical. Os resultados do GE-TCTN são comparados com os resultados do TCTN com objetivo de verificar se novas funções de proximidade construídas automaticamente pelo GETCTN são capazes de produzir resultados de classificação de documentos melhores do que os resultados produzidos utilizando-se funções de proximidade tradicionais da literatura em termos da medida de avaliação de classificação F1-ponderada. Além disso, o GE-TCTN é comparado aos algoritmos aprendizado transdutivo tradicionais e avaliados estatisticamente. Os resultados do GE-TCTN são competitivos com os algoritmos tradicionais e o GE-TCTN é capaz de produzir funções de proximidade que levam a resultados de classificação de documentos superiores ao TCTN.
2022-12-06T14:47:11Z
Felipe Provezano Coutinho
Decomposição de séries temporais preservando o viés determinístico
Avanços tecnológicos possibilitaram a coleta e modelagem de grandes quantidades de dados produzidos ao longo do tempo por fenômenos industriais, humanos e naturais. Em se tratando de séries temporais, tais dados são compostos por influências determinísticas, relacionadas a eventos recorrentes e unicamente dependentes de observações passadas, e estocásticas, associadas a efeitos aleatórios. Modelos produzidos com base em apenas uma dessas influências tendem a produzir resultados sub-ótimos e incompletos. Portanto, idealmente, deve-se modelar o componente estocástico por meio de ferramentas estatísticas e o determinístico utilizando ferramentas da área de Sistemas Dinâmicos. Esse cenário leva à inerente necessidade da decomposição de dados temporais, em busca de modelos mais acurados e melhores resultados de predição. Diversas abordagens têm sido utilizadas para realizar tal decomposição, tais como: (i) Transformada de Fourier; (ii) Transformadas Wavelet; (iii) Médias Móveis; (iv) Análise Espectral Singular; (v) Lazy; (vi) GHKSS; e (vii) outras abordagens baseadas no método de decomposição de modo empírico (EMD Empirical Mode Decomposition). Tais abordagens apresentam problemas associados à imposição de viés definido pelos seus conjuntos de funções admissíveis, sendo que o senoidal é predominante sobre o componente determinístico resultante, descaracterizando o viés original dos dados e levando a modelagens sub-ótimas, consequentemente gerando resultados insatisfatórios para o processo de predição. Neste contexto, esta tese de doutorado introduz três abordagens de decomposição de séries temporais que visam preservar, ao máximo, as influências determinísticas por meio da utilização de espaços-fase, resultando em representações mais fiéis do viés original dos dados: (i) Spring, (ii) Spring Time Domain e (iii) Spring*. Essas abordagens foram experimentalmente avaliadas e comparadas ao estado da arte com base em métricas comumente adotadas na literatura, mais precisamente: Média do Erro Absoluto (do inglês Mean Absolute Error MAE) e Distância Média da Linha Diagonal (do inglês Mean Distance from Diagonal Line MDDL). Spring e suas variantes comprovaram ser mais eficazes para a segmentação entre influências determinísticas e estocásticas, naturalmente levando à melhoria do processo de modelagem e predição de séries temporais. Por fim, para validar a hipótese de que as decomposições propostas melhoram resultados de predição, as abordagens foram conectadas às técnicas de modelagem polinomial e de funções de base radial, permitindo reduzir significativamente erros decorrentes do processo de previsão.
2022-12-06T14:47:11Z
Felipe Simões Lage Gomes Duarte
Theoretical and computational issues for improving the performance of linear optimization methods
Linear optimization tools are used to solve many problems that arise in our day-to-day lives. The linear optimization models and methodologies help to find, for example, the best amount of ingredients in our food, the most suitable routes and timetables for the buses and trains we take, and the right way to invest our savings. We would cite many other situations that involves linear optimization, since a large number of companies around the world base their decisions in solutions which are provided by the linear optimization methodologies. In this thesis, we propose theoretical and computational developments to improve the performance of important linear optimization methods. Namely, we address simplex type methods, interior point methods, the column generation technique and the branch-and-price method. In simplex-type methods, we investigate a variant which exploits special features of problems which are formulated in the general form. We present a novel theoretical description of the method and propose how to efficiently implement this method in practice. Furthermore, we propose how to use the primal-dual interior point method to improve the column generation technique. This results in the primal-dual column generation method, which is more stable in practice and has a better overall performance in relation to other column generation strategies. The primal-dual interior point method also oers advantageous features which can be exploited in the context of the branch-and-price method. We show that these features improves the branching operation and the generation of columns and valid inequalities. For all the strategies which are proposed in this thesis, we present the results of computational experiments which involves publicly available, well-known instances from the literature. The results indicate that these strategies help to improve the performance of the linear optimization methodologies. In particular for a class of problems, namely the vehicle routing problem with time windows, the interior point branch-and-price method proposed in this study was up to 33 times faster than a state-of-the-art implementation available in the literature
2022-12-06T14:47:11Z
Pedro Augusto Munari Junior
Versão discreta do modelo de elasticidade constante da variância
Neste trabalho propomos um modelo de mercado através de uma discretização aleatória do movimento browniano proposta por Leão & Ohashi (2010). Com este modelo, dada uma função payoff, vamos desenvolver uma estratégia de hedging e uma metodologia para precificação de opções
2022-12-06T14:47:11Z
Matheus Dorival Leonardo Bombonato Menes
Optimal transport applied to eye fundus image registration
Optimal transport has emerged as a promising and effective tool for supporting modern image processing, geometric processing, and even machine learning. Indeed, the optimal transport theory enables great flexibility in modeling problems, as different optimization resources can be successfully employed while preserving a context relevant property that can be interpreted as mass. In this research, we introduce a novel automatic technique for eye fundus image registration which is based on optimal transport theory, image processing filters, graph matching, and geometric transformations into a concise and unified framework. Given two ocular fundus images, we construct representative graphs which embed in their structures spatial and topological information from the eyes blood vessels. The graphs produced are then used as input by our optimal transport model in order to establish a correspondence between their sets of nodes. We also proposed a new measure that estimates the register quality and an extension of an outlier removal technique called DeSAC. Finally, the best geometric transformation is performed on the image to properly accomplish the registration task. Our method relies on a solid mathematical foundation, is easy-to-implement and performs well when dealing with outliers created during the matching stage, producing deterministic and accurate solutions. We demonstrate the accuracy and effectiveness of the proposed methodology through a comprehensive set of qualitative and quantitative comparisons against various representative state-of-the-art methods on different fundus image databases.
2022-12-06T14:47:11Z
Danilo Andrade Motta
"Implementação de uma estrutura de dados para visualização científica"
Estruturas de dados volumétricas são de extrema utilidade em várias aplicações, e em particular na área de Visualização Científica. Essas estruturas são úteis em duas etapas do processo de visualização. A primeira é na representação de dados, isto é, de informações associadas aos valores, medidos ou simulados, os quais se deseja visualizar. A outra fase que necessita de uma estrutura de dados é a fase de exploração, ou seja, o modelo criado é usado tanto para exploração interativa quanto para a realização de simulações sobre o mesmo, por exemplo, numa cirurgia virtual. Está em desenvolvimento no ICMC, uma estrutura de dados volumétrica, chamada Singular Half-Face, que tem como característica a modelagem explícita das singularidades presentes no modelo, além de outros elementos topológicos. Este trabalho de mestrado visa testar a viabilidade da estrutura num contexto de visualização em fluxo de dados, incorporando-a à biblioteca gráfica de visualização Visualization ToolKit (VTK), que possui definição extremamente pobre da topologia dos objetos que representa. Adicionando essa nova classe e realizando sobre ela técnicas convencionais de visualização e exploração de dados, é estudada sua capacidade de apoiar todas as fases do processo de visualização.
2022-12-06T14:47:11Z
Carlos André Sanches de Souza
"Web Services de apoio a aplicações voltadas ao trabalho em grupo"
O desenvolvimento de trabalhos em grupo tornou-se uma tarefa cada vez mais comum nos dias atuais. Com isso, houve também um crescimento na utilização e no desenvolvimento de aplicações computacionais que implementam os processos de apoio à cooperação entre as pessoas, as quais possibilitam um considerável ganho de produtividade nas tarefas realizadas pelo grupo. A integração de várias dessas aplicações pode resultar em um acréscimo de funcionalidades, aumentando as possibilidades de uso e a flexibilidade para o usuário. Com o objetivo de agregar funcionalidades e melhorar os potenciais usos dos sistemas de software, aplicações integradas possuem, em geral, mais funcionalidades e maiores possibilidades de uso do que aplicações isoladas. Assim, foi desenvolvido o WS4CSCW (Web Services for Computer Supported Cooperative Work), um Web Service que tem como objetivo facilitar a integração de ferramentas e sistemas CSCW. O WS4CSCW permite o gerenciamento de usuários, grupos, recursos, permissões e papéis de usuários e grupos, disponibilizando funcionalidades para aplicações voltadas ao trabalho em grupo, bem como para facilitar a integração entre essas aplicações, permitindo um co-funcionamento mais direto, consistente e coeso.
2022-12-06T14:47:11Z
Victor Hugo Vieira
Métodos heurísticos para o problema de dimensionamento de lotes multiestágio com limitação de capacidade
O problema de dimensionamento de lotes determina um plano de produção que apoia às tomadas de decisões, a médio prazo, em meios industriais. Este plano de produção indica as quantidades de cada item que devem ser produzidas em cada período do horizonte de planejamento, de acordo com um objetivo dado e satisfazendo a demanda dos clientes. Diversos métodos de solução foram propostas na literatura, considerando a dificuldade de solução de algumas classes de problemas e a necessidade de métodos que gerem soluções de alta qualidade em um tempo computacional adequado. Neste trabalho, abordamos heurísticas baseadas na formulação matemática (LP-and-fix, relax-and-fix e fix-and-optimize), uma metaheurística (algoritmo de abelhas) e dois métodos híbridos, utilizados na solução de dois problemas distintos de dimensionamento de lotes multiestá- gio com limitação de capacidade. Consideramos também, a utilização de três formulações da literatura, para verificar a influência de cada uma sobre as abordagens de solução verificadas. Os resultados computacionais demonstraram que os métodos baseados na formulação matemática do problema se mostraram eficientes, mas limitados normalmente a ótimos locais, enquanto os métodos híbridos puderam superar estes ótimos locais, utilizando conceitos da metaheurística algoritmo de abelhas para isto. Além disso, pudemos verificar a influência de uma formulação \"forte\" sobre as soluções geradas pelas abordagens de solução, demonstrando que métodos baseados em relaxação linear conseguem obter maiores vantagens deste tipo de formulação, mas outras abordagens podem ou não obter estas vantagens, dependendo do problema abordado
2022-12-06T14:47:11Z
Marcos Mansano Furlan
Teste adaptativo computadorizado nas avaliações educacionais e psicológicas
Testes Adaptativos Computadorizados (TAC) são aqueles que selecionam gradativamente as questões (itens) a serem apresentadas ao indivíduo de acordo com o seu nível de conhecimento (traco latente). Um TAC pode se basear em um modelo da Teoria da Resposta ao Item (TRI) para a estimação do traco latente e escolha do item a ser apresentado em cada passo do teste. Este trabalho apresenta modelos da TRI utilizados em TAC encontrados na literatura e descreve alguns métodos de calibração de itens para a formação e manutenção do banco de questões do teste sob o modelo de Samejima (1969), estimação do traço latente, seleção de itens com restrições utilizando a abordagem Shadow test e critérios de parada normalmente utilizados. Foram realizadas simulações com um banco grande (500 itens) e com um banco pequeno (21 itens) e avaliada a qualidade das estimativas dos traços latente (através do cálculos dos vícios e erros quadráticos médios) de TACs com diferentes números de itens. Foi aplicado o modelo de Samejima às respostas de estudantes do Exame ao proficiência em inglês (EPI) do ICMC - USP, que é aplicado semestralmente no formato lápis e papel, para a formação de um banco de itens e posterior construção de um TAC. Também foi aplicado o modelo às respostas de pacientes clínicos do Hospital das Clínicas da Medicina da USP, cedido pelo doutor Yuang-Pang Wang, ao Inventário de Depressão de Beck (BDI) para os mesmos propósitos. Comparações com a atual metodologia para avaliação da proficiência em língua inglesa do EPI (Medida de Probabilidade Admissível, MPA) e para o diagnóstico de depressão do BDI (critério sugerido por Kendall et al., 1987) foram realizadas demonstrando as vantagens e maior riqueza dos resultados obtidos com a TRI e com os TACs implementados. Adcionalmente foi desenvolvido um programa Same-CAT que armazena bancos de itens e possibilita a criação e aplicação de TACs com restrições, através da abordagem Shadow test
2022-12-06T14:47:11Z
Thales Akira Matsumoto Ricarte
Uma abordagem distribuída e bio-inspirada para mapeamento de ambientes internos utilizando múltiplos robôs móveis
As estratégias de mapeamento utilizando múltiplos robôs móveis possuem uma série de vantagens quando comparadas àquelas estratégias baseadas em um único robô. As principais vantagens que podem ser elucidadas são: flexibilidade, ganho de informação e redução do tempo de construção do mapa do ambiente. No presente trabalho, um método de integração de mapas locais é proposto baseado em observações inter-robôs, considerando uma nova abordagem para a exploração do ambiente. Tal abordagem é conhecida como Sistema de Vigilância baseado na Modificação do Sistema Colônias de Formigas, ou IAS-SS. A estratégia IAS-SS é inspirada em mecanismos biológicos que definem a organização social de sistemas de enxames. Especificamente, esta estratégia é baseada em uma modificação do tradicional algoritmo de otimização por colônias de formiga. A principal contribuição do presente trabalho é a adaptação de um modelo de compartilhamento de informações utilizado em redes de sensores móveis, adaptando o mesmo para tarefas de mapeamento. Outra importante contribuição é a colaboração entre o método proposto de integração de mapas e a estratégia de coordenação de múltiplos robôs baseada na teoria de colônias de formigas. Tal colaboração permite o desenvolvimento de uma abordagem de exploração que emprega um mecanismo não físico para depósito e detecção de feromônios em ambientes reais por meio da elaboração do conceito de feromônios virtuais integrados. Resultados obtidos em simulação demonstram que o método de integração de mapas é eficiente, de modo que os ensaios experimentais foram realizados considerando-se um número variável de robôs móveis durante o processo de exploração de ambientes internos com diferentes formas e estruturas. Os resultados obtidos com os diversos experimentos realizados confirmam que o processo de integração é efetivo e adequado para executar o mapeamento do ambiente durante tarefas de exploração e vigilância do mesmo
2022-12-06T14:47:11Z
Janderson Rodrigo de Oliveira
Sistematização da percepção médica na construção de sistemas para recuperação de imagens por conteúdo
Nos últimos anos o mundo tem vivenciado uma avalanche de novas tecnologias para auxílio ao diagnóstico médico. Esses esforços buscam um diagnóstico rápido e preciso através de exames e informações sobre a condição física do paciente. Através do uso de imagens médicas, a radiologia busca a visualização de órgãos ou estruturas internas do corpo humano para encontrar respostas às suspeitas de problemas físicos expressos por sinais e sintomas relatados pelo paciente. Nessa área, os Sistemas de Comunicação e Armazenamento de Imagens (PACS) têm ajudado no armazenamento e organização do crescente número de imagens geradas pelos exames realizados nos hospitais. Trabalhos de pesquisa médica têm evidenciado o potencial de uso dessas imagens como auxílio à prática da Medicina Baseada em Casos Similares (MBCS). Por esse motivo, há na literatura um esforço contínuo em desenvolver técnicas computacionais para recuperação de imagens baseada em conteúdos similares (CBIR) em grandes conjuntos de dados. As consultas por similaridade são essenciais para apoiar a prática da MBCS e a descoberta de comportamentos de lesões causadas por diversas doenças. A evolução e intensificação das pesquisas em CBIR têm encontrado vários desafios. Um desses é a divergência entre os resultados obtidos automaticamente e aqueles esperados pelos radiologistas (descontinuidade semântica). Outro desafio é a falta de estudos sobre a viabilidade clínica dessas ferramentas como forma de auxílio ao diagnóstico. Esses obstáculos são dois dos principais responsáveis pela não efetivação dessa tecnologia no ambiente médico-hospitalar. Mediante o exposto acima, este trabalho de pesquisa propõe um mecanismo para contornar essa descontinuidade semântica e ao mesmo tempo aproximar o CBIR do ambiente real de aplicação. A contribuição principal deste trabalho foi o desenvolvimento de uma metodologia baseada em parâmetros perceptuais que aproximam o sistema ao nível de percepção do usuário médico. Em seguida, foi realizado um estudo sobre a viabilidade clínica do sistema CBIR no Hospital das Clínicas de Ribeirão Preto. A metodologia proposta foi aplicada e os resultados comprovaram a aplicabilidade de Sistemas CBIR como ferramenta de auxílio ao diagnóstico em um ambiente clínico real
2022-12-06T14:47:11Z
Marcelo Ponciano da Silva
Simulador extensível para navegação de agentes baseado em inteligência de enxames
A visão de muitas pessoas sobre uma colônia de formigas, em geral, é de que estes pequenos e inofensivos insetos somente se movem aleatoriamente para coletar alimento e conservá-los em seus ninhos. Um olhar destreinado não conseguiria notar o nível de complexidade e organização que é requerido por uma colônia de formigas para sua sobrevivência. Uma formiga simples é parte de um grande grupo que coopera entre si para criar um superorganismo. Sem uma autoridade central ou indivíduos com habilidade de um pensamento cognitivo complexo, a colônia se auto-organiza, e, de fato, ajusta seus recursos de uma maneira muito eficiente. Essa dissertação investiga o papel da comunicação indireta nas tarefas de exploração e forrageamento, e como isso afeta as decisões de um agente simples e traz um comportamento emergente útil à toda colônia. Por fim, este trabalho implementa uma plataforma de simulação multi-agente inspirado em formigas
2022-12-06T14:47:11Z
Danilo Nogueira Costa
A programação de produção em fundições de pequeno porte: modelagem matemática e métodos de solução
Este trabalho trata de um problema de programação da produção em fundições de pequeno porte, que consiste em programar as ligas que devem ser produzidas em cada período do planejamento e como tais ligas devem ser usadas para a produção de itens sob encomenda, de modo que atrasos e custos operacionais sejam minimizados. Devido à certa incerteza nos dados do problema, a estratégia de horizonte rolante foi empregada. Este problema é representado por um modelo matemático de programação linear inteira mista. Neste trabalho foi desenvolvida uma heurística do tipo residual para obter uma boa solução inteira factível do problema, partindo da solução contínua encontrada pelos métodos relaxe-e-fixe e busca local
2022-12-06T14:47:11Z
Claudia Fink
Projeto de um estimador de potência para o processador Nios II da Altera
Atualmente, otimizar uma arquitetura ou um sistema de software não significa, necessariamente, aumentar o seu desempenho computacional. Devido a popularização de sistemas embutidos energizados por bateria, um item de grande importância a ser otimizado é o consumo de energia. De forma a obedecer às restrições de consumo, pesquisadores têm concentrado seus esforços na criação de ferramentas que possibilitam a modelagem, a otimização e a estimação do consumo de energia. Nos últimos anos, FPGAs têm apresentado um grande desenvolvimento nos quesitos densidade, velocidade e capacidade de armazenamento. Essas características tornaram possível a construção de sistemas complexos formados por um ou mais processadores soft-core. Esse tipo de processador permite uma personalização detalhada de suas características arquiteturais, possibilitando uma melhor adequação às restrições de tempo e espaço em um projeto. O objetivo deste trabalho é construir um estimador de potência para softwares que têm como alvo o processador soft-core Nios II da Altera, permitindo saber com antecedência quanta energia será consumida devido à execução de programas e aplicações de robótica móvel. O modelo implementado neste trabalho foi testado com vários benchmarks padronizados e os resultados obtidos provaram ser bastante adequados para estimar a energia consumida por um programa, obtendo erros de estimação máximos de 4,78%
2022-12-06T14:47:11Z
Jose Arnaldo Mascagni de Holanda
Algumas extensões do problema de corte de estoque com sobras de material aproveitáveis
Os problemas de corte de estoque consistem em cortar um conjunto de objetos dispon´veis em estoque para produzir um conjunto de itens em quantidades e tamanhos especificados, de modo a otimizar uma fun¸cao objetivo. Tais problemas tem in´umeras aplica¸coes industriais e tem sido bastante estudados na literatura. Tipicamente, problemas de corte tem como principal objetivo a minimiza¸cao das sobras. Entretanto, como a qualidade dos padroes de corte depende diretamente dos tamanhos e quantidades dos itens a serem produzidos, nesta tese, consideramos que se a demanda presente gerar sobras indesej´aveis (nem tao grandes para serem aproveit´aveis, nem tao pequenas para serem perdas aceit´aveis), entao conv´em gerar retalhos (nao comput´aveis como perda) que serao utilizados para produzir itens de demandas futuras. Desta forma, algumas caracter´sticas desej´aveis para uma boa solu¸cao sao definidas e altera¸coes em m´etodos heur´sticos cl´assicos sao apresentadas, de modo que os padroes de corte com sobras indesej´aveis sao alterados. Para os problemas de corte unidimensionais, desenvolvemos procedimentos heur´sticos que consideram o aproveitamento de sobras, mantendo como o principal objetivo a minimiza ¸cao das perdas. Outra abordagem para este problema, considera o caso em que al´em da minimiza¸cao das perdas, os retalhos dispon´veis em estoque devem ter prioridade de uso em rela¸cao aos demais objetos durante o processo de corte. A an´alise do desempenho dos procedimentos heur´sticos propostos quando somente a minimiza¸cao das perdas ´e considerada, ´e realizada com base em exemplos da literatura, exemplos pr´aticos e exemplares gerados aleatoriamente. Para os procedimentos heur´sticos que priorizam o corte dos retalhos do estoque, al´em de exemplares da literatura, simulamos uma situa¸cao em m´ultiplos per´odos na qual problemas de corte de estoque em sucessivos per´odos sao resolvidos. A cada per´odo, um problema para o per´odo seguinte ´e gerado considerando atualiza¸coes do estoque, os retalhos gerados nos per´odos anteriores e uma nova demanda de itens que ´e v gerada aleatoriamente. No caso bidimensional, tamb´em consideramos problemas em que, al´em da perda m´nima, os retalhos dispon´veis em estoque devem ter prioridade de corte em rela¸cao aos demais objetos. Para resolver este problema, altera¸coes foram realizadas na abordagem grafo E/OU e em procedimentos heur´sticos da literatura. A an´alise do desempenho dos procedimentos heur´sticos propostos considera problemas pr´aticos retirados da carteira de pedidos de uma pequena empresa de esquadrias met´alicas. Devido `a dificuldade na an´alise dos procedimentos heur´sticos desenvolvidos que consideram o aproveitamento de sobras (as solu¸coes apresentam caracter´sticas importantes e conflitantes), tamb´em apresentamos neste trabalho uma estrat´egia fuzzy para facilitar a analise das solu¸coes obtidas. Os testes computacionais sao realizados considerando os procedimentos heur´sticos desenvolvidos para os problemas de corte unidimensionais com sobras aproveit´aveis e problemas gerados aleatoriamente
2022-12-06T14:47:11Z
Adriana Cristina Cherri Nicola
Otimização de desempenho de aerofólios supercríticos: uma abordagem baseada em algoritmos genéticos
O presente trabalho tem por objetivo o estudo da otimização multiobjetivo aplicada ao projeto de perfis aerodinâmicos em regime transônico, analisando comparativamente diferentes formas de definir as funções objetivo. A otimização é efetuada pelo algoritmo genético NSGA-II. Os resultados são avaliados utilizando métricas de diversidade da população e otimalidade das soluções, das quais duas são propostas. As funções objetivo são constituidas de diferentes parametrizações da geometria e diferentes técnicas de simulação numérica. A parametrização da geometria é feita utilizando a paramentrização Parsec ou a parametrização baseada em pontos de controle. A discretização do domínio espacial é feita utilizando malha estruturada conformada ao perfil e suavização por EDP elíptica. As duas técnicas de volumes finitos com diferentes modelos para o cálculo do fluxo na face do volume implementadas foram o método de Jameson (esquema centrado) e o método de Roe (esquema upwind). As comparações feitas são as seguintes: utilização de modelo viscoso e invíscido, com o uso do código Mses com a parametrização por ponto de controle; a utilização da parametrização por ponto de controle e parametrização Parsec usando o método de Jameson; e a comparação entre o método centrado e o upwind, utilizando a parametrização Parsec. Conclui-se dos resultados obtidos que a utilização da parametrização por pontos de controle é melhor. Entretanto, ainda é necessária a utilização de uma parametrização que garanta maior suavidade ou a imposição de restrições sobre a suavidade da solução. A utilização do modelo viscoso torna os resultados da otimização melhores do ponto de vista da otimalidade. Na utilização de modelos de correção viscosa, como no caso do Mses, é necessária a utilização de métodos invíscidos que forneçam resultados com maior representatividade física
2022-12-06T14:47:11Z
Rafael Gigena Cuenca
Teste de Mutação: subsídios para a redução do custo de aplicação
PARA sistematizar os testes e contornar as restrições de tempo e custo a ele associadas, diversas técnicas, critérios e ferramentas têm sido desenvolvidas. Além disso, visando ao estabelecimento de uma estratégia de teste que apresente baixo custo de aplicação e alta eficácia em revelar a presença de erros, estudos teóricos e empíricos vêm sendo conduzidos pela comunidade de teste. Os critérios de teste, Análise de Mutantes e Mutação de Interface, apresentam problemas de custo relacionados ao grande número de mutantes gerados e equivalentes, sendo de fundamental importância o desenvolvimento de abordagens que viabilizem a sua aplicação prática. O presente trabalho está inserido nesse contexto e tem como objetivo analisar os operadores de mutação implementados nas ferramentas Proteum e PROTEUM/IM, que apoiam a aplicação dos critérios Análise de Mutantes e Mutação de Interface, respectivamente, levando em consideração não só o número de mutantes gerados mas também o esforço requerido na identificação e eliminação de mutantes equivalentes e mutantes que morrem facilmente. Tal análise permitiu a determinação de heurísticas para eliminação de mutantes equivalentes e o estabelecimento de estratégias incrementais para aplicação dos operadores de mutação, reduzindo com isso o custo do teste em nível de unidade e de integração sem comprometer sua qualidade e contribuindo para a evolução dessas ferramentas para a sua aplicação em ambientes industriais de produção de software.
2022-12-06T14:47:11Z
Rodrigo Funabashi Jorge
Problemas de otimização linear canalizados e esparsos
A otimização linear tem sido objeto de estudo desde a publicação do método simplex em 1947, o qual vem sendo utilizado na prática com relativa eficiência. Com isso, inúmeras variantes deste método surgiram na tentativa de se obter métodos mais eficientes, além de várias implementações objetivando a resolução de problemas de grande porte. Os problemas de otimização linear canalizados e esparsos, objeto principal deste trabalho, são problemas de grande interesse prático, pois representam vários problemas reais, como por exemplo, problemas da programação da produção, problemas de mistura e muitos outros. O método dual simplex canalizado com busca linear por partes é um método do tipo simplex especializado para os problemas de otimização linear canalizados e será detalhado neste trabalho. Experiências computacionais foram realizadas para algumas classes de problemas de otimização linear com o objetivo de analisar o desempenho deste método, o qual foi implementado com algumas heurísticas de pivoteamento e formas de atualização da matriz básica para tentar manter a esparsidade presente e reduzir o tempo de resolução dos problemas.
2022-12-06T14:47:11Z
Carla Taviane Lucke da Silva Ghidini