RCAAP Repository
Algoritmos evolutivos para problemas de projeto de redes aplicados à filogenia
Um dos principais problemas da Biologia é tentar explicar o processo evolutivo das espécies existentes e de que forma essas espécies se relacionam em termos de ancestrais comuns. A determinação dessas relações evolutivas dá-se o nome de filogenia ou reconstrução de árvores filogenéticas. A reconstrução de árvores filogenéticas têm sido importante para uma variedade de problemas, tais como: taxonomia, virologia, filogenômica, alinhamento múltiplo de sequências, entre outras. Um problema fundamental em filogenia consiste no fato das espécies ancestrais que existiram no passado não poderem ser observadas diretamente. Assim, é necessário buscar mecanismos para, analisando os organismos atuais, recuperar informações a respeito das relações de parentesco com os organismos ancestrais hipotéticos. Neste sentido, as técnicas filogenéticas buscam determinar os ancestrais hipotéticos que melhor representam um processo evolutivo que explique as espécies existentes. Os Algoritmos Evolutivos (AEs) têm mostrado resultados significativos em filogenia. Por outro lado, a reconstrução de árvores filogenéticas é um problema de Projeto de Redes (PR) para o qual novas abordagens evolutivas têm sido desenvolvidas recentemente buscando o aumento de eficiência computacional. Este trabalho investiga a aplicação dessas novas abordagens para filogenia.
Identificação de espécies vegetais por meio da análise do contorno foliar - uma abordagem bio-inspirada
A identificação de unia planta exige, pelos padrões de taxionomia vegetal, a análise de folhas, flores e frutos. O projeto TreeVis surge com uma proposta de auxiliar na identificação de espécies vegetais, por meio do uso de métodos biométricos, a partir da análise de alguns atributos de uma folha. A contribuição inicial deste trabalho de mestrado, para o projeto TreeVis, está obtenção de classificadores por meio do uso de assinaturas de contorno, sob o domínio da frequência, possibilitando a composição de diversos tipos de assinaturas e classificadores para uma mesma espécie. Devido à baixa eficiência obtida por métodos de classificação como distância mínima, optou-se pelo uso de redes neurais. Essa abordagem evidenciou a necessidade de solução de dois problemas: o grande número de possibilidades de composição de sinais o que ocasionaria um grande esforço computacional para a obtenção de todas respectivas redes neurais; e o reduzido número das amostras utilizadas no trabalho - o qual comprometeria as etapas de treinamento e teste de uma rede neural. Para a solução desses problemas, foram desenvolvidos dois métodos: o primeiro método identifica e seleciona as assinaturas que apresentam um maior potencial de sucesso em obter um classificador por meio de redes neurais, solucionando o problema e desperdício de esforço computacional; o segundo método possibilita a geração de amostras artificiais de folhas através da combinação dos espectros de frequência do contorno das amostras reais por meio operadores genéticos de cross-over e mutação. Solucionadas as duas questões, foram obtidas diversas redes neurais, através da indicação das assinaturas de melhor potencial e treinadas com amostras artificiais. Do total de 31 classes, 7 foram descartadas da tentativa de obtenção de classificadores por não apresentarem nenhuma assinatura com potencial de classificação - conforme indicação do método desenvolvido. Das 24 espécies restantes, foram obtidos classificadores para 18 espécies (75%) com taxas médias de 85% de acerto. A execução deste trabalho necessitou do desenvolvimento de um arcabouço para a automatização da geração, treinamento e teste das redes neurais.
Implantação do reúso de componentes no processo de desenvolvimento de software
Frente à grande demanda por software e à forte competitividade existente no mercado atual, o alcance de alguns objetivos, tais como aumento de qualidade e de produtividade, redução dos prazos de entrega e dos custos globais do desenvolvimento de software, tem sido apresentado como bastante importante para o sucesso de uma organização de desenvolvimento de sistemas. Neste cenário, o reúso sistemático de componentes de software tem exercido o papel de grande colaborador para o alcance desses objetivos. Para a concretização de sua prática efetiva. porém, o reúso vêm enfrentando barreiras de diversas origens, como questões técnicas e organizacionais. Assim, é importante que a introdução do reúso aborde tais questões de maneira integrada e gradativa, respeitando o tempo natural da organização para a absorção de mudanças e cuidando para que seu impacto seja reduzido. Desta maneira, o principal objetivo deste projeto foi o desenvolvimento de uma estratégia que sistematizasse o processo de introdução do reúso em uma organização, considerando mudanças organizacionais, técnicas e processuais, assim como sua sequência de execução, suas consequências e dificuldades. Para criar e validar esta estratégia, foi desenvolvido um estudo de caso no Laboratório de Inteligência Computacional do Instituto de Ciências Matemáticas e de Computação da Universidade de São Paulo. Neste estudo de caso, foi também selecionado um conjunto mínimo de atividades e requisitos importantes para viabilização do reúso e desenvolvida a especificação de um ambiente, denominado RaCooMN [Reusable Components Management ENvironment), que automatiza muitas das atividades propostas na estratégia referentes ao armazenamento e gerenciamento dos componentes.
2003
Talita Andréa Avante Rozante
Planejamento de sistemas hidrotérmicos empregando um modelo com sensibilidade ao risco de vertimento
A importância do planejamento de sistemas hidrotérmicos é largamente reconhecida. A questão constitui-se em um complicado problema de otimização que envolve aspectos não-lineares e estocásticos, e que se torna mais complexo quando várias usinas são consideradas em conjunto, em virtude da ocorrência de interações. Apesar de se conhecerem formalizações teóricas do problema e da solução, a complexidade acarreta sérios entraves computacionais e muitas vezes consideram-se apenas cenários simplificados, como o determinístico ou estocástico com um modelo de reservatório equivalente. Este trabalho tem como objetivo conciliar a facilidade numérica de problemas determinísticos com a consideração indireta da natureza estocástica do problema. Com esta finalidade, propõe-se o uso de um funcional de custo que reflete o risco de vertimento a cada período. Outra linha estudada neste trabalho foi a de rastreamento de alvo utilizando a técnica de controle Linear Quadrático (LQ). A eficácia das estratégias propostas é avaliada através de diversos casos de estudo, incluindo comparação com o planejamento determinístico usual
2006
Amanda Maciel Pontes de Lima
Controle de acesso baseado em tokens para nuvem de coisas: Uma análise entre segurança e desempenho aplicado a dados sensitivos de saúde
A Internet das Coisas é considerada um dos pilares da quarta revolução tecnológica que tem transformado a forma de viver das pessoas, possibilitando melhorias na qualidade de vida, aumento da produtividade e economia de custos. Como toda nova tecnologia, vários desafios surgiram e precisam ser superados para que a Internet das Coisas obtenha um nível estável de utilização. Entre os desafios enfrentados, um dos mais importantes está relacionado à segurança e a privacidade dos usuários, como por exemplo, o controle de acesso. Um dos modelos mais utilizados para o controle de acesso neste universo, é o modelo baseado em capacidades que utiliza tokens para autenticação e autorização de usuários e dispositivos. Estes tokens são normalmente protegidos por criptografia para prover integridade e confidencialidade. Porém, a escolha da criptografia e das informações contidas nos tokens podem afetar drasticamente o desempenho de aplicações que exigem alta responsividade. Assim, o objetivo deste trabalho foi avaliar o impacto que estas escolhas geram no tempo de resposta final para o usuário. Definimos e construímos um protótipo de arquitetura que possibilitou avaliar dois dos principais algoritmos para assinatura de tokens (HMAC e RSA). Nosso intuito foi quantificar o melhor trade-off em termos de segurança e desempenho para dados sensitivos de saúde gerados a partir de dispositivos inteligentes. A finalidade foi auxiliar os desenvolvedores de aplicações na melhor configuração de tokens para o controle de acesso em suas aplicações e verificar quais variáveis mais impactam no tempo de resposta final. Para alcançar este objetivo, adotamos o processo de Avaliação de Desempenho de Sistemas Computacionais junto de um conjunto de planejamento de experimentos que auxiliaram na avaliação do protótipo construído. Além disso, coletamos métricas de consumo de memória e CPU visando avaliar o consumo em sistemas com baixo poder computacional.
2020
Welington da Silva Martins
Modelagem e desenvolvimento de uma arquitetura distribuída para o gerenciamento de recursos híbridos em nuvem privada
A computação em nuvem é um paradigma revolucionário que engloba alta conectividade, elasticidade, serviços mensuráveis e de fácil gestão. Esses atributos colaboram com o impulsionamento da tecnologia e parte de sua eficiência baseia-se em realizar a alocação de recursos virtuais e atribuição de serviços. Por conta da alta demanda por processamento de dados em aplicações Web nos últimos anos, houve uma maior oferta de poder computacional pelos provedores de serviço e em função disso pode-se atender um número variado de demandas e clientes. Por conta disso a modelagem de uma arquitetura em nuvem, deve compreender desde o levantamento de tarefas, especificação dos módulos e funções de cada componente da arquitetura. MoHRiPA é um protótipo que tem como objetivo o gerenciamento de recursos computacionais e atendimento de requisições em uma nuvem privada. Assim o intuito do projeto foi desenvolver uma arquitetura de nuvem distribuída e orientada a serviços que tenha funções hibridas com módulos independentes que realizam funções específicas como alocação de recursos, atribuição de serviços, monitoramento e mapeamento da infraestrutura. O protótipo apresenta um diferencial em relação a alguns trabalhos da literatura que não abordam adequadamente os mecanismos de avaliação de desempenho, sendo esses fundamentais para estabelecer os pontos fortes e fracos da arquitetura. O método utilizado para a pesquisa compreende a modelagem da arquitetura, a especificação dos componentes, assim como uma ênfase nos módulos que possuem propriedades hibridas por suportar o uso de diferentes ferramentas de virtualização e monitoramento. A solução da arquitetura apresentada, permite avaliar sob o aspecto de desempenho o que vários trabalhos na literatura pouco exploram: a avaliação do desempenho geral da solução com técnicas formais, como o planejamento fatorial completo que ofereceram análises mais acuradas acerca das funcionalidades e peculiaridades dos módulos da arquitetura. Em conclusão o trabalho modelou uma arquitetura em nuvem, a fim de desenvolver um protótipo com componentes que desempenha-se as funções da computação em nuvem, a atribuição de diferentes modelos de serviço e a avaliação desses componentes como um todo. Em relação ao resultados foram modelados experimentos avaliando a atribuição de máquinas virtuais e avaliando os algoritmos de mapeamento de recursos que apresentaram resultados satisfatórios.
2020
Gabriel Tomiatti Andreazi
Unsupervised Dimensionality Reduction in Big Data via Massive Parallel Processing with MapReduce and Resilient Distributed Datasets
The volume and complexity of data generated in scientific and commercial applications have been growing exponentially in many areas. Nowadays, it is common the need for finding patterns in Terabytes or even Petabytes of complex data, such as image collections, climate measurements, fingerprints and large graphs extracted from the Web or from Social Networks. For example, how to analyze Terabytes of data from decades of frequent climate measurements comprised of dozens of climatic features, such as temperatures, rainfall and air humidity, so to identify patterns that precede extreme weather events for use in alert systems? A well-known fact in complex data analysis is that the search for patterns requires preprocessing by means of dimensionality reduction, due to a problem known as the curse of high-dimensionality. Nowadays, few techniques have been able to effectively reduce the dimensionality of such data in the scale of Terabytes or even Petabytes, which are referred to in this monograph as Big Data. In this context, massively parallel processing, linear scalability to the number of objects, and the ability to detect the most diverse types of correlations among the attributes are exceptionally desirable. This MSc work presents an in-depth study comparing two distinct approaches for dimensionality reduction in Big Data: ( a ) a standard approach based on data variance preservation, and; ( b ) an alternative, Fractal-based solution that is rarely explored, for which we propose a fast and scalable algorithm based on MapReduce and concepts from Resilient Distributed Datasets, using a new attribute-set-partitioning strategy that enables us to process datasets of high dimensionality. We evaluated both strategies by inserting into 11 real-world datasets, redundant attributes formed by correlations of various types, such as linear, quadratic, logarithmic and exponential, and verifying the ability of these approaches to detect such redundancies. The results indicate that, at least for large datasets with up to 1;000 attributes, our fractal-based technique is the best option. It removed redundant attributes in nearly all cases with high precision, as opposed to the standard variance-preservation approaches that presented considerably worse results even when applying the KPCA technique that is made to detect nonlinear correlations.
2020
Jadson Jose Monteiro Oliveira
Alocação e Dimensionamento de Geração Distribuída em Sistemas Elétricos de Distribuição
A escassez de combustíveis fósseis e a preocupação crescente com preservação ambiente, têm incentivado novas formas sustentáveis de geração de energia elétrica. A luz desse contexto, a inserção de geradores distribuídos em sistemas de distribuição radiais, podem levar a vários benefícios, como a postergação no investimento da expansão do sistema de transmissão e distribuição, diversificação da matriz energéticas dos países, redução de perdas, confiabilidade do sistema, além de contribuir para demanda de energia. A redução de perdas de energia elétrica na rede de distribuição tem sido uma prioridade importante, tendo em vista, que ela mesma levará não somente benefício financeiros, como também técnicos. Várias abordagens têm sido propostas durante décadas para o problema de minimização de perdas em sistema de distribuição, duas técnicas têm sida amplamente utilizadas como, a reconfiguração e alocação de geradores distribuídos. Neste contexto, esse trabalho apresenta duas propostas de reconfiguração, alocação e dimensionamento de geradores distribuídos. O primeiro um modelo de programação quadrática inteira mista (PQIM) e o segundo um algoritmo genético multi-populacional (AGM). Em ambas abordagens, os problemas de reconfiguração, alocação e dimensionamento podem serem tratados de forma individual, sequencial ou simultânea. As simulações foram realizadas nos sistemas de 33 barras, 69 barras, 70 barras, 83 barras, 135 barras, 201 barras e 10476 bus, os resultados obtidos mostraram-se de boa qualidade, e desta forma mostrando ainda a validade das abordagens propostas.
2020
Alessandro Wilk Silva Almeida
Seleção supervisionada de características por ranking para processar consultas por similaridade em imagens médicas
Obter uma representação sucinta e representativa de imagens médicas é um desafio que tem sido perseguido por pesquisadores da área de processamento de imagens médicas com o propósito de apoiar o diagnóstico auxiliado por computador (Computer Aided Diagnosis - CAD). Os sistemas CAD utilizam algoritmos de extração de características para representar imagens, assim, diferentes extratores podem ser avaliados. No entanto, as imagens médicas contêm estruturas internas que são importantes para a identificação de tecidos, órgãos, malformações ou doenças. É usual que um grande número de características sejam extraídas das imagens, porém esse fato que poderia ser benéfico, pode na realidade prejudicar o processo de indexação e recuperação das imagens com problemas como a maldição da dimensionalidade. Assim, precisa-se selecionar as características mais relevantes para tornar o processo mais eficiente e eficaz. Esse trabalho desenvolveu o método de seleção supervisionada de características FSCoMS (Feature Selection based on Compactness Measure from Scatterplots) para obter o ranking das características, contemplando assim, o que é necessário para o tipo de imagens médicas sob análise. Dessa forma, produziu-se vetores de características mais enxutos e eficientes para responder consultas por similaridade. Adicionalmente, foi desenvolvido o extrator de características k-Gabor que extrai características por níveis de cinza, ressaltando estruturas internas das imagens médicas. Os experimentos realizados foram feitos com quatro bases de imagens médicas do mundo real, onde o k-Gabor sobressai pelo desempenho na recuperação por similaridade de imagens médicas, enquanto o FSCoMS reduz a redundância das características para obter um vetor de características menor do que os métodos de seleção de características convencionais e ainda com um maior desempenho em recuperação de imagens
2012
Gabriel Efrain Humpire Mamani
Empregando técnicas de projeção multidimensional para transformação interativa de espaços de características
A tecnologia atual permite armazenar grandes quantidades de dados, no entanto sua exploração e compreensão resultam em um enorme desafio devido não só ao tamanho dos conjuntos produzidos mas também sua complexidade. Nesse sentido a visualização de informação vem se mostrando um recurso extremamente poderoso para ajudar a interpretar e extrair informação útil desse universo de dados. Dentre as abordagens existentes, as tecnicas de projeção multidimensional estão emergindo como um instrumento de visualização importante em aplicações que implicam a análise visual de dados de alta dimensão devido ao poder analítico que essas oferecem na exploração de relações de similaridade e correlação de dados abstratos. Contudo, os resultados obtidos por tais técnicas estão intimamente ligados à qualidade do espaço de características que descrevem os dados sendo processados. Se o espaço for bem formado e refletir as relações de similaridade esperadas por um usuário, os resultados nais serão satisfatórios. Caso contrário pouca utilidade terão as representações visuais geradas. Neste projeto de mestrado técnicas de projeção multidimensional são empregadas, para, não somente explorar conjuntos de dados multidimensionais, mas também para servir como um guia em um processo que visa \"moldar\" espaços de características. A abordagem proposta se baseia na combinação de projeções de amostras e mapeamentos locais, permitindo ao usuário de forma interativa transformar os atributos dos dados por meio da modicação dessas projeções. Mais especicamente, as novas relações de similaridade criadas pelo usuário na manipulação das projeções das amostras são propagadas para o espaço de característica que descreve os dados, transformando-o em um novo espaço que reflita essas relações, ou seja, o ponto de vista do usuário sobre as semelhanças e diferenças presentes nos dados. Resultados experimentais mostram que a abordagem desenvolvida nesse projeto pode com sucesso transformar espaços de características com base na manipulação da projeção de pequenas amostras, melhorando a coesão e separação de grupos. Com base no ferramental criado, um sistema de recuperação de imagens por conteúdo e sugerido, mostrando que a abordagem desenvolvida pode ser bastante útil nesse tipo de aplicação
2012
Gladys Marleny Hilasaca Mamani
RELAXAÇÃO LAGRANGEANA EM PROGRAMAÇÃO INTEIRA
Neste trabalho abordamos a teoria da relaxação lagrangeana para resolução de problemas de programação linear inteira, a qual tem sido extensivamente usada e apresentado resultados satisfatórios. Esta abordagem busca reformular um problema inteiro, fazendo deste um problema mais simples. Para tal, relaxa-se algumas restrições, colocando-as como um termo \"penalidade\" na função objetivo, criando assim o chamado \"problema lagrangeano\". É formulado o problema dual, o qual pode ser resolvido pelo método subgradiente ou variações deste. A relaxação lagrangeana tem mostrado muita eficiência também quando usada para gerar limitantes para o algoritmo \"Branch-and-Bound\". Em muitos casos tais limitantes são melhores que os dado pela relaxação linear, gerando uma árvore de tamanho reduzido. Esta técnica lagrangeana tem sido aplicada com sucesso a um grande número de problemas importantes de pesquisa operacional, por exemplo: rotas, localização, sequenciamento, designação, cobertura entre outros.
1990
Helenice de Oliveira Florentino Silva
Uma abordagem baseada em córpus e em sistemas de crítica para a construção de ambientes Web de auxílio à escrita acadêmica em português
Ferramentas computacionais destinadas a auxiliar a escrita na língua inglesa têm se tornado cada vez mais comuns, incluindo tanto sistemas dedicados ao pós-processamento do texto como sistemas mais completos, que atuam desde a geração e organização de idéias até a escrita. Entre esses sistemas M aqueles que apóiam especificamente a escrita de textos acadêmicos, um gênero mais tratável computacionlmente dada a sua rigorosa padronização. Em contraste, para o português não há sistemas semelhantes, mas apenas ferramentas de pós-processamento, como corretores ortográficos, revisores gramaticais, dicionários para consulta, entre outras, de aplicação geral. Nesta tese de doutorado, focalizamos o problema da escrita em português de teses e dissertações, visando uma modelagem computacional que segue uma abordagem baseada em córpus e em sistemas de crítica, para a criação e avaliação de ferramentas de apoio à criação de textos desse gênero. Para viabilizar o projeto, restringimos nossa análise às seções Resumo e Introdução, notadamente mais padronizadas, e à área de Ciência cia. Computado. A integração dos recursos e ferramentas desenvolvidos resultou no protótipo SeiPo (Scientific Portuguese), implementado como um ambiente Web, que contempla tanto a composição top-down do texto (partindo do planejamento estrutural para a escrita propriamente dita) quanto bottom-up (partindo de um rascunho já escrito). Para avaliar o ScíPo no seu contexto de uso, foram realizados experimentos com usuários reais, visando verificar a eficácia do modelo subjacente ao SeiPo. Os resultados desses experimentos demonstraram que tal modelo de fato tem potencial no auxílio à escrita acadêmica.
2004
Valéria Delisandra Feltrim
Balanceamento de Carga em Ambientes Paralelos Virtuais com Aplicações no PVM-W95
Esta dissertação de mestrado aborda o problema de balanceamento de carga em ambientes paralelos virtuais, com aplicações desenvolvidas em PVM-W95. São considerados no desenvolvimento deste trabalho algoritmos de balanceamento estáticos e dinâmicos, incluindo métodos de distribuição e de migração de tarefas. O trabalho apresenta uma vasta revisão bibliográfica que cobre os principais métodos e algoritmos de balanceamento de cargas em ambientes distribuídos e paralelos, propostos nos últimos anos. Os métodos e algoritmos relevantes para o domínio de aplicação considerado são cuidadosamente investigados. Os algoritmos estudados são implementados como parte dos programas de aplicação e o estudo desenvolvido abrange fundamentalmente programas com alto processamento numérico. Os resultados obtidos mostram claramente que o método gradiente e os algoritmos globais são os mais eficientes para os programas aplicativos desenvolvidos e para o ambiente paralelo virtual adotado.
1997
Flavio Arnaldo Braga da Silva
Sistemas Hipermídia para o Ensino: Estendendo as Facilidades para o Tutor e o Estudante
Este trabalho discute o potencial e, principalmente, os problemas decorrentes do uso de sistemas hipermídia tradicionais (i.é redes de páginas manipuladas por browser) em aplicações de ensino & aprendizagem. Argumenta-se que um dos grandes problemas dos sistemas hipermídia consiste na usual falta de qualquer controle sobre a navegação do usuário, que pode refletir negativamente no processo de aprendizagem. O trâbalho propõe, e implementa no protótipo SASHE, o uso de recursos extremamente simples, como a associação de atributos aos nós do hiperdocumento, bem como a exploração da característica de aninhamento (ou composição) de nós, já usual nos modelos conceituais de hipermídia, para modelar aplicações hipermídia que atendam a algumas das necessidades tanto do autor quanto do estudante. Tais contribuições consistem em: a) oferecer mais recursos ao usuário-estudante, além das funções de controle; isto se dá através de um conjunto botões da interface para o acesso a informações contextuais, de controle e estratégicas (busca de nós alternativos de acordo com dificuldade associada e nó atual); b) oferecer mais recursos ao usuário-autor, no sentido de fornecer-lhe ferramentas de autoria de hiperdocumentos \"qualificados\" para aplicações no ensino (independente do domínio de conhecimento), bem como de possibilitar a criação de roteiros que imprimem uma forma de controle \"flexível\": ao selecionar cada nó que fará pafte de um roteiro, o autor pode definir um \"grau de liberdade\" associado, correspondente a um contexto da hierarquia que engloba aquele nó. O autor, ao definir os limites de \"fuga\" do roteiro, indica quais informações periféricas podem contribuir à leitura do estudante, sem interferirem negativamente nos objetivos do autor.
1997
Gustavo Henrique Rosalem dos Santos
Uso de Modelos de Estratégia de Tipo II em Confiabilidade de Software
Nesta dissertação de mesûado, exploramos os modelos estatísticos de confiabilidade de softrvare que utilizam os processos de Poisson homogêneo e não homogêneo para modelagem dos dados de falhas. Para modelar os instantes de falhas, escolhemos a classe de modelos de estatísticas de ordem proposta por Yang (1994). Propomos uma extensão desses modelos, considerando a distribuição gaussiana inversa, para modelar a função de valor médio dos processos de Poisson não homogêneo. Os métodos considerados para fazet inferências pam os parâmetros de interesse são os métodos Bayesianos. Exploramos, ainda, o uso de algorinnos de Metropolis com etapas Gibbs para desenvolver a inferência Bayesiana. Tendo em vista a verificação das suposições dos modelos de estatísticas de ordem, desenvolvemos e incorporamos algumas técnicas Bayesianas de diagnóstico. Baseamos a seleção de modelos nos valores de predição ordenados. A metodologia desenvolvida neste trabalho é exemplificada com conjuntos de dados introduzidos por Jelinski e Moranda (1972) e Goel (1985).
Solução Numérica de Escoamentos Axisimétricos Não-Newtonianos com Superfícies Livres
Este trabalho apresenta um método numérico para resolver escoamentos axisimétricos não-Newtonianos com superfícies livres. A metodologia empregada é uma extensão do código bidimensional GENSMAC para problemas axisimétricos. O código GENSMAC é uma técnica numérica que utiliza o método das particulas marcadoras ( \"marker-and-cell\" ) para simular escoamentos incompressíveis transientes. As equações governantes são resolvidas usando o método de diferenças finitas numa malha diferenciada ( \"staggered grid\" ). O fluido é representado por partículas marcadoras, as quais permitem a localização e visualização da superfície livre do fluido. Vários exemplos que demonstram a aplicação dessa nova técnica são apresentados. Em particular, a simulação de enchimento de moldes, do \"die-swell\" e do \"splashing drop\" são apresentados.
Inferência em Confiabilidade de Software Utilizando o Modelo de Goel e Okumoto com Captura-Recaptura
Nesta dissertação de mestrado, apresentamos uma abordagem clássica e Bayesiana para o modelo de Captura-Recaptura proposto por Nayak (1988) para obter informação sobre o número de falhas, N, em um sistema de confiabitidade. A probabilidade de corrigir um elro, p, é assumida ser conhecida e desconhecida. Mostramos que o e.m.v. de N depende não somente das freqüências dos erros detectados, como também dos tempos entre falhas. A \'sensibilidade\' da distribuição a posteriori de N com respeito a p e a influência dos tempos entre falhas, são considerados através da distância da variação total e divergência de Kullback-Leibler. Também mostramos que a correção por recaptura é uma condição necessária para a existência da distribuição a posteriori de N quando utilizamos uma priori imprópria.
Uma Metodologia para Representação do Tempo em Modelos de Dados
Este trabalho estuda implicações do tempo na modelagem de dados e o tratamento a ele dispensado nos Modelos de Dados construídos para este fim. Busca-se soluções à representação do tempo em Sistemas de Informações apoiados em BD relacionais . Para este fim foram pesquisados conceitos de tempo, modelos de dados temporais e outras soluções propostas na literatura. A base desta pesquisa é resolver situações práticas de um projeto de Sistema de Informações (estudo de caso em uma Empresa de Telefonia) onde o tratamento de tempo é imprescindível. são propostas soluções que incorporam o tratamento de tempo no Modelo Entidade-Relacionamento Estendido, as quais podem ser generalizadas para atender problemas com características semelhantes.
1997
Luis Ricardo de Figueiredo
Problema de Corte Bidimensional Guilhotinado Restrito em 2-Estágios
Uma placa de dimensões (L,W) deve ser cortada para produzir m peças de dimensões (li, wi), às quais estão associados valores de utilidade vi e um limite máximo bi (problema restrito), i =1,...,m. Os cortes são do tipo guilhotinado e limitados a 2-estágios. O problema consiste em maximizar o valor de utilidade total. Neste trabalho estendemos a abordagem clássica de Glmore e Gomory para problemas irrestritos, onde apresentamos um modelo matemático de otimização inteira não-linear, e propomos métodos de solução baseados na relaxação lagrangeana e heurísticas. Resultados computacionais são apresentados ao final.
1997
Maria Cristina Nogueira Gramani
Representação de Audio em Banco de Dados
Os sistemas de banco de dados têm sofrido um processo de constante evolução, e ultimamente, diversas novas frentes têm se aberto. Uma frente importante é a da orientação a objetos, com a criação dos SGBD00- Sistemas Gerenciadores de Banco de Dados Orientado a Objetos. Dentre os vários SGBDOO existentes temos: 02, GemStone, Object Store, MRO-Modelo de Representação de Objetos, entre outros. Este trabalho apresenta um estudo de diversos sistemas. Em cada um deles foi analisado interfaces, controle de versões, gerenciamento de armazenamento, linguagem de manipulação de esquemas, arquitetura do sistema, entre outros.Além deste estudo foram analisadas características de áudio. De acordo com a acústica - uma parte da fisica - o som é o efeito produzido no aparelho auditivo pelas vibrações das moléculas de um meio transmissor. Este meio transmissor normalmente é o ar, mas também existem outros meios possíveis [Gome931.Foram verificadas as várias formas de gravação de áudio, entre elas a digitalização e a síntese. No processo de gravação foram analisados alguns formatos de arquivo para armazenamento, permitindo assim o balizamento da escolha. Dentre os formatos estudados estão: MOD, WAV, SBI e SBK, SNG e MIDI.Com base nestes estudos realizados, este trabalho apresenta uma avaliação das técnicas para a armazenagem e recuperação de áudio em bases de dados. O modelo de dados que serve de suporte para essa avaliação é o MIRO sendo que o GEO é a implementação do MIRO. Foi feito o tratamento de som em nível de esquema para o modelo e em nível de interface para o GEO. O tratamento de som permite o armazenamento e a recuperação de músicas, usando o formato MIDI.
1997
Marisa Beck Figueiredo