Repositório RCAAP
Métodos de busca em coordenada
Problemas reais em áreas como aprendizado de máquina têm chamado atenção pela enorme quantidade de variáveis (> 10^6) e volume de dados. Em problemas dessa escala o custo para se obter e trabalhar com informações de segunda ordem são proibitivos. Tais problemas apresentam características que podem ser aproveitadas por métodos de busca em coordenada. Essa classe de métodos é caracterizada pela alteração de apenas uma ou poucas variáveis a cada iteração. A variante do método comumente descrita na literatura é a minimização cíclica de variáveis. Porém, resultados recentes sugerem que variantes aleatórias do método possuem melhores garantias de convergência. Nessa variante, a cada iteração, a variável a ser alterada é sorteada com uma probabilidade preestabelecida não necessariamente uniforme. Neste trabalho estudamos algumas variações do método de busca em coordenada. São apresentados aspectos teóricos desses métodos, porém focamos nos aspectos práticos de implementação e na comparação experimental entre variações do método de busca em coordenada aplicados a diferentes problemas com aplicações reais.
2017
Luiz Gustavo de Moura dos Santos
PATO: um ambiente integrado com interface gráfica para a curadoria de dados de sequências biológicas
A evolução das tecnologias de sequenciamento de DNA tem permitido a elucidação da sequência genômica de um número cada vez maior de organismos. Contudo, a obtenção da sequência nucleotídica do genoma é apenas a primeira etapa no estudo dos organismos. O processo de anotação consiste na identicação as diferentes regiões de interesse no genoma e suas funcionalidades. Várias ferramentas computacionais foram desenvolvidas para auxiliar o processo de anotação, porém nenhuma delas permite ao usuário selecionar sequências, processá-las de forma a encontrar evidências a respeito das regiões genômicas, como predição gênica e de domínios protéicos, analisá-las gracamente e adicionar informações a respeito de suas regiões em um mesmo ambiente. Assim, o objetivo desse projeto foi o desenvolvimento de uma plataforma gráca para a anotação genômica que permite ao usuário realizar as tarefas necessárias para o processo de anotação em uma única ferramenta integrada a um banco de dados. A idéia é proporcionar ao usuário liberdade para trabalhar com o seu conjunto de dados, possibilitando a seleção de sequências para análise, construção dos pipelines processamento das mesmas e análise dos resultados encontrados a partir de visualizador que permite ao usuário adicionar in- formações às regiões e fazer a curadoria das sequências. A ferramenta resultante é facilmente extensível, permitindo o acoplamento modular de novas funcionalidades de anotação e sua estrutura permite ao usuário trabalhar tanto com projetos de sequências expressas como anotação de genomas.
2013
Liliane Santana Oliveira
Measuring inconsistency in probabilistic knowledge bases
In terms of standard probabilistic reasoning, in order to perform inference from a knowledge base, it is normally necessary to guarantee the consistency of such base. When we come across an inconsistent set of probabilistic assessments, it interests us to know where the inconsistency is, how severe it is, and how to correct it. Inconsistency measures have recently been put forward as a tool to address these issues in the Artificial Intelligence community. This work investigates the problem of measuring inconsistency in probabilistic knowledge bases. Basic rationality postulates have driven the formulation of inconsistency measures within classical propositional logic. In the probabilistic case, the quantitative character of probabilities yielded an extra desirable property: that inconsistency measures should be continuous. To attend this requirement, inconsistency in probabilistic knowledge bases have been measured via distance minimisation. In this thesis, we prove that the continuity postulate is incompatible with basic desirable properties inherited from classical logic. Since minimal inconsistent sets are the basis for some desiderata, we look for more suitable ways of localising the inconsistency in probabilistic logic, while we analyse the underlying consolidation processes. The AGM theory of belief revision is extended to encompass consolidation via probabilities adjustment. The new forms of characterising the inconsistency we propose are employed to weaken some postulates, restoring the compatibility of the whole set of desirable properties. Investigations in Bayesian statistics and formal epistemology have been interested in measuring an agent\'s degree of incoherence. In these fields, probabilities are usually construed as an agent\'s degrees of belief, determining her gambling behaviour. Incoherent agents hold inconsistent degrees of beliefs, which expose them to disadvantageous bet transactions - also known as Dutch books. Statisticians and philosophers suggest measuring an agent\'s incoherence through the guaranteed loss she is vulnerable to. We prove that these incoherence measures via Dutch book are equivalent to inconsistency measures via distance minimisation from the AI community.
OntoBacen: uma ontologia para gestão de riscos do sistema financeiro brasileiro
A crise mundial de 2008 impulsionou o avanço das políticas de governança do sistema financeiro global. Parte dessas políticas envolve a reformulação de processos de gerenciamento de informações, e neste cenário de reestruturação tecnológica, várias iniciativas se propõem a solucionar alguns dos problemas já conhecidos. Para viabilizar a adoção de um sistema financeiro global integrado e robusto, grandes empresas de tecnologia e instituições financeiras somam esforços para atender melhor às necessidades do setor. A arquitetura da World Wide Web é uma constante nessas iniciativas, e parte delas buscam os benefícios previstos pelas tecnologias semânticas, tais como sua alta capacidade de integração de dados heterogêneos e utilização de algoritmos de inferência para a dedução de informações. O objetivo deste estudo é utilizar ontologias e tecnologias semânticas, tais como OWL, na gestão de riscos do sistema financeiro, particularmente para verificar a sua aplicabilidade nas políticas de gestão de riscos específicas do sistema financeiro brasileiro, estabelecidas pelas normas publicadas pelo Banco Central (BACEN).
Extração de aleatoriedade a partir de fontes defeituosas
Recentemente, Barak et al. (2004) exibiram construções de extratores e dispersores determinísticos (funções computáveis em tempo polinomial) com parâmetros melhores do que era anteriormente possível. Introduziremos os conceitos envolvidos em tal trabalho e mencionaremos suas aplicações; em particular, veremos como é possível obter cotas muito melhores para o problema Ramsey bipartido (um problema bem difícil) utilizando as construções descritas no artigo. Também apresentamos resultados originais para melhorar tais construções. Tais idéias são inspiradas no trabalho de Anup Rao (2005) e utilizam o recente êxito de Jean Bourgain (2005) em obter extratores que quebram a \"barreira 1/2\".
2007
Domingos Dellamonica Junior
MobiGrid: arcabouço para agentes móveis em ambiente de grades computacionais
Este texto apresenta nosso projeto de implementação de um arcabouço de suporte a agentes móveis dentro de um ambiente de grade denominado InteGrade. Nosso arcabouço - MobiGrid - foi criado de forma a permitir que aplicações seqüenciais longas possam ser executadas em uma rede de estações de trabalho pessoais. Os agentes móveis são utilizados para encapsular essas aplicações com longo tempo de processamento. O encapsulamento de uma aplicação com longo tempo de processamento dentro de um agente móvel é o que denominamos como tarefa. Sendo assim, as tarefas podem migrar sempre que a máquina é requisitada por seu usuário local, já que são providas com capacidade de migração automática. Nosso arcabouço também fornece ao usuário um gerente que rastreia as tarefas por ele submetidas. Baseados no ambiente de execução de tarefas descrito, criamos um modelo matemático para efetuarmos simulações de como se comportariam muitas tarefas submetidas a uma grade com grande quantidade de estações de trabalho. Neste trabalho apresentamos também esse modelo, bem como os resultados das simulações nele baseadas.
2007
Rodrigo Moreira Barbosa
\"Um provador de teoremas multi-estratégia\"
Nesta tese apresentamos o projeto e a implementação do KEMS, um provador de teoremas multi-estratégia baseado no método de tablôs KE. Um provador de teoremas multi-estratégia é um provador de teoremas onde podemos variar as estratégias utilizadas sem modificar o núcleo da implementação. Além de multi-estratégia, o KEMS é capaz de provar teoremas em três sistemas lógicos: lógica clássica proposicional, mbC e mCi. Listamos abaixo algumas das contribuições deste trabalho: * um sistema KE para mbC que é analítico, correto e completo; * um sistema KE para mCi que é correto e completo; * um provador de teoremas multi-estratégia com as seguintes características: - aceita problemas em três sistemas lógicos: lógica clássica proposicional, mbC e mCi; - tem seis estratégias implementadas para lógica clássica proposicional, duas para mbC e duas para mCi; - tem treze ordenadores que são usados em conjunto com as estratégias; - implementa regras simplificadoras para lógica clássica proposicional; - possui uma interface gráfica que permite a visualização de provas; - é de código aberto e está disponível na Internet em http://kems.iv.fapesp.br; * benchmarks obtidos através da comparação das estratégias para lógica clássica proposicional resolvendo várias famílias de problemas; - sete famílias de problemas para avaliar provadores de teoremas paraconsistentes; * os primeiros benchmarks para as famílias de problemas para avaliar provadores de teoremas paraconsistentes.
2007
Adolfo Gustavo Serra Seca Neto
Alinhamento de seqüências com rearranjos
Uma das tarefas mais básicas em bioinformática é a comparação de seqüências feita por algoritmos de alinhamento, que modelam as alterações evolutivas nas seqüências biológicas através de mutações como inserção, remoção e substituição de símbolos. Este trabalho trata de generalizações nos algoritmos de alinhamento que levam em consideração outras mutações conhecidas como rearranjos, mais especificamente, inversões, duplicações em tandem e duplicações por transposição. Alinhamento com inversões não tem um algoritmo polinomial conhecido e uma simplificação para o problema que considera somente inversões não sobrepostas foi proposta em 1992 por Schöniger e Waterman. Em 2003, dois trabalhos independentes propuseram algoritmos com tempo O(n^4) para alinhar duas seqüências com inversões não sobrepostas. Desenvolvemos dois algoritmos que resolvem este mesmo problema: um com tempo de execução O(n^3 logn) e outro que, sob algumas condições no sistema de pontuação, tem tempo de execução O(n^3), ambos em memória O(n^2). Em 1997, Benson propôs um modelo de alinhamento que reconhecesse as duplicações em tandem além das inserções, remoções e substituições. Ele propôs dois algoritmos exatos para alinhar duas seqüências com duplicações em tandem: um em tempo O(n^5) e memória O(n^2), e outro em tempo O(n^4) e memória O(n^3). Propomos um algoritmo para alinhar duas seqüências com duplicações em tandem em tempo O(n^3) e memória O(n^2). Propomos também um algoritmo para alinhar duas seqüências com transposons (um tipo mais geral que a duplicação em tandem), em tempo O(n^3) e memória O(n^2).
2007
Augusto Fernandes Vellozo
InGriDE: um ambiente integrado e extensível de desenvolvimento para computação em grade
Recentes avanços proporcionaram às grades computacionais um bom nível de maturidade. Esses sistemas têm sido implantados em ambientes de produção de qualidade na comunidade de pesquisa acadêmica e vêm despertando um grande interesse da indústria. Entretanto, desenvolver aplicações para essas infra-estruturas heterogêneas e distribuídas ainda é uma tarefa complexa e propensa a erros. As iniciativas de facilitar essa tarefa resultaram, na maioria dos casos, em ferramentas não integradas e baseadas em características específicas de cada grade computacional. O presente trabalho tem como objetivo minimizar a dificuldade de desenvolvimento de aplicações para a grade através da construção de um ambiente integrado e extensível de desenvolvimento (IDE) para computação em grade chamado InGriDE. O InGriDE fornece um conjunto único de ferramentas compatíveis com diferentes sistemas de middleware, desenvolvidas baseadas na interface de programação Grid Application Toolkit (GAT). O conjunto de funcionalidades do InGriDE foi desenvolvido com base na plataforma Eclipse que, além de fornecer um arcabouço para construção de IDEs, facilita a extensão do conjunto inicial de funcionalidades. Para validar a nossa solução, utilizamos em nosso estudo de caso o middleware InteGrade, desenvolvido no nosso grupo de pesquisa. Os resultados obtidos nesse trabalho mostraram a viabilidade de fornecer independência de middleware para IDEs através do uso de uma interface genérica de programação como o GAT. Além disso, os benefícios obtidos com o uso do Eclipse como arcabouço para construção de IDEs indicam que os recursos fornecidos por esse tipo de arcabouço atendem de forma eficiente as necessidades inerentes ao processo de desenvolvimento de aplicações para a grade.
Borboleta: Um sistema de telessaúde para auxílio à atenção primária domiciliar
No sistema brasileiro de saúde, cabe aos Centros de Saúde o papel de órgão provedor de assistência médica primária. Para que esse papel seja cumprido com responsabilidade e eficácia, se mostrou fundamental a condução de programas públicos de atenção primária que envolvam visitas domiciliares aos pacientes. O objetivo desses programas, tais como o Estratégia de Saúde da Família (ESF), também conhecido como Programa de Saúde da Família (PSF), é o de melhorar a qualidade do serviço de saúde prestado à população por meio da aproximação entre equipes de saúde e a comunidade, permitindo, dessa forma, uma migração do paradigma de tratamento de doenças para o de promoção da saúde. No entanto, apesar da importância desses programas para a organização e articulação do sistema de atenção primária, as atividades de atenção domiciliar são normalmente conduzidas com pouco ou nenhum suporte de Tecnologia da Informação (TI). Esta pesquisa de mestrado tem por objetivo mostrar a definição e o desenvolvimento de um sistema móvel que auxilie os profissionais de saúde na coleta de informações dos pacientes que usufruem dos serviços de saúde citados acima. O projeto recebeu o nome de Projeto Borboleta e durante o tempo desta pesquisa várias versões do software foram desenvolvidas. Essas versões geraram protótipos do sistema que foram submetidos a testes em campo e, a partir da avaliação realizada pelos profissionais de saúde, surgiram alterações diversas.
2011
Rafael José Peres Correia
INvestigate and Analyse a City - INACITY
Este trabalho apresenta uma plataforma para coleta e análise de imagens urbanas, que integra Interfaces de Programação de Aplicativos \"Application Programming Interfaces\" (APIs) de sistemas de busca de imagens, Sistemas de Informações Geográficas (SIGs), mapas digitais e técnicas de visão computacional. Esta plataforma, INACITY, permite que usuários selecionem regiões de interesse e capturem elementos de relevância para a arquitetura urbana, como, por exemplo árvores e buracos em ruas. A implementação da plataforma foi feita de maneira a permitir que novos módulos possam ser facilmente incluídos ou substituídos possibilitando a introdução de outras APIs de mapas, SIGs e filtros de Visão Computacional. Foram realizados experimentos com as imagens obtidas através do \"Google Street View\" onde árvores são capturadas em áreas de bairros inteiros em questão de minutos, um ganho significativo quando comparado com o procedimento manual para levantamento deste tipo de dado. Além disso, também são apresentados resultados comparativos entre os métodos de visão computacional propostos para a detecção de árvores em imagens com outros métodos heurísticos, em um conjunto onde as árvores estão marcadas manualmente e assim as taxas de precisão e de redescoberta de cada algoritmo podem ser avaliadas e comparadas.
2018
Artur André Almeida de Macedo Oliveira
Partição de grafos em subgrafos conexos balanceados
Nesta dissertação estudamos --- do ponto de vista algorítmico --- o seguinte problema, conhecido como problema da partição conexa balanceada. Dado um grafo conexo G com pesos atribuídos a seus vértices, e um inteiro q >= 2, encontrar uma partição dos vértices de G em q classes, de forma que cada classe da partição induza um grafo conexo e que, ao considerar as somas dos pesos dos vértices de cada classe, a menor das somas seja o maior possível. Em outras palavras, o objetivo é encontrar q classes cujos pesos sejam tão balanceados quanto possível. Sabe-se que este problema é NP-difícil. Mencionamos alguns resultados sobre complexidade computacional e algoritmos que são conhecidos para este problema. Apresentamos algumas heurísticas que desenvolvemos, todas elas baseadas no uso do algoritmo polinomial para árvores, devido a Perl e Schach, que apresentamos com detalhe. Implementamos quatro heurísticas e um algoritmo de 3/4-aproximação conhecido para o caso q=2. Exibimos os resultados obtidos com os vários testes computacionais conduzidos com instâncias aleatórias, com grafos de diferentes pesos e densidades. Os resultados computacionais indicam que o desempenho dessas heurísticas --- todas elas polinomiais --- é bem satisfatório. No caso especial em que q=2, observamos que a heurística mais onerosa sistematicamente produziu soluções melhores ou iguais às do algoritmo de aproximação
2007
Renato Pinheiro Freme Lopes Lucindo
Algoritmo do volume e otimização não diferenciável
Uma maneira de resolver problemas de programação linear de grande escala é explorar a relaxação lagrangeana das restrições \"difíceis\'\' e utilizar métodos de subgradientes. Populares por fornecerem rapidamente boas aproximações de soluções duais, eles não produzem diretamente as soluções primais. Para obtê-las com custo computacional adequado, pode-se construir seqüências ergódicas ou utilizar uma técnica proposta recentemente, denominada algoritmo do volume. As propriedades teóricas de convergência não foram bem estabelecidas nesse algoritmo, mas pequenas modificações permitem a demonstração da convergência dual. Destacam-se como adaptações o algoritmo do volume revisado, um método de feixes específico, e o algoritmo do volume incorporado ao método de variação do alvo. Este trabalho foi baseado no estudo desses algoritmos e de todos os conceitos envolvidos, em especial, análise convexa e otimização não diferenciável. Estudamos as principais diferenças teóricas desses métodos e realizamos comparações numéricas com problemas lineares e lineares inteiros, em particular, o corte máximo em grafos.
Detecção de ovos de S. mansoni a partir da detecção de seus contornos
Schistosoma mansoni é o parasita causador da esquistossomose mansônica que, de acordo com o Ministério da Saúde do Brasil, afeta atualmente vários milhões de pessoas no país. Uma das formas de diagnóstico da esquistossomose é a detecção de ovos do parasita através da análise de lâminas microscópicas com material fecal. Esta tarefa é extremamente cansativa, principalmente nos casos de baixa endemicidade, pois a quantidade de ovos é muito pequena. Nesses casos, uma abordagem computacional para auxílio na detecção de ovos facilitaria o trabalho de diagnóstico. Os ovos têm formato ovalado, possuem uma membrana translúcida, apresentam uma espícula e sua cor é ligeiramente amarelada. Porém nem todas essas características são observadas em todos os ovos e algumas delas são visíveis apenas com uma ampliação adequada. Além disso, o aspecto visual do material fecal varia muito de indivíduo para indivíduo em termos de cor e presença de diversos artefatos (tais como partículas que não são desintegradas pelo sistema digestivo), tornando difícil a tarefa de detecção dos ovos. Neste trabalho investigamos, em particular, o problema de detecção das linhas que contornam a borda de vários dos ovos. Propomos um método composto por duas fases. A primeira fase consiste na detecção de estruturas do tipo linha usando operadores morfológicos. A detecção de linhas é dividida em três etapas principais: (i) realce de linhas, (ii) detecção de linhas, e (iii) refinamento do resultado para eliminar segmentos de linhas que não são de interesse. O resultado dessa fase é um conjunto de segmentos de linhas. A segunda fase consiste na detecção de subconjuntos de segmentos de linha dispostos em formato elíptico, usando um algoritmo baseado na transformada Hough. As elipses detectadas são fortes candidatas a contorno de ovos de S. mansoni. Resultados experimentais mostram que a abordagem proposta pode ser útil para compor um sistema de auxílio à detecção dos ovos.
2012
Edwin Delgado Huaynalaya
Planejamento probabilístico como busca num espaço de transição de estados
Um dos modelos mais usados para descrever problemas de planejamento probabilístico, i.e., planejamento de ações com efeitos probabilísticos, é o processo de decisão markoviano (Markov Decision Process - MDP). Soluções tradicionais são baseadas em programação dinâmica, sendo as mais ecientes aquelas baseadas em programação dinâmica em tempo real (Real-Time Dynamic Programming - RTDP), por explorarem somente os estados alcançáveis a partir de um dado estado inicial. Por outro lado, existem soluções ecientes baseadas em métodos de busca heurística em um grafo AND/OR, sendo que os nós AND representam os efeitos probabilísticos das ações e os nós OR representam as escolhas de ações alternativas. Tais soluções também exploram somente estados alcançáveis a partir de um estado inicial porém, guardam um subgrafo solução parcial e usam programação dinâmica para a atualização do custo dos nós desse subgrafo. No entanto, problemas com grandes espaços de estados limitam o uso prático desses métodos. MDPs fatorados permitem explorar a estrutura do problema, representando MDPs muito grandes de maneira compacta e assim, favorecer a escalabilidade das soluções. Neste trabalho, apresentamos uma análise comparativa das diferentes soluções para MDPs, com ênfase naquelas que fazem busca heurística e as comparamos com soluções baseadas em programação dinâmica assíncrona, consideradas o estado da arte das soluções de MPDs. Além disso, propomos um novo algoritmo de busca heurística para MDPs fatorados baseado no algoritmo ILAO* e o testamos nos problemas da competição de planejamento probabilístico IPPC-2011.
2013
Daniel Javier Casani Delgado
Conversão de voz inter-linguística
A conversão de voz é um problema emergente em processamento de fala e voz com um crescente interesse comercial, tanto em aplicações como Tradução Fala para Fala (Speech-to-Speech Translation - SST) e em sistemas Text-To-Speech (TTS) personalizados. Um sistema de Conversão de Voz deve permitir o mapeamento de características acústicas de sentenças pronunciadas por um falante origem para valores correspondentes da voz do falante destino, de modo que a saída processada é percebida como uma sentença pronunciada pelo falante destino. Nas últimas duas décadas, o número de contribuições cientícas relacionadas ao problema de conversão de voz tem crescido consideravelmente, e um panorama sólido do processo histórico, assim como de técnicas propostas são indispensáveis para contribuição neste campo. O objetivo deste trabalho é realizar um levantamento geral das técnicas utilizadas para resolver o problema, apontando vantagens e desvantagens de cada método, e a partir deste estudo, desenvolver novas ferramentas. Dentre as contribuições do trabalho, foram desenvolvidos um método para decomposição espectral em termos de bases radiais, mapas fonéticos articiais, agrupamentos k-verossímeis, funções de empenamento em frequência entre outras, com o intuito de implementar um sistema de conversão de voz inter-linguístico independente de texto de alta qualidade.
2013
Anderson Fraiha Machado
Predição de tags usando linked data: um estudo de caso no banco de dados Arquigrafia
Dada a grande quantidade de conteúdo criado por usuários na Web, uma proposta para ajudar na busca e organização é a criação de sistemas de anotações (tagging systems), normalmente na forma de palavras-chave, extraídas do próprio conteúdo ou sugeridas por visitantes. Esse trabalho aplica um algoritmo de mineração de dados em um banco de dados RDF, contendo instâncias que podem fazer referências à rede Linked Data do DBpedia, para recomendação de tags utilizando as medidas de similaridade taxonômica, relacional e literal de descrições RDF. O banco de dados utilizado é o Arquigrafia, um sistema de banco de dados na Web cujo objetivo é catalogar imagens de projetos arquitetônicos, e que permite que visitantes adicionem tags às imagens. Foram realizados experimentos para a avaliação da qualidade das recomendações de tags realizadas considerando diferentes modelos do Arquigrafia incluindo o modelo estendido do Arquigrafia que faz referências ao DBpedia. Os resultados mostram que a qualidade da recomendação de determinadas tags pode melhorar quando consideramos diferentes modelos (com referências à rede Linked Data do DBpedia) na fase de aprendizado.
2013
Ricardo Augusto Teixeira de Souza
Planejamento probabilístico com becos sem saída
Planejamento probabilístico lida com a tomada de decisão sequencial em ambientes estocásticos e geralmente é modelado por um Processo de Decisão Markoviano (Markovian Decision Process - MDP). Um MDP modela a interação entre um agente e o seu ambiente: em cada estágio, o agente decide executar uma ação, com efeitos probabilísticos e um certo custo, que irá produzir um estado futuro. O objetivo do agente MDP é minimizar o custo esperado ao longo de uma sequência de escolhas de ação. O número de estágios que o agente atua no ambiente é chamado de horizonte, o qual pode ser finito, infinito ou indefinido. Um exemplo de MDP com horizonte indefinido é o Stochastic Shortest Path MDP (SSP MDP), que estende a definição de MDP adicionando um conjunto de estados meta (o agente para de agir ao alcançar um estado meta). Num SSP MDP é feita a suposição de que é sempre possível alcançar um estado meta a partir de qualquer estado do mundo. No entanto, essa é uma suposição muito forte e que não pode ser garantida em aplicações práticas. Estados a partir dos quais é impossível atingir a meta são chamados de becos-sem-saída. Um beco-sem-saída pode ser evitável ou inevitável (se nenhuma política leva do estado inicial para a meta com probabilidade um). Em trabalhos recentes foram propostas extensões para SSP MDP que permitem a existência de diferentes tipos de beco-sem-saída, bem como algoritmos para resolvê-los. No entanto, a detecção de becos-sem-saída é feita utilizando: (i) heurísticas que podem falhar para becos-sem-saída implícitos ou (ii) métodos mais confiáveis, mas que demandam alto custo computacional. Neste projeto fazemos uma caracterização formal de modelos de planejamento probabilístico com becos-sem-saída. Além disso, propomos uma nova técnica para detecção de becos-sem-saída baseada nessa caracterização e adaptamos algoritmos de planejamento probabilístico para utilizarem esse novo método de detecção. Os resultados empíricos mostram que o método proposto é capaz de detectar todos os becos-sem-saída de um dado conjunto de estados e, quando usado com planejadores probabilísticos, pode tornar esses planejadores mais eficientes em domínios com becos-sem-saída difíceis de serem detectados
Análise de expressões gênicas com erros de medida e aplicação em dados reais
Toda medida, desde que feita por um instrumento real, tem uma imprecisão associada. Neste trabalho, abordamos a questão das imprecisões em experimentos de microarranjos de cDNA de dois canais, uma tecnologia que tem sido muito explorada nos últimos anos e que ainda é um importante auxiliar nos estudos de expressões gênicas. Dezenas de milhares de representantes de genes são impressos em uma lâmina de vidro e hibridizados simultaneamente com RNA mensageiro de duas amostras diferentes de células. Essas amostras são marcadas com corantes fluorescentes diferentes e a lâmina, após a hibridização, é digitalizada, obtendo-se duas imagens. As imagens são analisadas com programas especiais que segmentam os locais que estavam os genes e extraem estatísticas dos píxeis de cada local. Por exemplo, a média, a mediana e a variância das intensidades do conjunto de píxeis de cada local (o mesmo é feito normalmente para uma área em volta de cada local, chamada de fundo). Estimadores estatísticos como o da variância nos dão uma estimativa de quão precisa é uma certa medida. Uma vez de posse das estimativas das intensidades de cada local, para se obter a efetiva expressão de um gene, algumas transformações são feitas nos dados de forma a eliminar variabilidades sistemáticas. Neste trabalho, mostramos como podem ser feitas as análises a partir de uma medida de expressão gênica com um erro estimado. Mostramos como estimar essa imprecisão e estudamos, em termos de propagação da imprecisão, os efeitos de algumas transformações realizadas nos dados, por exemplo, a remoção do viés estimado pelo método de regressão local robusta, mais conhecido como \\textit{lowess}. Uma vez obtidas as estimativas das imprecisões propagadas, mostramos também como utilizá-las na determinação dos genes diferencialmente expressos entre as amostras estudadas. Por fim, comparamos os resultados com os obtidos por formas clássicas de análise, em que são desconsideradas as imprecisões das medidas. Concluímos que a modelagem das imprecisões das medidas pode favorecer as análises, já que os resultados obtidos em uma aplicação com dados reais de expressões gênicas foram condizentes com os que encontramos na literatura.
Serviços de pertinência para clusters de alta disponibilidade
Desde sua criação, o Linux trouxe muita atenção ao movimento open-source, e à concreta possibilidade de se usar soluções de baixo custo em missões críticas. Nos últimos anos, esta possibilidade tornou-se real com a criação de vários clusters de alta disponibilidade. Atualmente, existem pelo menos 10 soluções de clusters open-source e mais de 25 comerciais. Cada um destes projetos teve uma abordagem diferente para o problema, embora todos tenham enfrentado dificuldades semelhantes. Se houvesse alguma padronização nesta área, esforços poderiam ter sido reaproveitados, e não duplicados. Neste contexto, o Open Clustering Framework (OCF) é um projeto open-source que visa definir um padrão para clusters em Linux. Um dos serviços mais importantes em um cluster é o serviço de pertinência. Ele é responsável por criar e manter o grupo, sendo assim importante para inúmeras aplicações. Sistemas de alta disponibilidade baseiam-se no serviço de pertinência para garantir o funcionamento dos recursos oferecidos por um cluster. Esta dissertação visa apresentar vários conceitos relativos a clusters, alta disponibilidade e serviços de pertinência. Com estes conceitos definidos, iremos implementar um serviço de pertinência, que será baseado no framework proposto pelo OCF, de maneira que esta implementação possa ser posteriormente incorporada a qualquer cluster que siga a especificação OCF.
2004
Nelio Alves Pereira Filho