Repositório RCAAP
Simulação perfeita de processos de nascimento e morte espaciais
Apresentamos um método que permite enumerar subconjuntos de contornos de Peierls (também denominados animals) no modelo de Ising ferromagnético em baixas temperaturas em uma rede quadrada. Um amostrador exato para os contornos de Peierls é apresentado. Apresentamos também um algoritmo dinêmico, baseado no MCMC, para amostrar tais objetos. Como aplicação, consideramos a medida de Gibbs expressa em termos dos contronos para simular pela primeira vez o modelo de Ising em baixas temperaturas, de acordo com o 'Backward Forward Algorithm', proposto recentemente por Ferrari, Fernández and Garcia [3]. Este algoritmo permite obter amostras perfeitas em janelas finitas de medidas em volume infinito e é válido para medidas absolutamente contínuas em relação a um processo de Poisson. Um modo alternativo de simular este processo no contexto do BFA também é apresentado.
2004
Marcos Antonio da Cunha Santos
Reamostragem ponderada em blocos para cadeias de Markov
Dada uma seqüência de realizações de uma cadeia de Markov em tempo discreto e espaço de estados finito, estimamos a distribução de probabilidade amostral das tansições dos estados e da medida invariante usando o método de reamostragem. Discutilos alguns métodos exitentes na literatura e propomos dois novos métodos de reamostragem com o objetivo de reduzir o esforço computacional e garantir a redução da variância. Para tanto, consideramos algumas recentes idéias no contexto de classificação, tais como o Adaboost, na estimação desta distribuição. Alguns resultados numéricos ilustram e nos fornecem evidências para os métodos propostos.
Análise estatística de expressão gência por SAGE (Serial Analysis of Gene Expression)
No presente trabalho fizemos uma revisão bibliográfica sobre os principais métodos estatísticos utilizados atualmente para a análise de dados de expressão gênica obtidos pela técnica de Biologia Molecular conhecida como SAGE - Serial Analysis of Gene Expression, ou Análise Serial de Expressão Gênica. Além de dar o panorama do estado-da-arte na área, apresentamos dois métodos originais desenvolvidos neste Projeto de Mestrado: SAGEci, para construção de intervalos de credibilidade para razões de expressão, e SAGEbetaBIN, para incorporação da variabilidade biológica intrínseca às bibliotecas na identificação de genes diferencialmente expressos por meio de misturas
2004
Ricardo Zorzetto Nicoliello Vêncio
Modelos de filas com desistências
O objetivo deste trabalho é estudar possíveis melhoras no atendimento de usuários em um sistema de filas, através de informações disponibilizadas aos clientes. Em geral, na visão dos usuários, a qualidade do atendimento est,a fortemente ligada ao tempo necessário à conclusão do serviço. Entretanto, nem sempre é possível atender prontamente a todas as solicitações. Nesse caso, uma possível contribuição à satisfação do cliente seria informá-lo, no instante de sua chegada, sobre a previsão de tempo de espera até que seja devidamente atendido. A partir dessa informação, o usuário pode concluir ser melhor desistir de esperar e sair do sistema. Buscando modelar esses sistemas de atendimento, estuda-se um modelo de filas com disistências. O modelo considera três peculiaridades: impedimento (blocking), recusa (balking) e abandono (reneging), além das características usuais de uma fila. Apresenta-se a estrutura matemática envolvida e, através de simulação, avalia-se o comportamento do sistema sujeito a perturbações. O interesse concentra-se nos efeitos das diferentes características da tolerância dos usuários nas medidas de performance.
Curvas de referência não linearizáveis baseadas em dados longitudinais.
Intervalos de referência são usados para detectar a ocorência de valores extremos e/ou inesperados na mensuração de certas características biométricas e sua especificação é feita pela estimação de percentis. Este trabalho considera a construção de intervalos de referência baseados em dados longitudinais em situações nas quais a relação entre a característica de interesse e a variável explicativa não é linear. Nestas situações, os intervalos de referência são determinados pela estimação de curvas de referência que podem ser calculadas como funções dos parâmetros de um modelo não linear hierárquico.
2004
Alexandre Ryuzo Shinzato
Regressão com erros de medida e pontos de mudança utilizando metodologia bayesiana.
O objetivo principal dese estudo foi analisar os modelos de regressão linear estrutural Normal e t-Student com erros nas variáveis, com mudança abrupta em um ou mais parâmetros após o k-ésimo ponto desconhecido (ponto de mudança) de uma seqüência finita de observações, utilizando métodos bayesianos de análise de dados. A análise inferencial envolveu o problema de detectar a existência de mudança nos parâmetros, estimar o ponto de mudança k e os demais parâmetros, e também fazer a análise preditiva. O modelo Normal com erros de medida e sem pontos de mudança foi analisado sob diferentes escolhas de distribuição à priori incluindo também prioris impróprias. Foram demonstrados teoremas que estabelecem condições para a existência das distribuiçòes posterioris nos modelos Normal e t-Student com erros deoendentes (com e sem ponto de mudança) sob algumas escolhas específicas de prioris impróprias. Alguns algoritmos do tipo MCMC ('Markov Chain Monte Carlo') foram utilizados com o objetivo de amostrar das posterioris, como os algoritmos de 'Gibbs', 'Grouped Gibbs', 'Modified and Collapsed Gibbs' e 'Metrópolis-Hastings em Gibbs'. Foi feita uma análise de sensibilidade a variações nos valores dos seguintes hiperparâmetros: razão das variâncias residuais (nos modelos identificáveis) e o número de graus de liberdade da distribuição t (quando este é assumido conhecido). A qualidade do ajuste dos modelos foi avaliada utilizando resíduos bayesianos de validação cruzada
2004
Daisy Gomes de Souza Tu
Métodos não tradicionais de seleção de variáveis em modelos de regressão linear
Neste trabalho, apresentamos uma descrição dos métodos não tradicionais de seleção de variáveis preditoras no modelo de regressão linear. Inicialmente, fizemos um breve levantamento dos métodos tradicionais com o objetivo de comparação futura. Posteriormente, foram apresentados métodos do tipo redução, que restringem as estimativas de mínimos quadrados usuais. Numa etapa seguinte, estudamos métodos com enfoque bayesiano na seleção de variáveis preditoras. Finalizando, aplicamos o procedimento de seleção Lasso e um dos procedimentos bayesianos a um conjunto de dados presente na literatura.
2005
Vaudeluci Maria da Silva
O método probabilístico e o lema local de Lovász
O Método Probabilístico pode ser entendido como uma ferramenta de ataque a problemas em matemática discreta. a idéia do método é de que na impossibilidade de exibição de estruturas assumindo propriedades desejadas, substituir esta tarefa pela tarefa de montar um espaço probabilístico apropriado, em que o evento reunindo aquelas estruturas tem probabilidade estritamente positiva.Neste trabalho procuramos mostrar um pouco da essência do Método Probabilístico através de alguns exemplos em combinatória e teoria dos grafos. A partir destes exemplos nota-se a importância do método por sua fácil aplicabilidade e por resolver problemas nos quais nenhuma outra solução é conhecida até hoje. Dentro das várias técnicas do Método Probabilístico, concentramo-nos no Princípio do Primeiro Momento - baseado no simples fato que se E(X) menor ou igual a t, então P(X menor ou igual a t) > 0 - e no Lema Local de Lovász cujo objeto é o cálculo da probabilidade de não ocorrência simultânea de um grupo de eventos em uma situação em que existe dependência entre estes eventos. Apresentamos a segunda técnica como alternativa em situações em que a aplicação da primeira não surte efeito.
Funções de transferência com coeficientes variando no tempo
Neste trabalho apresentamos o modelo de função de transferência quando a série de entrada é localmente estacionária segundo a definição de processos localmente estacionários apresentada por Dahlhaus (1997). Para estimar os coeficientes da função de transferência que, neste caso, variam com o tempo, propusemos um estimador em dois estágios. Em cada estágio, fizemos uma regressão da séire de saída sobre as decomposições em ondaletas da série de entrada e defasagens da série de saída. Mostramos que os estimadores dos coeficientes, na regressão do primeiro estágio têm distribuição normal. Para suavizar as funções estimadas dos coeficientes da função de transferência usamos a técnica de limiarização dos coeficientes estimados por meio do limiar duro universal. Apresentamos uma aplicação aos dados diários de temperatura máxima e precipitação atmosférica em Ribeirão Preto, SP, no período de 01 de janeiro de 1988 a 25 de dezembro de 1996.
2005
Maria Sílvia de Assis Moura
Passeios aleatórios em meios aleatórios dependentes
Após uma revisão de conceito e definiçòes sobre o passeio aleatório em meio aleatório, apresentamos uma nova prova para o Teorema de Sinai (1982), separando a prova em duas partes independentes: uma parte quenched (referente à medida P IND 'ômega' condicionada a uma realização 'ômega' bem comportada do meio aleatório) e uma parte annealed (referente à medida do produto P dos ambientes 'ômega').
Inferência bayesiana no modelo normal assimétrico
Esta dissertação compreende um estudo dos aspectos inferenciais da distribuição normal assimétrica, assim como o modelo de regressão considerando erros normais assimétricos. Nossa principal contribuição está na derivação de uma aproximação para a priori de Jeffreys e para informação de Fisher da distribuição normal assimétrica padrão e uma proposta de uma nova distribuição a priori não subjetiva para o parâmetro de assimetria do modelo. Também propomos uma nova reparametrização, que na abordagem clássica, permite obter formas fechadas na construção do algoritmo EM, e na abordagem bayesiana, formas conhecidas para as distribuições condicionais a posteriori, o que facilita a implementação do algoritmo de Gibbs. Estimadores bayesianos como a média, a mediana e o máximo a posteriori sob as duas prioris mencionadas acima foram comparados com o estimador de máxima verossimilhança mediante um estudo de simulação. Também foi avaliado no estudo de simulação o comportamento de estimadores intervalares, como o intervalo de confiança assitótico e os intervalos de credibilidade bayesianos. No caso de testes de hipóteses, foram comparados os desempenhos do teste de razão de verossimilhanças e do fator de Bayes.
2005
Cristian Luis Bayes Rodríguez
Modelos lineares mistos assimétricos
Modelos lineares mistos tem sido frequentemente usados na análise de dados onde as respostas são agrupadas, pelo fato de serem flexíveis para modelar a correlação entre e intra-indivíduos (ou grupos). A normalidade (simetria) dos efeitos e erros aleatórios é uma suposição rotineira em modelos lineares mistos, que pode ser não realista e obscurecer importantes características da variação entre e intra-indivíduos (ou grupos). Neste trabalho relaxamos a suposição de normalidade considerando que tanto os erros como os efeitos aleatórios seguem uma distribuição normal-assimétrica, que inclui a distribuição normal como caso especial e fornece flexibilidade em capturar uma ampla variedade de comportamentos não normais, por simplesmente adicionar um parâmetro que controla o grau de assimetria. A densidade marginal das quantidades observadas é encontrada e mostramos que tem forma fechada, de modo que inferências podem ser abordadas usando programas computacionais conhecidos (R, S-plus, Matlab) e técnicas de otimização padrão. Explorando propriedades estatísticas do modelo considerado implementando o algoritmo EM que fornece algumas vantagens sobre a maximização direta da função log-verossimilhança. Apresentamos também, para esta distribuição normal-assimétrica multivariada, vários resultados relacionados com a teoria da distribuição das formas quadráticas, transformações lineares, densidade marginal e condicionamento. Em um segundo estágio do trabalho, usando uma segunda versão de distribuiçào normal-assimétrica multivariada, os modelos lineares mistos normal assimétricos bayesianos são definidos e procedimentos relacionados com o método Monte Carlo via cadeias de Markov (MCMC) são apresentados fazendo da inferência bayesiana uma alternativa viável para tais modelos. Em ambos os casos, resultados de estudo de simulação e aplicações a conjuntos de dados reais são fornecidos mostrando que os critérios de informação padrão, tais como AIC, BIC e HQ podem ser usados para detectar afastamentos da normalidade (simetria). Finalmente, apresentamos métodos para estimação em modelos lineares mistos com erros nas variáveis, baseados na função escore corrigido de Nakamura (1990), simulação-extrapolação (SIMEX) de Stefanski e Cook (1995) e máxima verossimilhança. Um estudo de simulação comparando os métodos SIMEX e escore corrigido é apresentado.
2004
Victor Hugo Lachos Davila
Análise fatorial múltipla para tabelas de contingência
Atualmente muitos estudos de diferentes iniciativas governamentais e acadêmicas buscam identificar um Sistema Nacional de Inovação em Saúde. Esses estudos tentam carcterizar os setores de atividade econômica envolvidos em Saúde. Nesta dissertação a caracterização baseia-se nos registros da versão 4.1 do Diretório dos Grupos de Pesqui8sa no Brasil (Gpesq-4), no qual os mesmos registram Saúde como área do conhecimento científico ou setor de atividade econômica em quaisquer de suas linhas de pesquisa. No Gpesp-4, os grupos podem registrar até três áreas do conhecimento e até três setores econômicos. O fato des estas variáveis apresentarem multiplicidade de respostas e, além disso, em uma das variáveis termos a presença de ordem de importância, tronou a análise destes dados um desafio e uma forte motivação para estudar as alternativas disponíveis para este tipo de problema. O objetivo foi buscar alternativas de análise para esta situação e o resultado são quatro formas diferentes para traçar este retrato do sistema, relacionando as áreas e os setores. A primeira solução é uma análise de Correspondência Simples (ACS) para uma tabela de múltipla resposta com todos os cruzamentos de área e setor, onde o total da tabela supera o tamanho da população. A segunda solução também é uma ACS, porém em uma tabela de contingência na qual temos as combinações observadas entre áreas e entre setores. Uma terceira solução é o uso da Análise de Correspondência Múltipla (ACM) para indicadores de cada área e de cada setor e por último, Análise Fatorial Múltipla para Tabelas de Contingência (AFMTC), na qual levamos em conta a ordem de importância que os respondentes agregaram aos setores econômicos. Nesta dissertação, descrevemos essas três técnicas, com maior ênfase para AFMTC, desenvolvemos o programa em R para sua aplicação e apresentamos as análise dos dados do Gpesq-4.
2005
Valéria Troncoso Baltar
Estimação da volatilidade diária com dados de alta freqüência:: aplicações ao cálculo do valor em risco do IBOVESPA
Este trabalho tem como objetivo a avaliação empírica da previsão de volatilidade do índice BOVESPA, tanto de modelos tradicionais em base diária, como algumas adaptações para a inclusão da informação intradiária, com a intenção de obter melhores previsões no horizonte de um dia à frente. A intuição dessa análise vem da observação de casos onde há grandes variações de preços intradiários, mas em que o preço de fechamento é próximo ao do dia anterior, e, portanto, os modelos tradicionais em bases diárias não capturam esta volatilidade. Os modelos empregados aqui são os da família GARCH e os de memória longa FARIMA. Também foram feitas aplicaçòes no cálculo do Valor em Risco (VaR). A conclusão do trabalho aponta a viabilidade do uso dos dados intradiários para realizar previsões de horizonte diário, e mais, há indícios de que podem melhorar a curácia das previsões.
Desenvolvimento e análise de estruturas de dependência via cópulas
Neste trabalho apresentamos vários resultados relacionados com a teoria de cópulas. É feita uma representação para distribuições bivariadas que utiliza uma nova medida de dependência local que denominamos função Spearman e estudamos suas propriedades. Apresentamos a cópula associada a estrutura de dependência de estatísticas de ordem bivariadas, mostramos uma relação de recorrência assim como os limites de Fréchet associados. Finalmente, mostramos alguns resultados relacionados com a análise da dependência de vetores aleatórios não sobrepostos, apresentando uma adaptação do método de Cohen para cópulas em que deste modo pode-se construir uma (n'IND.1' +n'IND.2')-dimensional cópula C consistente com as cópulas n'IND.1'-dimensional cópula C'IND.1' e n'IND.2'-dimensional cópula C'IND.2' associadas com as marginais multivariadas dadas. Apresentamos também outra ferramenta que utiliza cópulas para estudar a estrutura de dependência de vetores aleatórios não sobrepostos em que as marginais são as distribuições de Kendall associadas aos vetores aleatórios.
2005
Ulisses Umbelino dos Anjos
Modelagem bayesiana para dados de sobrevivência bivariados através de cópulas
Este trabalho apresenta uma abordagem bayesiana paramétrica para o estudo de dados bivariados em Análise de Sobrevivência. Considerando cópulas arquimedianas para modelar a estrutura de dependência entre os tempos de falha, procedimentos bayesianos de estimação para os parâmetros de interesse são propostos e ilustrados através de duas aplicações. Utilizando a relação funcional entre cópulas e as funções de sobrevivência marginal, o método delta para funcionais é aplicado e propriedades assintóticas do estimador da função de sobrevivência bivariada são estudadas.
2005
José Santos Romeo Núñez
Teoria da confiabilidade em um modelo de tempo de vida geral: importância de componentes e Burn-in
Neste trabalho abordamos três temas principais que generalizam alguns resultados clássicos da Teoria da Confiabilidade, todos associados a um modelo de tempo de vida geral. Na primeira parte estudamos o conceito da importância da confiabilidade de um componente para a confiabilidade do sistema de Barlow e Proschan. Na segunda parte, observando o sistema a níveis de seus componentes, definimos uma medida de importância através dos processos de ganhos de inovaçòes, generalizando um resultado de Norros (1986b). Finalizamos este trabalho analisando modelos de Burn-in envolvendo processos de custos e ganhos e encontrando um tempo de parada ótimo baseado na regra de parada IOPF (infinitesimal olhada para a frente).
Blocos de consenso, esquemas regenerativos e estimação em tempo polinomial de longas amostras de cadeias de Markov ocultas
Esta tese propõe duas abordagens para estimar a seqüência oculta de uma cadeia de Markov oculta: blocos de consenso e blocos de regeneração. Em ambos os casos os algoritmos resultantes dependem de um número de operações que cresce polinomialmente com o tamanho da seqüência. Na primeira abordagem, quebramos a seqüência visível em blocos e estimamos a seqüência oculta de acordo com a maioria de símboos que enxergamos na seqüência visível. Na segunda abordagem, utilizamos a estrutura regenerativa da cadeia para decompor em edois blocos independentes. Obtivemos limites superiores para a probabilidade de erro de estimação com os dois métodos. Na segunda abordagem, utilizamos o método de Monte Carlo markoviano e o algoritmo de Metrópolis para construir iterativamente a seqüência de instantes de regeneração e os blocos correspondentes de estados ocultos, dada a seqüência visível da cadeia. Na demonstração dos resultados foram utilizados resultados de esquemas regenerativos, o método de Chernoff e a desigualdade de Hoeffding. Esta tese tem também uma componente computacional. Com efeito, desenvolvemos rotinas em R que implementam os diversos algoritmos propostos. Também fizemos simulações que ilustram a funcionalidade dos algoritmos.
Análise de confiabilidade em sistemas reparáveis complexos
Os modelos mais comuns utilizados para descrever o fluxo de falhas de sistemas reparáveis são os processos de Poisson homogêneo e não-homogêneo, e o processo de renovação. Este trabalho tem como objetivo descrever o método de análise da confiabilidade de sistemas reparáveis complexos, utilizando o modelo misto, que incorpora, simultaneamente, os padrões poissoniano e de renovação na modelagem da função de intensidade completa. A intenção é mostrar a flexibilidade e o poder deste modelo na análise de dados de falhas recorrentes.
2005
Marco César dos Santos Barbosa