RCAAP Repository

Confiabilidade em sistemas coerentes: um modelo bayesiano Weibull.

O principal objetivo desse trabalho é introduzir um modelo geral bayesiano Weibull hierárquico para dados censurados que estima a função de confiabilidade de cada componente para sistemas de confiabilidade coerentes. São introduzidos formas de estimação mais sólidas, sem a inserção de estimativas médias nas funções de confiabilidade (estimador plug-in). Através desse modelo, são expostos e solucionados exemplos na área de confiabilidade como sistemas em série, sistemas em paralelo, sistemas k-de-n, sistemas bridge e um estudo clínico com dados censurados intervalares. As soluções consideram que as componentes tem diferentes distribuições, e nesse caso, o sistema bridge ainda não havia solução na literatura. O modelo construído é geral e pode ser utilizado para qualquer sistema coerente e não apenas para dados da área de confiabilidade, como também na área de sobrevivência, dentre outros. Diversas simulações com componentes com diferentes proporções de censura, distintas médias, três tipos de distribuições e tamanhos de amostra foram feitas em todos os sistemas para avaliar a eficácia do modelo.

Year

2013

Creators

Felipe Lunardi Bhering

Model selection for discrete Markov random fields on graphs

In this thesis we propose to use a penalized maximum conditional likelihood criterion to estimate the graph of a general discrete Markov random field. We prove the almost sure convergence of the estimator of the graph in the case of a finite or countable infinite set of variables. Our method requires minimal assumptions on the probability distribution and contrary to other approaches in the literature, the usual positivity condition is not needed. We present several examples with a finite set of vertices and study the performance of the estimator on simulated data from theses examples. We also introduce an empirical procedure based on k-fold cross validation to select the best value of the constant in the estimators definition and show the application of this method in two real datasets.

Year

2016

Creators

Iara Moreira Frondana

Medidas de dependência local para séries temporais

Diferente das medidas de associação global (coeficiente de correlação linear de Pearson, de Spearman, tau de Kendall, por exemplo), as medidas de dependência local descrevem o comportamento da dependência localmente em diferentes regiões. Nesta tese, as medidas de dependência local para variáveis aleatórias propostas por Bairamov et al. (2003), Bjerve e Doksum (1993) e Sibuya (1960), são estudadas sob o enfoque de processos estocásticos estacionários bivariados e univariados, neste caso, estudando o comportamento da dependência local ao longo das defasagens da série temporal. Para as duas primeiras medidas, discutimos as suas propriedades, e estudamos os seus estimadores, além da consistência dos mesmos. Para a medida de Sibuya, além de discutir suas propriedades, propomos três estimadores para variáveis aleatórias e dois para séries temporais, verificando a consistência dos mesmos. O comportamento das três medidas locais e dos seus estimadores foram avaliados através de simulações e aplicações a dados reais (neste caso, fizemos uma comparação destas com cópula e densidade cópula).

Year

2008

Creators

Sumaia Abdel Latif

Estimação de modelos geoestatísticos com dados funcionais usando ondaletas

Com o recente avanço do poder computacional, a amostragem de curvas indexadas espacialmente tem crescido principalmente em dados ecológicos, atmosféricos e ambientais, o que conduziu a adaptação de métodos geoestatísticos para o contexto de Análise de Dados Funcionais. O objetivo deste trabalho é estudar métodos de krigagem para Dados Funcionais, adaptando os métodos de interpolação espacial em Geoestatística. Mais precisamente, em um conjunto de dados funcionais pontualmente fracamente estacionário e isotrópico, desejamos estimar uma curva em um ponto não monitorado no espaço buscando estimadores não viciados com erro quadrático médio mínimo. Apresentamos três abordagens para aproximar uma curva em sítio não monitorado, demonstramos resultados que simplificam o problema de otimização postulado pela busca de estimadores ótimos não viciados, implementamos os modelos em MATLAB usando ondaletas, que é mais adequada para captar comportamentos localizados, e comparamos os três modelos através de estudos de simulação. Ilustramos os métodos através de dois conjuntos de dados reais: um conjunto de dados de temperatura média diária das províncias marítimas do Canadá (New Brunswick, Nova Scotia e Prince Edward Island) coletados em 82 estações no ano 2000 e um conjunto de dados da CETESB (Companhia Ambiental do Estado de São Paulo) referentes ao índice de qualidade de ar MP10 em 22 estações meteorológicas na região metropolitana da cidade de São Paulo coletados no ano de 2014.

Year

2016

Creators

Gilberto Pereira Sassi

Modelos arch heterogêneos e aplicações à análise de dados de alta freqüência

Neste trabalho estudamos diferentes variantes dos modelos GARCH quando consideramos a chegada da informação heterogênea sob a forma de dados de alta freqüência. Este tipo de modelos, conhecidos como HARCH(n), foram introduzidos por Muller et al. (1997). Para entender a necessidade de incorporar esta característica da heterogeneidade da informação, estudamos o problema da agregação temporal para processos GARCH e a modelagem destes em dados de alta freqüência e veremos quais são as desvantagens destes modelos e o porquê da necessidade de corrigi-lo. Propusemos um novo modelo que leva em conta a heterogeneidade da informação do mercado financeiro e a memória longa da volatilidade, generalizando assim o modelo proposto por Müller et al.(1997), e estudamos algumas das propriedades teóricas do modelo proposto. Utilizamos estimação via máxima verossimilhança e amostrador de Griddy-Gibbs, e para avaliar o desempenho destes métodos realizamos diversas simulações. Também fizemos aplicações a duas séries de alta freqüência, a taxa de câmbio Euro- Dólar e o índice Ibovespa. Uma modificação ao algoritmo de Griddy-Gibbs foi proposta, para ter uma janela móvel de pontos, para a estimação das distribuições condicionais, a cada iteração. Este procedimento foi validado pela proximidade das estimações com a técnica de máxima verossimilhança. Disponibilizaremos algumas bibliotecas para o pacote S-Plus em que as análises descritas neste trabalho poderão ser reproduzidas. Informações relativas a tais bibliotecas estarão disponíveis na página Web http://www.ime.usp.br/~ruilova.

Year

2007

Creators

Juan Carlos Ruilova Teran

Um esquema regenerativo visível em cadeias de alcance variável não limitada

O objetivo central desta tese é demonstrar a existência de uma estrutura regenerativa visível para cadeias de alcance variável não limitadas. Também apresentamos um algoritmo de identificação de seqüências de instantes de regeneração que converge quase certamente quando o tamanho da amostra diverge.

Year

2007

Creators

Divanilda Maia Esteves

Planejamentos experimentais em modelos de regressão linear

Neste trabalho apresentamos os principais objetivos dos planejamentos experimentais em modelos de regressão. Na primeira parte do trabalho descrevemos os planejamentos com alavancagem constante, que permitem que todos os pontos amostrais exerçam a mesma influência nas estimativas dos parâmetros do modelo de regressão. Abordamos ainda outros tipos de planejamentos experimentais que obedecem a certos critérios como, por exemplo: G-otimalidade, D-otimalidade e Planejamentos ortogonais. Finalizando o trabalho foi apresentada uma análise prática em que as principais medidas estudadas foram aplicadas a um conjunto de dados reais.

Year

2009

Creators

Camila Serinoli

Modelo GARCH com mudança de regime markoviano para séries financeiras

Neste trabalho analisaremos a utilização dos modelos de mudança de regime markoviano para a variância condicional. Estes modelos podem estimar de maneira fácil e inteligente a variância condicional não observada em função da variância anterior e do regime. Isso porque, é razoável ter coeficientes variando no tempo dependendo do regime correspondentes à persistência da variância (variância anterior) e às inovações. A noção de que uma série econômica possa ter alguma variação na sua estrutura é antiga para os economistas. Marcucci (2005) comparou diferentes modelos com e sem mudança de regime em termos de sua capacidade para descrever e predizer a volatilidade do mercado de valores dos EUA. O trabalho de Hamilton (1989) foi uns dos mais importantes para o desenvolvimento de modelos com mudança de regime. Inicialmente mostrou que a série do PIB dos EUA pode ser modelada como um processo que tem duas formas diferentes, uma na qual a economia encontra-se em crescimento e a outra durante a recessão. O câmbio de uma fase para outra da economia pode seguir uma cadeia de Markov de primeira ordem. Utilizamos as séries de índice Bovespa e S&P500 entre janeiro de 2003 e abril de 2012 e ajustamos o modelo GARCH(1,1) com mudança de regime seguindo uma cadeia de Markov de primeira ordem, considerando dois regimes. Foram consideradas as distribuições gaussiana, t de Student e generalizada do erro (GED) para modelar as inovações. A distribuição t de Student com mesmo grau de liberdade para ambos os regimes e graus distintos se mostrou superior à distribuição normal para caracterizar a distribuição dos retornos em relação ao modelo GARCH com mudança de regime. Além disso, verificou-se um ganho no percentual de cobertura dos intervalos de confiança para a distribuição normal, bem como para a distribuição t de Student com mesmo grau de liberdade para ambos os regimes e graus distintos, em relação ao modelo GARCH com mudança de regime quando comparado ao modelo GARCH usual.

Year

2014

Creators

William Gonzalo Rojas Duran

Análise bayesiana em modelos TRI de três parâmetros.

Neste trabalho discutimos a análise bayesiana em modelos TRI (Teoria da Resposta ao Item) de três parâmetros com respostas binárias e ordinais, considerando a ligação probito. Em ambos os casos usamos técnicas baseadas em MCCM (método de Monte Carlo baseado em Cadeias de Markov) para estimação dos parâmetros dos itens. No modelo com respostas binárias, consideramos dois conjuntos de dados resultantes de provas com itens de múltipla-escolha. Para esses dados, foi feito um estudo da sensibilidade à escolha de distribuições a priori, além de uma análise das estimativas a posteriori para os parâmetros dos itens: discriminação, dificuldade e probabilidade de acerto ao acaso. Um terceiro conjunto de dados foi utilizado no estudo do modelo com respostas ordinais. Estes dados são provenientes de uma disciplina básica de estatística, onde a prova contêm itens dissertativos. As respostas foram classificadas nas categorias: certa, errada ou parcialmente certa. Utilizamos o programa WinBugs para a estimação dos parâmetros do modelo binário e a função MCMCordfactanal do programa R para estimar os parâmetros do modelo ordinal. Ambos os softwares são não proprietários e gratuitos (livres).

Year

2008

Creators

Katia Antunes Marques

Flutuações do choque no processo de Hammersley

No presente trabalho provamos resultados sobre as flutuações dos fluxos de partículas e das partículas marcadas no processo de Hammersley multiclasse. Os métodos das demonstrações são robustos, formulados de modo a serem aplicados em outros processos, em particular se aplicam ao processo de exclusão totalmente assimétrico multiclasse (TASEP multiclasse) e à seu respectivo modelo de percolação de última passagem. Os principais teoremas obtidos são um teorema central do limite para o choque, seu coeficiente de difusão e uma fórmula exata para a variância do fluxo de partículas de classe N >1 para o processo em equilíbrio multiclasse.

Year

2013

Creators

Marcio Watanabe Alves de Souza

Modelos bayesianos semi-paramétricos para dados binários

Este trabalho propõe modelos Bayesiano semi-paramétricos para dados binários. O primeiro modelo é uma mistura em escala que permite lidar com discrepâncias relacionadas a curtose do modelo Logístico. É uma extensão relevante a partir do que já foi proposto por Basu e Mukhopadhyay (2000) ao possibilitar a interpretação da distribuição a priori dos parâmetros através de razões de chances. O segundo modelo usufrui da mistura em escala em conjunto com a transformação proposta por \\Yeo e Johnson (2000) possibilitando que a curtose assim como a assimetria sejam ajustadas e um parâmetro informativo de assimetria seja estimado. Esta transformação é muito mais apropriada para lidar com valores negativos do que a transformação de Box e Cox (1964) utilizada por Guerrero e Johnson (1982) e é mais simples do que o modelo proposto por Stukel (1988). Por fim, o terceiro modelo é o mais geral entre todos e consiste em uma mistura de posição e escala tal que possa descrever curtose, assimetria e também bimodalidade. O modelo proposto por Newton et al. (1996), embora, seja bastante geral, não permite uma interpretação palpável da distribuição a priori para os pesquisadores da área aplicada. A avaliação dos modelos é realizada através de medidas de distância de probabilidade Cramér-von Mises, Kolmogorov-Smirnov e Anderson-Darling e também pelas Ordenadas Preditivas Condicionais.

Year

2015

Creators

Márcio Augusto Diniz

Covariate shift adaptation and dataset shift decomposition in machine learning

In supervised learning, we often have access to a limited sample, in size or quality (e.g., lack of labels), of the population/distribution of interest, for which we want to create predictive models. However, it is possible that we have less limited access to data sampled from another population, more or less similar to the one of interest. Training models using only data from the population of interest may be impossible or result in sub-optimal models, so it would be interesting to use data from the other population in order to get better results or make training possible. In these situations, as the distributions of interest and the one that we can sample with few restrictions are different, we say that there is dataset shift. In dataset shift situations, employing domain adaptation techniques when training supervised models is essential for theoretical guarantees of good results in the population of interest. The two kinds of dataset shift we will discuss about in this work are covariate shift and concept drift/shift. The main objectives of this work are: (i) to review the main concepts and methods related to covariate shift and covariate shift adaptation; (ii) propose contributions to the covariate shift adaptation literature, connecting concepts present in modern literature; (iii) propose the decomposition of the dataset shift into covariate shift and expected concept drift/shift as a new approach to better understand situations in which we deal with dataset shift.

Year

2021

Creators

Felipe Maia Polo

Modelos de memória longa, GARCH e GARCH com memória longa para séries financeiras

O objetivo deste trabalho é apresentar e comparar diferentes métodos de modelagem da volatilidade (variância condicional) de séries temporais financeiras. O modelo ARFIMA é empregado para capturar o comportamento de memória longa observado na volatilidade de séries financeiras. Por sua vez, o modelo GARCH é utilizado para modelar a volatilidade variando no tempo destas séries. Finalmente, o modelo FIGARCH é utilizado para modelar a dinâmica dos retornos de séries temporais financeiras juntamente com sua volatilidade. Serão apresentados alguns estimadores para os parâmetros dos modelos estudados. Foram realizadas simulações dos três tipos de modelos com o objetivo de comparar o comportamento dos estimadores para diferentes valores dos parâmetros. Por fim, serão apresentadas aplicações em séries reais.

Year

2008

Creators

Grazielle Yumi Solda

Estimação do índice de memória em processos estocásticos com memória longa: uma abordagem via ABC

Neste trabalho propomos o uso de um método Bayesiano para estimar o parâmetro de memória de um processo estocástico com memória longa quando sua função de verossimilhança é intratável ou não está disponível. Esta abordagem fornece uma aproximação para a distribuição a posteriori sobre a memória e outros parâmetros e é baseada numa aplicação simples do método conhecido como computação Bayesiana aproximada (ABC). Alguns estimadores populares para o parâmetro de memória serão revisados e comparados com esta abordagem. O emprego de nossa proposta viabiliza a solução de problemas complexos sob o ponto de vista Bayesiano e, embora aproximativa, possui um desempenho muito satisfatório quando comparada com métodos clássicos.

Year

2016

Creators

Plinio Lucas Dias Andrade

Identificação de modelos lineares mistos gaussianos 

O objetivo deste trabalho é avaliar uma possível má especificação de modelos lineares mistos gaussianos. Essa avaliação permite reconhecer quando o modelo é incorretamente especificado e identificar a fonte do erro de especificação, que pode estar na estrutura da média, na estrutura da matriz de covariâncias ou em ambas. Com esse propósito, propomos testes baseados na matriz de informação obtida da função de verossimilhança que, em conjunto com diagnósticos gráficos, são usados na identificação. Um estudo de simulação permite avaliar os testes em quanto ao poder e à taxa do erro tipo I. Concluímos com uma aplicação da estratégia da análise proposta num exemplo com dados reais.

Year

2021

Creators

Jairo Arturo Angel Guzman

Classes de testes de hipóteses

Na Inferência Estatística, é comum, após a realização de um experimento, testar simultaneamente um conjunto de diferentes hipóteses de interesse acerca de um parâmetro desconhecido. Assim, para cada hipótese, realiza-se um teste de hipótese e, a partir disto, conclui-se algo sobre os parâmetros de interesse. O objetivo deste trabalho é avaliar a (falta de) concordância lógica entre as conclusões obtidas a partir dos testes realizados após a observação de um único experimento. Neste estudo, é apresentada uma definição de classe de testes de hipóteses, uma função que para cada hipótese de interesse associa uma função de teste. São então avaliadas algumas propriedades que refletem como gostaríamos que testes para diferentes hipóteses se comportassem em termos de coerência lógica. Tais propriedades são exemplificadas através de classes de testes que as satisfazem. A seguir, consideram-se conjuntos de axiomas para classes. Estes axiomas são baseados nas propriedades mencionadas. Classes de testes usuais são investigadas com relação aos conjuntos de axiomas propostos. São também estudadas propriedades advindas de tais conjuntos de axiomas. Por fim, estuda-se um resultado que estabelece uma espécie de conexão entre testes de hipóteses e estimação pontual.

Year

2010

Creators

Rafael Izbicki

Extensões dos modelos de regressão quantílica bayesianos

Esta tese visa propor extensões dos modelos de regressão quantílica bayesianos, considerando dados de proporção com inflação de zeros, e também dados censurados no zero. Inicialmente, é sugerida uma análise de observações influentes, a partir da representação por mistura localização-escala da distribuição Laplace assimétrica, em que as distribuições a posteriori das variáveis latentes são comparadas com o intuito de identificar possíveis observações aberrantes. Em seguida, é proposto um modelo de duas partes para analisar dados de proporção com inflação de zeros ou uns, estudando os quantis condicionais e a probabilidade da variável resposta ser igual a zero. Além disso, são propostos modelos de regressão quantílica bayesiana para dados contínuos com um componente discreto no zero, em que parte dessas observações é suposta censurada. Esses modelos podem ser considerados mais completos na análise desse tipo de dados, uma vez que a probabilidade de censura é verificada para cada quantil de interesse. E por último, é considerada uma aplicação desses modelos com correlação espacial, para estudar os dados da eleição presidencial no Brasil em 2014. Nesse caso, os modelos de regressão quantílica são capazes de incorporar essa informação espacial a partir do processo Laplace assimétrico. Para todos os modelos propostos foi desenvolvido um pacote do software R, que está exemplificado no apêndice.

Year

2016

Creators

Bruno Ramos dos Santos

Uma aplicação do FBST no teste de nulidade do parâmetro extra na distribuição de Poisson generalizada

Aplicamos o teste de hipóteses genuinamente bayesiano - FBST - ao problema de testar a nulidade do parâmetro extra na distribuição de Poisson Generalizada

Year

2009

Creators

Paulo do Canto Hubert Junior

Diagramas de influência e teoria estatística

O objetivo principal deste trabalho foi analisar o controverso conceito de informação em estatística. Para tal, primeiramente foi estudado o conceito de informação dado por Basu. A seguir, a análise foi dividida em três partes: informação nos dados, informação no experimento e diagramas de influência. Nas duas primeiras etapas, sempre se tentou definir propriedades que uma função de informação deveria satisfazer para se enquadrar ao conceito. Na primeira etapa, foi estudado como o princípio da verossimilhança é uma classe de equivalência decorrente de acreditar que experimentos triviais não trazem informação. Também foram apresentadas métricas que satisfazem o princípio da verossimilhança e estas foram usadas para avaliar um exemplo intuitivo. Na segunda etapa, passamos para o problema da informação de um experimento. Foi apresentada a relação da suficiência de Blackwell com experimentos triviais e o conceito usual de suficiência. Também foi analisada a equivalência de Blackwell e a sua relação com o Princípio da Verossimilhança anteriormente estudado. Além disso, as métricas apresentadas para medir a informação de conjuntos de dados foram adaptadas para também medir a informação de um experimento. Finalmente, observou-se que nas etapas anteriores uma série de simetrias mostraram-se como elementos essenciais do conceito de informação. Para ganhar intuição sobre elas, estas foram reescritas através da ferramenta gráfica dos diagramas de influência. Assim, definições como suficiência, suficiência de Blackwell, suficiência mínima e completude foram reapresentadas apenas usando essa ferramenta.

Year

2009

Creators

Rafael Bassi Stern

Testes de hipóteses em eleições majoritárias

O problema de Inferência sobre uma proporção, amplamente divulgado na literatura estatística, ocupa papel central no desenvolvimento das várias teorias de Inferência Estatística e, invariavelmente, é objeto de investigação e discussão em estudos comparativos entre as diferentes escolas de Inferência. Ademais, a estimação de proporções, bem como teste de hipóteses para proporções, é de grande importância para as diversas áreas do conhecimento, constituindo um método quantitativo simples e universal. Nesse trabalho, é feito um estudo comparativo entre as abordagens clássica e bayesiana do problema de testar as hipóteses de ocorrência ou não de 2º turno em um cenário típico de eleição majoritária (maioria absoluta) em dois turnos no Brasil.

Year

2008

Creators

Victor Fossaluza