Repositório RCAAP
Soma de variáveis aleatórias equicorrelacionadas e aplicações em análise de risco e séries temporais discretas
O interesse básico das companhias de seguro é analisar os riscos acumulados. A teoria clássica assume independência entre os sinistros, mas na prática eles exibem uma estrutura de dependência. Nesta tese, estudaremos somas aleatórias, relaxando a suposição de independência entre as variáveis aleatórias envolvidas. Para quantificar o grau de dependência, usaremos o coeficiente de correlação. Derivaremos expressões explícitas para a função geradora de probabilidade e obteremos a distribuição aleatória no caso em que as variáveis aleatóriaas são equicorrelacionadas. Além disso, investigaremos mudanças entre os prêmios no caso de riscos dependentes e independentes. Introduziremos o processo autoregressivo de ordem 1 de valores inteiros correlacionados e sugeriremos duas extensões do processo autoregressivo de ordem 1 discreto. Finalmente assumiremos que as variáveis estão em custers independentes mas que dentro de cada cluster elas são igualmente correlacionadas. Utilizaremos a distribuição multinomial para modelar esta situação
2003
Delhi Teresa Paiva Salinas
Imputação de dados categorizados usando o modelo multinomial
Estamos interessados em mostrar como aproveitar observações incompletas, muitas vezes encontradas em estudos envolvendo dados categorizados em tabelas de contingência. Nesse sentido, propomos o ajuste de um modelo de censura aos dados observados, incluindo aqueles incompletos. O modelo poderá ser ignorável ou não-ignorável, permitindo-nos fazer uso da amostra por completo, por meio da imputação de dados. Neste trabalho, ilustramos o ajuste do modelo de censura ignorável para tabelas de contingência com dados esparsos a uma pesquisa de consumo de drogas na Universidade de São Paulo. O modelo de censura não-ignorável também é descrito e é aplicado a dados de pesquisas eleitorais da eleição para Presidente do Brasil em 2002, segundo turno
Número ótimo de aglomerados estocásticos
O número ótimo de aglomerados estocásticos proposto pelo método GAP de Tibshirani et al. (2000) é um procedimento para a determinação do número ideal de aglomerados em uma base de dados. Estudamos aqui a escolha do número de aglomerados quando a base tem uma evolução estocástica markoviana no tempo. Propomos avaliar a eficácia do método GAP e adequá-lo ao procedimento de evolução temporal. Além disto (sic), pretende-se evidenciar por meio de simulações de4 Monte Carlo que a alteração proposta leva à escolha de um valor ótimo com propriedades estatísticas e computacionais desejáveis
Processo KLS
Nesta tese nós estudamos o processo de Katz-Lebowitz-Spohn, resumindo, processo KLS. Este processo é um sistema de partículas em Z onde cada partícula desenvolve passeio aleatório totalmente assimétrico, movendo-se somente para a direita, com exclusão, com taxas de salto que dependem da configuração dos vizinhos anterior e dos dois vizinhos posteriores. Uma das principais dificuldades enfrentadas é que em geral o processo KLS não é atrativo. Outro aspecto relevante é que o fluxo em ma certa região do espaço paramétrico não é uma função nem côncava nem convexa. Nesse trabalho nós caracterizamos as medidas invariantes e invariantes por translações. Obtemos uma lei dos grandes números para o fluxo de partículas. Além disso conseguimos provar a ocorr ncia de choques duplos microsópicos partindo-se e se afastando um do outro em um caso especial do processo KLS
2003
Adriano Francisco Siqueira
Modelo assimétrico com erros nas variáveis
Neste trabalho estudamos o modelo com erros nas variáveis considerando que os erros do modelo são distribuídos segundo uma classe particular de distribuições assimétricas. O estudo é desenvolvido para o modelo estrutural, e são derivados resultados assintóticos que generalizam os obtidos na literatura sob a distribuição normal e distribuições elípticas. São feitas simulações e uma aplicação aos dados da Taxa de Mortalidade Infantil fornecidos pelo Sistema Único de Saúde (SUS) do Ministério da Saúde do Brasil
Métodos restritos e validação de modelos simétricos de regressão
É conhecido na literatura, que a modelagem sob a suposição de erros normalmente distribuídos pode ser altamente influenciada por observações extremas. O objetivo deste trabalho é apresentar alguns resultados na área de modelagem estatística de regressão com erros distribuídos na família simétrica, que contempla distribuições com caudas mais pesadas do que a normal. Numa primeira etapa, são apresentados alguns resultados na classe simétrica de distribuições. Em seguida, métodos de validação de modelos estatísticos baseados na teoria de influência local de4senvolvida por Cook (1986) são apresentados. Quando a suposição de homoscedasticidade do modelo não é verificada, modelos heteroscedásticos são propostos em que a variância do modelo está relacionada, através de uma função de ligação, com um conjunto de variáveis explicativas. Métodos de validação são, também, desenvolvidos nesse caso e conjuntos de dados reais são utilizados para ilustrar a teoria proposta. Numa segunda etapa, discutimos a parte inferencial em modelos simétricos de regressão lineares com restrições nos oarâmetros. Desenvolvemos processos iterativos (sic) para a estimação dos parâmetros e, também, alguns testes estatísticos, tais como razão de verossimilhanças, Wald e escore, para dois casos gerais de hipóteses restritas na forma de desigualdades lineares. Conjuntos de dados reais são utilizados para ilustrar a teoria desenvolvida. Rotinas computacionais originais em S-Plus e R para a obtenção das estimativas restritas e irrestritas em modelos simétricos lineares e não-lineares são desenvolvidas e apresentadas na web-page www.de.ufpe.br/ cysneiros/elliptical.html. Focamos também modelos de regressão com erros t-Student para a análise de dados longitudinais com restrições nos parâmetros na forma de desigualdades lineares.
2004
Francisco José de Azevêdo Cysneiros
Burn-in e política de manutenção
O burn-in é um método utilizado para prevenir falhas precoces de um objeto (sistema ou componente, melhorando sua qualidade. Em geral, um procedimento de burn-in continua até assegurarmos uma confiabilidade máxima para um tempo de funcionamento prefixado ou minimizarmos o número médio de falhas durante um paríodo prefixado de funcionamento. Foram analisadas as políticas de manutenção por idade e por bloco de objetos reparáveis que tenham sobrevivido a um teste de burn-in. Consideramos reparos completos (no caso de política de manutenção por idade) e reparos mínimos (no caso de política de manutenção por bloco) e minimizamos o custo de uma tal política sobre tais objetos colocados em operação. Em ambas as situações, minimizamos uma estrutura de custo total que inclui o custo do procedimento de burn-in e o custo da política de manutenção
2004
Perseverando da Trindade Garcia Filho
Medidas de ajuste de modelos de equações estruturais
A modelagem de equações estruturais permite especificar como variáveis não observáveis (conhecidas como variáveis latentes) podem ser mensuradas através de variáveis observáveis utilizando equações de mensuração. Ela também permite analisar várias relações de dependência entre variáveis que são intercorrelacionadas utilizando equações estruturais. Esta modelagem é uma extensão das técnicas de análise de regressão multivarida e análise fatorial e está sendo muito utilizada em diversas áreas, tais como: educação, marketing, psicologia, saúde, entre outras. Na estatística, pode ser utilizada na estimação de modelos multivariados como regressão, análise fatorial confirmatória, análise de caminho, entre outros. Neste trabalho, apresenta-se os principais tipos de modelos existentes nessa modelagem, os métodos de estimação para alguns casos típicos de modelos e as medidas de ajuste mais usuais para verificação da qualidade de ajuste dos modelos. Também apresentamos uma aplicação a um exemplo real sobre agricultores familiares modernos de Salto, através do qual tentamos explicitar melhor o uso das medidas de ajuste para esta modelagem.
2004
Tatiana Terabayashi Melhado
Estacionariedade em séries temporais com quebras estruturais
Um dos principais problemas na análise de séries temporais é testar se uma determinada série é estacionária ou não. Séries estacionárias são, grosso modo, séries que mantêm o mesmo comportamento ao longo do tempo. A teoria e várias técnicas de análise já estão bem estabelecidas para essas séries. A análise de séries não-estacionárias, por sua vez, é mais complexa e não existe uma aborgadem geral. Os testes de raiz unitária são os mais utilizados para se testar um tipo específico de não estacionariedade, denominada tendência estocástica ou passeio aleatório. Este trabalho pretende explorar uma abordagem alternativa desenvolvida no contexto de modelos de componentes não-observáveis. São os chamados testes de estacionariedade, que diferem dos testes de raiz unitária pela inversão da hipótese nula. Os testes de estacionariedade vêm apresentando generalizações recentes, possibilitando a aplicação a uma gama mais ampla de séries: com tendência, com sazonalidade e com quebras estruturais. Nessa linha, pretende-se então revisar os principais conceitos relacionados e aplicar esses testes de estacionariedade a séries econômicas brasileiras.
Refinamentos para testes de hipóteses em modelos de regressão lineares e não-lineares heteroscedásticos
Nesta tese tratamos de refinamentos para testes de hipóteses em modelos de regressão lineares e não-lineares heteroscedásticos. Na primeira parte da tese, obtemos uma correção de Bartlett para um teste de heteroscedasticidade baseado em verossimilhança modificada proposta por COX e Reid (1987) no modelo de regressão normal linear considerando que o parâmetro que define a estrutura de heteroscedasticidade é possivelmente multidimensional. Na segunda parte, estendemos esses resultados para a classe dos modelos não-lineares da família exponencial com parâmetros de dipersão que não são constantes para todas as observações. Finalmente, na terceira parte da tese, desenvolvemos novos ajustes para estatísticas da razão de verossimilhanças nesta classse de modelos, desta vez com base nos trabalhos de Skovgaard (1996, 2001). Os resultados assim obtidos são bem gerais e produzem, como caso particular, ajustes para o teste da razão de verossimilhanças de heteroscedasticidade. Desenvolvemos estudos de simulação de Monte Carlo para avaliar e comparar numericamente os desempenhos dos testes em amostras finitas.
2004
Audrey Helen Mariz de Aquino Cysneiros
Seleção de estruturas de covariância para dados com medidas repetidas
Propomos um conjunto de técnicas gráficas e analíticas para o diagnóstico da matriz de covariâncias intra-unidades amostrais em estudos com medidas repetidas. Essas técnicas compreendem a análise das matrizes de covariâncias e correlações amostrais, dos gráficos de dispersão múltipla, dos gráficos de perfis médios e de perfis individuais, dos gráficos de perfis das linhas das matrizes de correlações amostrais em função da defasagem e do variograma amostral das observações padronizadas. A aplicação dessas técnicas é ilustrada por meio de exemplos práticos.
2004
Francisco Marcelo Monteiro da Rocha
Um modelo de regressão beta: teoria e aplicações
Esta dissertação compreende o estudo de um modelo de regressão adequado para situações em que a variável resposta é medida de forma contínua no intervalo unitário como, por exemplo, dados de taxas ou proporções. O trabalho foi baseado no artigo de Ferrari e Cribari-Neto (2004) que propõe um modelo de regressão em que a resposta tem distribuição beta utilizando uma parametrização da lei beta que é indexada pela média e um parâmetro de dispersão. Nossa contribuição está, primeiramente, na avaliação, via simulação, da qualidade das aproximações utilizadas nas inferências sobre os parâmetros em amostras finitas. Em particular, avaliamos o viés do estimador de máxima verossimilhança, a proximidade de sua distribuição à distribuição normal de referência, a distorção do tamanho dos testes de razão de verossimilhanças, escore e Wald e a qualidade da aproximação das distribuições das estatísticas dos testes por uma distribuição qui-quadrado adequada. Desenvolvemos também uma análise e discussão de duas novas aplicações do modelo de regressão beta a conjuntos de dados reais.
2004
Marcos Santos de Oliveira
Pontos de alavanca em regressão
O objetivo principal deste trabalho é apresentar alguns resultados relacionados com pontos de alavanca em modelos de regressão. A idéia básica por trás do conceito de pontos de alavanca é avaliar a influência de cada observação sobre o próprio valor predito. Discutimos no trabalho o cálculo de pontos de alavanca em modelos normais lineares e não-lineares e em seguida em modelos não-lineares de família exponencial, tendo essa última classe como caso particular os modelos lineares generalizados. Exemplos ilustratuvos são apresentados ao longo do texto. Mostramos também que pontos de alavanca são em geral influentes nas estimativas dos parâmetros da regressão e podem ser úteis na detecção de valores da variável resposta para os quais é mais incerto fazer previsão.
Análise de covariância com um fator e erro de medida na covariável
Neste trabalho estudamos o modelo de análise de covariância com um fator e erro de medida na covariável. Apresentamos estimadores de máxima verossimilhança para os parâmetros de interesse e testes para a hipótese de inexistência de efeito de tratamento nos modelos normais funcional e estrutural. Para contonar o problema de não identificabilidade do modelo estrutural ou de não existência de estimadores de máxima verossimilhança no modelo funcional, supomos que a razão entre as variâncias dos erros é conhecida. Desenvolvemos também diversos estudos de simulação para avaliar algumas propriedades dos estimadores propostos e o desempenho dos testes de hipótese apresentados.
2004
Flávio Guardiano de Souza
Um estudo dos modelos polinomiais com erros nas variáveis na função de verossimilhança corrigida e escore corrigido
Neste trabalhao, estudamos os modelos polinomiais com erros nas variáveis considerando as metodológicas da função de verossimilhnça corrigida desenvolvida por Nakamura (1990) e a função escore corrigido desenvolvida por Bolfarine e Gimenez (1997). Exibimos os casos quando o modelo com erros nas variáveis tem um erro aditivo, assim quando este erro é multiplicativo, além disso consideramos os dois possíveis supostos, isto é, quando o modelo funcional é estrutural, logo fazemos uma generalização para modelos multivariados, considerando neste caso os modelos de calibração comparativa. Nos casos onde a função de verossimilhança corrigida exista num modelo aditivo, será considerada um estudo de Influência Local. Consideramos exemplos de Simulação de Monte Carlo e exemplos concretos para cada situação.
2004
Arturo Alejandro Zavala Zavala
Amostragem por linhas transectas e pontos transectos: uma comparação dos estimadores da densidade populacional
Nos estudos de Ecologia freqüentemente é necessário estimar a densidade (D) de populações biológicas (animais ou plantas), definida como o número de elementos por unidade de área. Entre outros, a densidade é considerada como um parâmetro importante em pesquisas sobre a extinção da espécie e também para entidades governamentais que controlam a derrubada de árvores e caça e pesca de animais. Neste trabalho são apresentados estimadores da densidade populacional nos métodos amostrais linhas transectas e pontos transectos. A análise de dados obtidos por esses métodos de amostragem é ilustrada em dados de uma população com distribuição espacial uniforme, gerados via simulação e é apresentada uma comparação entre os estimadores sob os dois métodos.
2004
Diana Milena Galvis Soto
Fenômenos críticos em sistemas de partículas interagentes e suas aplicações na modelagem de mercados financeiros
Apresentamos um modelo estocástico de agentes interagentes que permite investigar a formação de preço em mercados financeiros coo sendo um resultado de dois fatores: a interação social entre agentes e a heterogeneidade de suas crenças individuais. Nós mostramos que nosso modelo exibe transição de fase. Para encontrar as propriedades desta transição, importante para a aplicação, nós analisamos certos sistemas dinâmicos. Tanto a existência de transição de fase quanto os sistemas dinâmicos que emergem deste estudo tornam o modelo interessante do ponto de vista de um estudo matemático. O modelo também é atraente do ponto de vista de aplicação, pois explica a formação de bolhas especulativas e crashes, assim como a multiplicidade de preços de equilíbrio em mercados financeiros.
2004
Fernando Pigeard de Almeida Prado
Modelagem do coeficiente kappa ponderado
O coeficiente kappa ponderado é uma medida muito utilizada para avaliar o grau de concordância entre examinadores. Desenvolvida a partir do coeficiente kappa, ela é indicada para a análise de avaliações feitas em escala ordinal. Supondo que o grau de concordância dos examinadores possa variar com as características de cada unidade amostral ou até mesmo dos próprios examinadores, foi proposta uma modelagem do coeficiente kappa ponderado, que admite a inclusão de covariáveis. O modelo proposto, assim como os modelos lineares generalizados, utiliza funções de ligação para modelar as probabilidades de classificação de cada juiz e posteriormente o coeficiente kappa ponderado. A estimação do modelo é feita a partir de equações de estimação generalizadas. Este texto apresenta a teoria da modelagem do coeficiente kappa ponderado, bem como macros em S e SAS para a estimação dos modelos. Apresenta também uma aplicação com dados reais.
2004
Rogério Ruscitto do Prado
Ajustes para a estatística da razão de verossimilhanças sinalizada em modelos normais não lineares
A estatística da razão de verossimilhanças sinalizada (R) tem, assintoticamente, distribuição normal padrão com um erro de ordem O ('n POT -1/2'). Em amostras pequenas ou de tamanho moderado, a aproximação normal para a distribuição de R pode ser bem imprecisa. Diversos ajustes para esta estatística são apresentados na literatura, entre os quais, destacamos a estatística da razão de verossimilhanças sinalizada modificada ('R POR. *') proposta por Barndorff-Nielsen (1986, 1991), a estatística 'R POT. * IND. 0' proposta por DiCiccio e Martin (1993) para o caso em que os parâmetros são ortogonais, a estatística 'R BARRA POT. *' baseada em covariâncias proposta por Skovgaard (1996), a estatística 'R POT. *' baseada em covariâncias empíricas proposta por Severini (1999) e, finalmente, a estatística 'R POT. *' baseada numa estatística aproximadamente ancilar proposta por Fraser, Reid e Wu (1999). Nessa dissertação obtivemos estas estatísticas para os modelos de regressão normais lineares e não lineares e, através de um estudo de simulação, fizemos uma comparação dos desempenhos nas diversas estatísticas consideradas. Por fim, aplicamos os resultados teóricos a dados reais.
Evidência em testes de hipótese:: alguns casos relacionados à distribuição binomial
Os testes de hipóteses representam uma ferramenta básica para a verificação de teorias científicas. Em diferentes áreas, a partir dos dados coletados, os pesquisadores queremavaliar se sua hipótese de trabalho está sendo estatisticamente corroborada ou refutada. Buscam uma medida da evidência que os resultados lhes trazem. Neste trabalho, procuramos discutir os métodos padrão para os testes de hipóteses com foco principal na questão da evidência. Estudamos a utilização direta da razão de verossimilhanças para alguns problemas comuns relacionados à distribuição binomial. Quanto à controvertida questão das hipóteses precisas, analisamos as medidas de evidência tradicionais e consideramos a utilização da nova metodologia de teste denominada FBST. Nesse sentido, comparamos as diferentes medidas em testes para proporção, teste de homogeneidade e teste de independência.
2004
José Marcelo Biagioni Baroni