Repositório RCAAP
Imprevistos e suas consequências
A influência de informaçôes cuja ocorrência não havia sido previamente antecipada na construção de distribuições a posteriori será discutida.Primeiramente, abordaremos a questão da atualização de probalidades quando imprevistos ocorrem imediatamente antes de declaração de opiniões a posteriori. Alguns mecanismos de atualização de probalidades serão apresentados e algumas de suas fragilidades discutidas. A Regra de Jeffrey será vista em detalhes, destacando sua versão preditivista e o conceito de conjugação definido por esta regra. Também será discutido o Condicionamento Bayesiano e sua quaseimpotência na incorporação de imprevistos.Uma caracterização preditivista de modelos lineares t é obtida partindo apenas de julgamentos sobre objetos observáveis. Além de mais alguns exemplos de Jeffrey-conjugação, esta caracterização fornece um procedimento completamente operacional de modelagem. Posteriormente, apresentaremos um procedimento para inferir sobre pontos de mudanças, os quais muitas vezes surgem como conseqüências da ocorrência de imprevistos, utilizando o Modelo Partição Produto. Como inferir sobre mudanças na média e na variância de dados condicionalmente normais usando este procedimento será especificado. Aplicaremos os procedimentos desenvolvidos a dados do mercado financeiro
1998
Rosângela Helena Loschi
Bootstrap não-paramétrico aplicado a dados incompletos
Um problema bastante comum em levantamentos amostrais é afalta de algumas das informações. Uma maneira de tratar esse problema é a imputação, consiste em prever as observações perdidas, completando o conjunto, de dados para depois analisá-lo como se fosse completo. Em particular, essa idéia também pode ser aplicada quando se pretende utilizar o método bootstrap para se estimar o erro padrão de algum estimador. Apesar dessa técnica ser bastante utilizada atualmente, pouca atenção tem sido dada á sua aplicação na ausência de informações. Este trabalho discorre sobre a aplicação da técnica bootstrap não-paramétrica a dados incompletos, caso em que o procedimento usual é aplicá-la em conjunto com algum método de imputação. Apresentamos os resultados de simulação sobre a estimação da variância dos estimadores das componentes da variância em um modelo linear misto e mediante a geração de dados através de uma distribuição normal bivariada. As amostras utilizadas são do tipo painel onde n indivíduos foram gerados em dois instantes de tempo
1998
Delhi Teresa Paiva Salinas
Probabilidade de paternidade: uma proposta metodológica para seu cálculo
Neste trabalho se apresenta uma proposta metodológica para calcular a probabilidade de paternidade, quando não é possível analisar ou obter o DNA do indivíduo acusado de ser o pai e os genótipos dos outros indivíduos considerados no estudo, sãodeterminados sem erro. Para cada conjunto de parentes do acusado - pais, irmãos e/ou filhos - a metodologia proposta permite determinar, exatamente, a distribuição de probabilidade a posteriori para o genótipo do acusado, após ter observado osgenótipos de seus parentes. Com esta distribuição, a probabilidade a posteriori de paternidade pode ser calculada. Consideramos a lei de equilíbrio populacional de Hardy-Weinberg, apresentando um teste exato e não condicional. O teste édesenvolvido, separadamente, para ambos os casos, o de dois alelos e o de alelos múltiplos. Baseando-se no conceito de informação esperada de um experimento (Smith e Bernardo, 1994), estabelecemos uma ordem de preferência entre todas as classesde parentes. Para obter essa ordem, analisamos os diferentes conjuntos de parentes do acusado. Além disso, alguns locos, usados pelo laboratório Genomic, em suas análises de DNA, são classificados em termos da informação esperada obtida para osdiferentes experimentos aqui considerados
1998
Luis Eduardo Montoya Delgado
Influência local e análise de resíduos em modelos de regressão von Mises
Uma etapa importante apóa a formulação e ajuste de um modelo de regressào é a análise de diagnóstico. Neste trabalho são tratados alguns aspectos de diagnóstico em modelos de regressão von Mises. É empregada a abordagem de influência local sobrea likelihood displacement para o modelo misto, onde os dois parâmetros da distribuição von Mises são modelados através de funções de ligação apropriadas. Considerando o modelo de médias von Mises, são propostos dois resíduos padronizados obtidosa partir dos componentes da função desvio. Nós mostramos que as distribuições de probabilidade desses resíduos podem ser aproximados pela distribuição normal padrão e apresentamos o resultado de um estudo de simulação desenvolvido com o objetivode avaliar o comportamento de algumas características dessas distribuições. Os resultados são aplicados a dois conjuntos de dados reais
1999
Francisco Antonio Morais de Souza
Métodos de comparação de séries temporais
Na análise de séries temporais, muitas vezes, é de interesse verificar se duas séries, ou trechos de uma mesma série, estão sendo gerados pelo mesmo processo estocástico. No caso de processos estacionários de segunda ordem, as hipóteses deinteresse são verificar se elas apresentam igual estrutura de autocovariância (autocorrelação) ou igualdade das funções de densidades espectrais. Nesta dissertação apresentamos vários testes, alguns para séries multivariadas, com esse objetivo.Simulações são realizadas para comparar os diferentes procedimentos no caso de comparação de duas séries univariadas. Finalmente, aplicamos todas as técnicas para a análise de um conjunto de dados reais
1999
Gladys Elena Salcedo Echeverry
Confiabilidade assintótica de sistemas reparáveis
Na Teoria da Confiabilidade muitos problemas são resolvidos facilmente quando assumimos que todas as variáveis aleatórias envolvidas comportam-se de acordo com uma lei exponencial. Contudo as variáveis usadas nessa teoria tais como tempo deoperação, tempo de reparo, etc., podem ter distribuições completamente diferentes. Neste caso usamos métodos de outras áreas tais como, Teoria das Filas e Teoria da Renovação, que permitem a solução de problemas quando parte ou todas asdistribuições envolvidas são arbitrárias. Outra forma é a procura de soluções aproximadas através de teoremas limite. Este trabalho segue esta linha
1999
Esteban Fernández Tuesta
Medidas repetidas com covariáveis dependentes do tempo: um exemplo com dados incompletos
Consideramos a análise de dados provenientes de um experimento com medidas repetidas incompletas e covariáveis dependentes do tempo. O experimento consistiu na avaliação da resposta a um estímulo elétrico aplicado em nervos de mexilhões, antes e após tratamento com água do mar com diferentes salinidades (condições de avaliação). O estudo envolveu a modelagem do efeito da salinidade sobre as respostas avaliadas após os tratamentos, tendo como covariáveis as respostas avaliadas antes dos tratamentos. O objetivo foi comparar os resultados obtidos sob modelos de regressão para dados não correlacionados com aqueles em que diferentes estruturas de covariância intraunidades amostrais foram levadas em conta. Discutimos tanto os aspectos associados à escolha da forma da relação entre a resposta e as diferentes salinidades quanto aqueles que focam a escolha da estrutura de covariância. Mostramos que, embora ambas as classes de modelos produzam resultados semelhantes, a última gera estimadores mais precisos
Inferência estatística para modelos lineares com restrições nos parâmetros em condições regulares e não regulares
Estudamos estatísticas adequadas para testar hipóteses sobre os parâmetros de modelos lineares com restrições no espaço paramétrico. Propomos um teste alternativo para dois casos em que as restrições sobre o espaço paramétrico são impostas peloobjetivo da investigação em condições regulares, (i.e. quando o parâmetro está no interior do espaço paramétrico). Concluímos, através de estudos de simulação, que o teste alternativo é, em geral, mais poderoso que o teste usual. Uma abordagembayesiana utilizando o fator de Bayes para a análise deste tipo de hipótese também foi considerada. Nesse contexto, mostramos que a metodologia proposta por Irony e Pereira (Resenhas IME-USP, (1995) 27-46) para o cálculo do fator de Bayes é maisflexível que proposta por Carlin e Chib (Journal of the Royal Statistical Society B, 57, (1995) 473-484) quanto à escolha das distribuições a priori. Também consideramos testes de hipóteses sob condições não regulares (quando a hipótese coloca oparâmetro na fronteira do espaço paramétrico) para as componentes de variância de um modelo de efeitos aleatórios. Aplicamos os resultados dados por Vu e Zhou (The Annals of Statistics, 25, (1997) 897-916) sobre a estatística da razão deverossimilhanças, identificando casos específicos em que as condições de regularidade são válidas
Métodos de Monte Carlo em análise de sobrevivência
O principal objetivo deste trabalho é desenvolver técnicas Monte Carlo via cadeias de Markov para alguns modelos especiais considerados na teoria da confiabilidade e na análise de sobrevivência. Uma metodologia Bayesiana é desenvolvida para omodelo Weibull-exponenciada proposto por Mudholkar et al. (1995). Uma extensão deste modelo é também considerada adicionando covariáveis ao modelo originalmente proposto por Mudholkar et al. (1995). Reportamos um estudo comparativo do modeloproposto por Mudholkar et al. (1995) com várias famílias de distribuições usadas no ajuste de dados de tempos de vida com função de taxas de falha do tipo 'bathtub'. Finalmente desenvolvemos um procedimento de análise Bayesiana para o modelo demistura exponencial com ou sem covariáveis e, comparamos tal análise com os procedimentos clássicos de análise. Consideramos a distribuição Weibull-exponenciada para o ajuste de dados de tempo de vida na presença de indivíduos imunes e estudamoso uso deste modelo no teste de adequação do modelo de mistura Weibull e exponencial considerando as abordagens clássica e Bayesiana
Utilização de ondaletas em modelos de espaço de estados
Neste trabalho utilizamos ondaletas em modelos de espaço de estados via parâmetros associados à matriz de transição e matriz do sistema e em séries temporais com mudanças de regime. Apresentamos a formulação do modelo com ondaletas e utilizamos o algoritmo EM e o filtro de Kalman para a estimação dos parâmetros e do vetor de estado, respectivamente
Métodos Bayesianos em confiabilidade de software
Nesta tese introduzimos novos modelos para confiabilidade de software assumindo processos de Poisson não homogêneos. Análises Bayesiana para os modelos propostos são consideradas usando métodos MCMC (Monte Carlo em Cadeias de Markov). Em geral, dados de confiabilidade de software envolvem opiniões de especialistas que podem ser incorporadas como distribuições a priori informativas. Consideramos superposição de processos de Poisson não-homogêneos independentes com e sem introdução de covariáveis, superposição de processos de Poisson não-homogêneos assumindo dependência e uso de processo de Poisson não-homogêneo com função intensidade Weibull-exponenciada como alternativa ao uso de uma superposição de processos não-homogêneos. Usamos métodos Bayesianos para discriminar diferentes modelos para dados de confiabilidade de software
1999
Juan Esteban Alberto Ramirez Cid
Correções de Bartlett e Tipo-Bartlett em modelos normais heterocedásticos
Neste trabalho, nos concentramos em encontrar fatores de correção de Bartlett para a estatística da razão de verossimilhança e tipo-Bartlett para a estatística escore, na classe dos modelos normais heterocedásticos com funções de ligaçãoquaisquer para a média e para o parâmetro de precisão. Apresentamos, também, resultados de simulação e de uma aplicação a um conjunto de dados reais, ilustrando a utilidade dos fatores de correção obtidos em amostras finitas
1999
Deusélio Bassini Fioresi
Acoplamento, 'tau' de Kendall e redução da dimensão de um vetor aleatório
Considerando um vetor aleatório n-variado, n > 2, com coordenadas Negativamente Associadas (NA), Positivamente Associadas (PA) ou com ambas as condições nele presentes (por exemplo, algumas variáveis aleatórias Associadas em pares e outrasvariáveis Negativamente Associadas em pares), percorremos as conexões entre os diferentes conceitos. Analisamos e apresentamos opções que tornam uma estrutura 'heterogênea' (estrutura mista: positiva e negativa) numa estrutura 'homogênea'. Emseguida, adotamos uma medida de associação, logo depois de fazer uma análise dessas medidas. Imediatamente, apresentamos as propriedades de tal medida, surgindo, nesse ponto, sua conexão forte com acoplamentos. Essa medida de associação, em seusvalores extremos, percorre uma série de considerações feitas por De Finetti (1953), numa proposta para o estudo de campos de coincidência de opiniões. Todos esses resultados, válidos para o caso contínuo, são revisados no caso discreto.Retomando aquela medida de associação, apresentamos um estudo de uma possível 'função preditora', que é intuída a partir da medida e sua invariância ante transformações não decrescentes. A saber, encaramos a teoria de adequacidade, na procura deum ambiente, no qual seja possível fazer uma predição, de 'certo modo' razoável, baseados nos dados que contenham toda a informação pertinente a ser usada, para a predição de uma quantidade não observável, em geral, ou, em qualquer forma, umavariável da qual temos informação passada. Nessa predição encontra-se implícita uma redução da dimensão dos dados, observáveis, que leva em conta a estrutura de associação entre seus componentes, através da função de distribuição acumulada, dovetor considerado. Neste trabalho apresentamos uma proposta de metodologia preditiva, baseada nas propriedades das estruturas asociadas. Tal metodologia é fundamentada na função de distribuição acumulada obtida a partir do banco de dados ou ) registros, que possuem estruturas de associação. Para o desenvolvimento da metodologia, apresentamos os fundamentos teóricos das estruturas associadas, acrescentando novos resultados. Apresentamos ainda um método de validação dametodologia proposta, através de resultados que estabelecem uma relação entre as estruturas associadas e a medida 'tau' de Kendall
1999
Verónica Andrea González López
Modelo semiparamétrico de fragilidade Gama
As técnicas inicialmente desenvolvidas em Análise de Sobrevivência supõem independência entre os tempos de ocorrência do evento de interesse. Em problemas multivariados, contudo, é razoável assumirmos que exista dependência entre as observações.Uma das formas para incorporar essa dependência é introduzir um efeito aleatório na modelagem da função de risco. Esses modelos são chamados de modelos de fragilidade e têm sido amplamente estudados desde o início da década de 80. Nesse trabalhoconsideramos modelos de fragilidade supondo distribuição Gama para o efeito aleatório, no contexto do modelo de riscos proporcionais de Cox. Apresentamos quatro diferentes métodos de estimação descritos na literatura e os comparamos através detrês conjuntos de dados diferentes. Além disso, avaliamos o uso das três estatísticas mais populares para testes de hipótese: Wald, Escore e Razão de Verossimilhanças no caso específico do modelo semiparamétrico com fragilidade Gama
1999
Maria Paula Zanardi Chicarino
Modelos multiplicativos de regressão para dados pré-teste/pós-teste em blocos
Neste trabalho, serão expostos modelos multiplicativos de regressão para a análise de dados do tipo pré-teste/pós-teste com medidas repetidas. Esses modelos não possuem intercepto e contemplam efeitos de bloco, heterocedasticidade e relações nãolineares entre as medidas pré e pós teste. Aspectos de interpretação e ajuste dos modelos serão discutidos juntamente com os problemas computacionais envolvidos. Para ilustração numérica, serão considerados os dados provenientes de um estudorealizado na Faculdade de Odontologia da USP, com planejamento experimental envolvendo uma estrutura fatorial cruzada em blocos com dois fatores intra-indivíduos. Uma estrutura de covariância contemplando possíveis correlações entre asobservações realizadas num mesmo indivíduo será adotada. Esses modelos também serão apresentados sob a ótica da teoria de modelos lineares generalizados
Modelos semiparamétricos para eventos recorrentes
A maioria dos estudos que envolvem Análise de Sobrevivência considera o tempo até a ocorrência de um único evento. Neste trabalho, analisamos situações onde o evento de interesse pode ocorrer mais de uma vez para o mesmo indivíduo. Embora osestudos nessa área tenham recebido considerável atenção nos últimos anos, as técnicas que já existem e que podem ser aplicadas a esses casos especiais ainda são pouco difundidas. O objetivo desta dissertação é descrever alguns métodosestatísticos para análise de eventos recorrentes e discutir suas aplicações. Utilizando a abordagem de processos de contagem multivariados, representamos o problema como um processo de Markov, em que os indivíduos são associados a diferentesestados ao longo do tempo. Esta metodologia consiste em estimar matrizes cujos elementos correspondem às probabilidades de transição entre os estados. Descrevemos métodos de estimação não paramétricos e três modelos semiparamétricos propostos naliteratura, baseados no modelo de riscos proporcionais de Cox. Os métodos são ilustrados através de um exemplo baseado em dados reais
Teoria da Resposta ao Item
Neste trabalho são apresentados os conceitos básicos da Teoria da Resposta ao Item - TRI - e algumas de suas aplicações em avaliações educacionais brasileiras. A TRI utiliza modelos de variáveis latentes para representar a relação entre a probabilidade de um indivíduo responder corretamente a um item e seus traços latentes ou habilidades. Apresentamos os principais modelos - em particular o modelo logístico de três parâmetros - e métodos de estimação dos parâmetros dos itens e das habilidades dos respondentes. Introduzimos o conceito de equalização, que é uma das maiores contribuições desta teoria, uma vez que possibilita a comparação do desempenho de duas ou mais populações de indivíduos, quando submetidas a diferentes testes com itens comuns. Discutimos também os recursos computacionais disponíveis, e por fim, apresentamos uma aplicação da TRI na análise dos dados obtidos pelo Sistema de Avaliação de Rendimento Escolar do Estado de São Paulo (SARESP) nos anos de 1996 e 1997. Os resultados obtidos na análise destes dados ilustram o grande potencial desta teoria, pois graças ao processo de equalização foi possível não só a comparação do desempenho de alunos de diferentes séries como também a construção de uma escala de conhecimento - pedagogicamente interpretável - para as séries avaliadas
Ajuste de modelos lineares usando estimadores de regressão para amostras complexas
Dados provenientes de pesquisas por amostragem vêm sendo cada vez mais usados para modelagem e análise estatística. Grande parte dos dados disponíveis hoje em dia provém de pesquisas com desenho amostral complexo, onde a hipótese de observaçõesiid (independentes e identicamente distribuídas), que tanto facilita a obtenção de resultados teóricos, não pode ser feita de forma automática. A Teoria da Amostragem tem desenvolvido estimadores de quantidades populacionais, como médias, totaise razões, que levam em conta o peso e o desenho amostral utilizado na pesquisa. Mas ainda há relativamente pouca literatura que trate das estatísticas mais complexas, como as usadas nas modelagens e análises de dados. Por esse motivo éimportante examinar como o emprego de desenhos amostrais complexos pode afetar o aproveitamento dos dados para a estimação e ajuste de modelos. Nascimento Silva (1996) investigou o aproveitamento de informações populacionais auxiliares para aestimação e ajuste de modelos paramétricos 'regulares', empregando o método de Máxima Pseudo-Verossimilhança. Um dos objetivos deste trabalho foi revisitar o de Nascimento Silva (1996), estendendo o estudo de simulação para avaliar o desempenhodos estimadores de variância de diferentes estimadores dos coeficientes de um modelo de regressão linear. Além disso, aplicaram-se diversos métodos de estimação de coeficientes de um modelo linear a dados obtidos com a amostra do CensoDemográfico de 1991, para uma das áreas de ponderação do município de Marília (SP)
1999
Renata Pacheco Nogueira Duarte
Testes de distância em modelos de regressão com erros nas variáveis
Apresentamos uma aplicação da teoria geral dos testes de distância a modelos com erros nas variáveis. Consideramos o modelo de regressão linear simples com intercepto nulo, o modelo de regressão multivariado e um caso especial deste, o modelo decalibração comparativa. Comparamos, utilizando dados simulados, a função poder do teste de distância para hipóteses com restrições nos parâmetros com as funções poder de outros testes gerais, formulados sem incorporar em suas estruturas assuposições de erros nas variáveis e hipóteses restritas simultaneamente. Sabemos que, quando a matriz jacobiana da função que descreve as restrições nas hipóteses tem posto completo, a distribuição nula assintótica da estatística do teste dedistância é uma mistura de distribuições qui-quadrado. Isto não é necessariamente verdadeiro qiando existem pontos singulares na hipótese nula. Sugerimos uma modificação na estatística de teste que assegura a convergência à uma mistura dedistribuições qui-quadrado. Dois conjuntos de dados reais são analisados de acordo com as técnicas propostas
2000
Celso Rômulo Barbosa Cabral
Aperfeiçoamento de estatísticas testes em modelos arma
Neste trabalho desenvolvemos as correções de Bartlett para a estatística da razão de verossimilhança, e tipo-Bartlett para a estatística escore, para testar hipóteses sobre os parâmetros de um modelo autoregressivo e de média móveis de ordem(p,q), gaussiano, estacionário e invertível. São consideradas alternativas compostas com e sem parâmetros de incômodo, generalizando o procedimento de Taniguchi (1991) para corrigir a estatística da razão de verossimilhança quando não háparâmetros de incômodo. Generaliza-se, também, a correção tipo-Bartlett para o caso de observações dependentes, na forma de uma série temporal. As fórmulas das correções são escritas em termos matriciais e têm vantagens no sentido da fácilimplementação por meio de alguma linguagem simbólica ou numérica matricial, como Ox (Doornik, 1996). São obtidas correções nos casos especiais dos modelos autoregressivo de ordem 1, de médias móveis de ordem 1 e misto de ordem (1,1). É tambémfeiro um estudo de simulação para verificar o desempenho das correções nos dois primeiros casos citados acima
2000
Bernardo Moisés Lagos Alvarez