RCAAP Repository
Medidas repetidas com covariáveis dependentes do tempo: um exemplo com dados incompletos
Consideramos a análise de dados provenientes de um experimento com medidas repetidas incompletas e covariáveis dependentes do tempo. O experimento consistiu na avaliação da resposta a um estímulo elétrico aplicado em nervos de mexilhões, antes e após tratamento com água do mar com diferentes salinidades (condições de avaliação). O estudo envolveu a modelagem do efeito da salinidade sobre as respostas avaliadas após os tratamentos, tendo como covariáveis as respostas avaliadas antes dos tratamentos. O objetivo foi comparar os resultados obtidos sob modelos de regressão para dados não correlacionados com aqueles em que diferentes estruturas de covariância intraunidades amostrais foram levadas em conta. Discutimos tanto os aspectos associados à escolha da forma da relação entre a resposta e as diferentes salinidades quanto aqueles que focam a escolha da estrutura de covariância. Mostramos que, embora ambas as classes de modelos produzam resultados semelhantes, a última gera estimadores mais precisos
Inferência estatística para modelos lineares com restrições nos parâmetros em condições regulares e não regulares
Estudamos estatísticas adequadas para testar hipóteses sobre os parâmetros de modelos lineares com restrições no espaço paramétrico. Propomos um teste alternativo para dois casos em que as restrições sobre o espaço paramétrico são impostas peloobjetivo da investigação em condições regulares, (i.e. quando o parâmetro está no interior do espaço paramétrico). Concluímos, através de estudos de simulação, que o teste alternativo é, em geral, mais poderoso que o teste usual. Uma abordagembayesiana utilizando o fator de Bayes para a análise deste tipo de hipótese também foi considerada. Nesse contexto, mostramos que a metodologia proposta por Irony e Pereira (Resenhas IME-USP, (1995) 27-46) para o cálculo do fator de Bayes é maisflexível que proposta por Carlin e Chib (Journal of the Royal Statistical Society B, 57, (1995) 473-484) quanto à escolha das distribuições a priori. Também consideramos testes de hipóteses sob condições não regulares (quando a hipótese coloca oparâmetro na fronteira do espaço paramétrico) para as componentes de variância de um modelo de efeitos aleatórios. Aplicamos os resultados dados por Vu e Zhou (The Annals of Statistics, 25, (1997) 897-916) sobre a estatística da razão deverossimilhanças, identificando casos específicos em que as condições de regularidade são válidas
Métodos de Monte Carlo em análise de sobrevivência
O principal objetivo deste trabalho é desenvolver técnicas Monte Carlo via cadeias de Markov para alguns modelos especiais considerados na teoria da confiabilidade e na análise de sobrevivência. Uma metodologia Bayesiana é desenvolvida para omodelo Weibull-exponenciada proposto por Mudholkar et al. (1995). Uma extensão deste modelo é também considerada adicionando covariáveis ao modelo originalmente proposto por Mudholkar et al. (1995). Reportamos um estudo comparativo do modeloproposto por Mudholkar et al. (1995) com várias famílias de distribuições usadas no ajuste de dados de tempos de vida com função de taxas de falha do tipo 'bathtub'. Finalmente desenvolvemos um procedimento de análise Bayesiana para o modelo demistura exponencial com ou sem covariáveis e, comparamos tal análise com os procedimentos clássicos de análise. Consideramos a distribuição Weibull-exponenciada para o ajuste de dados de tempo de vida na presença de indivíduos imunes e estudamoso uso deste modelo no teste de adequação do modelo de mistura Weibull e exponencial considerando as abordagens clássica e Bayesiana
1999
Vicente Garibay Cancho
Utilização de ondaletas em modelos de espaço de estados
Neste trabalho utilizamos ondaletas em modelos de espaço de estados via parâmetros associados à matriz de transição e matriz do sistema e em séries temporais com mudanças de regime. Apresentamos a formulação do modelo com ondaletas e utilizamos o algoritmo EM e o filtro de Kalman para a estimação dos parâmetros e do vetor de estado, respectivamente
Métodos Bayesianos em confiabilidade de software
Nesta tese introduzimos novos modelos para confiabilidade de software assumindo processos de Poisson não homogêneos. Análises Bayesiana para os modelos propostos são consideradas usando métodos MCMC (Monte Carlo em Cadeias de Markov). Em geral, dados de confiabilidade de software envolvem opiniões de especialistas que podem ser incorporadas como distribuições a priori informativas. Consideramos superposição de processos de Poisson não-homogêneos independentes com e sem introdução de covariáveis, superposição de processos de Poisson não-homogêneos assumindo dependência e uso de processo de Poisson não-homogêneo com função intensidade Weibull-exponenciada como alternativa ao uso de uma superposição de processos não-homogêneos. Usamos métodos Bayesianos para discriminar diferentes modelos para dados de confiabilidade de software
1999
Juan Esteban Alberto Ramirez Cid
Correções de Bartlett e Tipo-Bartlett em modelos normais heterocedásticos
Neste trabalho, nos concentramos em encontrar fatores de correção de Bartlett para a estatística da razão de verossimilhança e tipo-Bartlett para a estatística escore, na classe dos modelos normais heterocedásticos com funções de ligaçãoquaisquer para a média e para o parâmetro de precisão. Apresentamos, também, resultados de simulação e de uma aplicação a um conjunto de dados reais, ilustrando a utilidade dos fatores de correção obtidos em amostras finitas
1999
Deusélio Bassini Fioresi
Acoplamento, 'tau' de Kendall e redução da dimensão de um vetor aleatório
Considerando um vetor aleatório n-variado, n > 2, com coordenadas Negativamente Associadas (NA), Positivamente Associadas (PA) ou com ambas as condições nele presentes (por exemplo, algumas variáveis aleatórias Associadas em pares e outrasvariáveis Negativamente Associadas em pares), percorremos as conexões entre os diferentes conceitos. Analisamos e apresentamos opções que tornam uma estrutura 'heterogênea' (estrutura mista: positiva e negativa) numa estrutura 'homogênea'. Emseguida, adotamos uma medida de associação, logo depois de fazer uma análise dessas medidas. Imediatamente, apresentamos as propriedades de tal medida, surgindo, nesse ponto, sua conexão forte com acoplamentos. Essa medida de associação, em seusvalores extremos, percorre uma série de considerações feitas por De Finetti (1953), numa proposta para o estudo de campos de coincidência de opiniões. Todos esses resultados, válidos para o caso contínuo, são revisados no caso discreto.Retomando aquela medida de associação, apresentamos um estudo de uma possível 'função preditora', que é intuída a partir da medida e sua invariância ante transformações não decrescentes. A saber, encaramos a teoria de adequacidade, na procura deum ambiente, no qual seja possível fazer uma predição, de 'certo modo' razoável, baseados nos dados que contenham toda a informação pertinente a ser usada, para a predição de uma quantidade não observável, em geral, ou, em qualquer forma, umavariável da qual temos informação passada. Nessa predição encontra-se implícita uma redução da dimensão dos dados, observáveis, que leva em conta a estrutura de associação entre seus componentes, através da função de distribuição acumulada, dovetor considerado. Neste trabalho apresentamos uma proposta de metodologia preditiva, baseada nas propriedades das estruturas asociadas. Tal metodologia é fundamentada na função de distribuição acumulada obtida a partir do banco de dados ou ) registros, que possuem estruturas de associação. Para o desenvolvimento da metodologia, apresentamos os fundamentos teóricos das estruturas associadas, acrescentando novos resultados. Apresentamos ainda um método de validação dametodologia proposta, através de resultados que estabelecem uma relação entre as estruturas associadas e a medida 'tau' de Kendall
1999
Verónica Andrea González López
Modelo semiparamétrico de fragilidade Gama
As técnicas inicialmente desenvolvidas em Análise de Sobrevivência supõem independência entre os tempos de ocorrência do evento de interesse. Em problemas multivariados, contudo, é razoável assumirmos que exista dependência entre as observações.Uma das formas para incorporar essa dependência é introduzir um efeito aleatório na modelagem da função de risco. Esses modelos são chamados de modelos de fragilidade e têm sido amplamente estudados desde o início da década de 80. Nesse trabalhoconsideramos modelos de fragilidade supondo distribuição Gama para o efeito aleatório, no contexto do modelo de riscos proporcionais de Cox. Apresentamos quatro diferentes métodos de estimação descritos na literatura e os comparamos através detrês conjuntos de dados diferentes. Além disso, avaliamos o uso das três estatísticas mais populares para testes de hipótese: Wald, Escore e Razão de Verossimilhanças no caso específico do modelo semiparamétrico com fragilidade Gama
1999
Maria Paula Zanardi Chicarino
Modelos multiplicativos de regressão para dados pré-teste/pós-teste em blocos
Neste trabalho, serão expostos modelos multiplicativos de regressão para a análise de dados do tipo pré-teste/pós-teste com medidas repetidas. Esses modelos não possuem intercepto e contemplam efeitos de bloco, heterocedasticidade e relações nãolineares entre as medidas pré e pós teste. Aspectos de interpretação e ajuste dos modelos serão discutidos juntamente com os problemas computacionais envolvidos. Para ilustração numérica, serão considerados os dados provenientes de um estudorealizado na Faculdade de Odontologia da USP, com planejamento experimental envolvendo uma estrutura fatorial cruzada em blocos com dois fatores intra-indivíduos. Uma estrutura de covariância contemplando possíveis correlações entre asobservações realizadas num mesmo indivíduo será adotada. Esses modelos também serão apresentados sob a ótica da teoria de modelos lineares generalizados
Modelos semiparamétricos para eventos recorrentes
A maioria dos estudos que envolvem Análise de Sobrevivência considera o tempo até a ocorrência de um único evento. Neste trabalho, analisamos situações onde o evento de interesse pode ocorrer mais de uma vez para o mesmo indivíduo. Embora osestudos nessa área tenham recebido considerável atenção nos últimos anos, as técnicas que já existem e que podem ser aplicadas a esses casos especiais ainda são pouco difundidas. O objetivo desta dissertação é descrever alguns métodosestatísticos para análise de eventos recorrentes e discutir suas aplicações. Utilizando a abordagem de processos de contagem multivariados, representamos o problema como um processo de Markov, em que os indivíduos são associados a diferentesestados ao longo do tempo. Esta metodologia consiste em estimar matrizes cujos elementos correspondem às probabilidades de transição entre os estados. Descrevemos métodos de estimação não paramétricos e três modelos semiparamétricos propostos naliteratura, baseados no modelo de riscos proporcionais de Cox. Os métodos são ilustrados através de um exemplo baseado em dados reais
Teoria da Resposta ao Item
Neste trabalho são apresentados os conceitos básicos da Teoria da Resposta ao Item - TRI - e algumas de suas aplicações em avaliações educacionais brasileiras. A TRI utiliza modelos de variáveis latentes para representar a relação entre a probabilidade de um indivíduo responder corretamente a um item e seus traços latentes ou habilidades. Apresentamos os principais modelos - em particular o modelo logístico de três parâmetros - e métodos de estimação dos parâmetros dos itens e das habilidades dos respondentes. Introduzimos o conceito de equalização, que é uma das maiores contribuições desta teoria, uma vez que possibilita a comparação do desempenho de duas ou mais populações de indivíduos, quando submetidas a diferentes testes com itens comuns. Discutimos também os recursos computacionais disponíveis, e por fim, apresentamos uma aplicação da TRI na análise dos dados obtidos pelo Sistema de Avaliação de Rendimento Escolar do Estado de São Paulo (SARESP) nos anos de 1996 e 1997. Os resultados obtidos na análise destes dados ilustram o grande potencial desta teoria, pois graças ao processo de equalização foi possível não só a comparação do desempenho de alunos de diferentes séries como também a construção de uma escala de conhecimento - pedagogicamente interpretável - para as séries avaliadas
Ajuste de modelos lineares usando estimadores de regressão para amostras complexas
Dados provenientes de pesquisas por amostragem vêm sendo cada vez mais usados para modelagem e análise estatística. Grande parte dos dados disponíveis hoje em dia provém de pesquisas com desenho amostral complexo, onde a hipótese de observaçõesiid (independentes e identicamente distribuídas), que tanto facilita a obtenção de resultados teóricos, não pode ser feita de forma automática. A Teoria da Amostragem tem desenvolvido estimadores de quantidades populacionais, como médias, totaise razões, que levam em conta o peso e o desenho amostral utilizado na pesquisa. Mas ainda há relativamente pouca literatura que trate das estatísticas mais complexas, como as usadas nas modelagens e análises de dados. Por esse motivo éimportante examinar como o emprego de desenhos amostrais complexos pode afetar o aproveitamento dos dados para a estimação e ajuste de modelos. Nascimento Silva (1996) investigou o aproveitamento de informações populacionais auxiliares para aestimação e ajuste de modelos paramétricos 'regulares', empregando o método de Máxima Pseudo-Verossimilhança. Um dos objetivos deste trabalho foi revisitar o de Nascimento Silva (1996), estendendo o estudo de simulação para avaliar o desempenhodos estimadores de variância de diferentes estimadores dos coeficientes de um modelo de regressão linear. Além disso, aplicaram-se diversos métodos de estimação de coeficientes de um modelo linear a dados obtidos com a amostra do CensoDemográfico de 1991, para uma das áreas de ponderação do município de Marília (SP)
1999
Renata Pacheco Nogueira Duarte
Testes de distância em modelos de regressão com erros nas variáveis
Apresentamos uma aplicação da teoria geral dos testes de distância a modelos com erros nas variáveis. Consideramos o modelo de regressão linear simples com intercepto nulo, o modelo de regressão multivariado e um caso especial deste, o modelo decalibração comparativa. Comparamos, utilizando dados simulados, a função poder do teste de distância para hipóteses com restrições nos parâmetros com as funções poder de outros testes gerais, formulados sem incorporar em suas estruturas assuposições de erros nas variáveis e hipóteses restritas simultaneamente. Sabemos que, quando a matriz jacobiana da função que descreve as restrições nas hipóteses tem posto completo, a distribuição nula assintótica da estatística do teste dedistância é uma mistura de distribuições qui-quadrado. Isto não é necessariamente verdadeiro qiando existem pontos singulares na hipótese nula. Sugerimos uma modificação na estatística de teste que assegura a convergência à uma mistura dedistribuições qui-quadrado. Dois conjuntos de dados reais são analisados de acordo com as técnicas propostas
2000
Celso Rômulo Barbosa Cabral
Aperfeiçoamento de estatísticas testes em modelos arma
Neste trabalho desenvolvemos as correções de Bartlett para a estatística da razão de verossimilhança, e tipo-Bartlett para a estatística escore, para testar hipóteses sobre os parâmetros de um modelo autoregressivo e de média móveis de ordem(p,q), gaussiano, estacionário e invertível. São consideradas alternativas compostas com e sem parâmetros de incômodo, generalizando o procedimento de Taniguchi (1991) para corrigir a estatística da razão de verossimilhança quando não háparâmetros de incômodo. Generaliza-se, também, a correção tipo-Bartlett para o caso de observações dependentes, na forma de uma série temporal. As fórmulas das correções são escritas em termos matriciais e têm vantagens no sentido da fácilimplementação por meio de alguma linguagem simbólica ou numérica matricial, como Ox (Doornik, 1996). São obtidas correções nos casos especiais dos modelos autoregressivo de ordem 1, de médias móveis de ordem 1 e misto de ordem (1,1). É tambémfeiro um estudo de simulação para verificar o desempenho das correções nos dois primeiros casos citados acima
2000
Bernardo Moisés Lagos Alvarez
Densidades preditivas no modelo de regressão linear
Neste trabalho, dedicamo-nos ao estudo de funções de verossimilhança preditivas e densidades preditivas para um vetor de observações futuras com base num conjunto de dados observados, apresentando várias aplicações em modelos de regressão linear.Sob estes modelos, apresentamos quatro diferentes densidades preditivas, analisando propriedades relativas à consistência e otimalidade. Posteriomente, descrevemos um método para detectar pontos influentes na análise de regressão através do usode densidades preditivas. Na última parte do trabalho, essas funções são utilizadas na seleção da melhor equação de regressão
2000
Magen Danielle Infante Rojas
Testes para hipóteses restritas em desigualdades lineares usando equações de estimação generalizadas
O objetivo deste trabalho é apresentar, inicialmente, uma unificação dos principais artigos sobre testes para hipóteses restritas envolvendo o Modelo Normal Linear. Nesse caso, a relação entre as estatísticas do teste bem como a distribuição nulaassintótica das estatísticas são apresentadas nos casos em que a matriz de covariância do erro é conhecida e desconhecida. Apresentamos uma breve revisão dos Modelos Lineares Generalizados e formalmente as Equações de Estimação Generalizadas(EEGs) de Liang e Zeger (1986). É estudado, em particular, o procedimento proposto por Kodde e Palm (1986) juntamente com os resultados de Wolak (1991) para desenvolver testes para hipóteses restritas em desigualdades lineares usando as EEGs.Apresentamos também, uma extensão para EEGs do procedimento proposto por Follmann (1996) para testar hipóteses restritas usando a estatística 'T POT.2' de Hotteling. Para os procedimentos propostos, vários estudos de simulação são desenvolvidospara verificar o comportamento dos mesmos em termos de poder com relação ao teste tradicional de Wald para hipóteses não restritas. Observa-se um razoável ganho de poder dos testes de Kodde e Palm e Follmann em relação ao teste de Wald e umpequeno ganho de poder do teste de Kodde e Palm em relação ao teste de Follman. Este último é fácil de ser aplicado e evita o cálculo dos pesos exigidos pelo teste de Kodde e Palm, o que o torna um forte competidor principalmente quando o númerode restrições é maior que 4
Alguns testes de linearidade para séries temporais nos domínios do tempo e da freqüência
O problema prático, encontrado ao ajustar um modelo a uma série temporal, é decidir se devemos utilizar, ou não, um modelo linear. Os testes de linearidade podem ser utilizados para decidir quendo devemos usar a classe dos modelos lineares cujaidentificação, estimação e previsão está amplamente desenvolvida e implementada nos programas computacionais. Este trabalho tem como objetivo descrever e aplicar a algumas séries reais os testes de linearidade e normalidade de Subba Rao e Gabr(1980), Hinich (1982),McLeod e Li(1983), Tsay(1986), Poggi e Portier (1997) e Brillinger e Irizarry (1998)
2000
Alessandra de Ávila Montini
Testes de significância Bayesianos: aplicações a distribuições discretas
O p-value, usado como ferramenta para testar hipóteses, já é parte da linguagem científica pois acredita-se que o mesmo é uma medida da evidência da validade de uma hipótese específica. Muitas vezes o cálculo do p-value - também chamado deníveldescritivo - não leva em consideração a hipótese alternativa, mas apenas a hipótese nula. Discute-se neste trabalho uma medida de evidência, denominada P-value Bayesiano, que além de incorporar em seu cálculo ambas as hipóteses, levaemconsideração opiniões representadas por distribuições de probabilidades a priori no espaço paramétrico. Tratamos de caso de hipóteses nulas precisas, que são definidas por conjuntos do espaço paramétrico cuja dimensão é menor do que oespaçooriginal. Integrais de superfície são usadas no cálculo do P-value Bayesiano. Os exemplos apresentados se restringem a distribuições discretas, mais especificamente a tabelas de contingência e a comparação de distribuições de Poisson
2000
André Luiz Silva Samartini
Imputação de dados através de modelos de curvas de crescimento polinomiais
Em estudos longitudinais é freqüente a ocorrência de observações ausentes. Uma abordagem para dados incompletos é a imputação, que consiste em prever as observações ausentes, completando o conjunto de dados para posterior análise. Neste trabalho, a imputação é feita através do modelo de curvas de crescimento polinomiais sob o modelo misto, com as suposições de normalidade de efeitos e erros aleatórios, independência dos erros e mesma matriz de covariância para efeitos individuais. O método de imputação adotado é o BLUP (Best Linear Unbiased Predictor), que depende da estimação das matrizes de covarância, para a qual vários métodos são considerados. Além disso, a técnica é aplicada a um conjunto de dados reais e, para outros três conjuntos de dados, os resultados são comparados com os de outros trabalhos
Método de Chen-Stein e o modelo de Ehrenfest
O objetivo deste trabalho é estudar o método de Chen-Stein o qual determina um limite superior para a velocidade de convergência em distribuição de somas de variáveis aleatórias dependentes Bernoulli à distribuição Poisson. Inicialmente o métodofoi introduzido por Charles Stein (1970) no contexto do teorema central do limite e a seguir Louis Chen (1975) adaptou essas idéias à distribuição Poisson. Apresentamos e exemplificamos aqui todos os detalhes de principal resultado obtido porChen. Além disso, aplicamos o método para o modelo de Ehrenfest no contexto do passeio aleatório no hipercubo
2000
José Domingo Restrepo Alvarez