Repositório RCAAP
O uso do princípio da pseudo-verossimilhança em ensaios clínicos com ausência de grupo controle
Em pesquisas médicas é muito comum a utilização de ensaios clínicos relacionados com a comparação de dois grupos onde um deles é o grupo controle e o outro o grupo de tratamento. Os indivíduos participantes do estudo são escolhidos ao acaso para estar no grupo de tratamento ou controle. É comum também situações onde duas medidas são tomadas em cada grupo, sendo uma antes e outra após a aplicação do tratamento. Contudo, existem situações em que não é possível a obtenção de um grupo controle, portanto torna-se necessário um método em que se possa avaliar o efeito do tratamento levando-se em conta a ausência do grupo controle. O objetivo deste trabalho é apresentar um possível modelo que aborda este tipo de problema e comparar 3 métodos de estimação dos parâmetros através de estudos de simulação
Aleatorização e ética médica
Experimentos clínicos aleatorizados são estudos onde se avalia comparativamente a eficácia de dois ou mais tratamentos. A aleatorização enquanto método de seleção dos tratamentos é um aspecto que gera várias críticas de cunho estatístico, bem como questionamentos relacionados à ética médica. A expressão equiparação individual foi introduzida por Freedman (1987) para descrever um estado de genuína incerteza de um pesquisador com relação aos méritos relativos de dois ou mais tratamentos. Em havendo equiparação, seria ético conduzir um experimento clínico aleatorizado. O dilema ético surge ao considerarmos os interesses individuais do paciente. A aleatorização quando utilizada na análise dos dados é o maior alvo das críticas, principalmente sob inferência bayesiana. Quando utilizada no planejamento apenas, a aleatorização é aceita e até mesmo recomendada por Kadane e Seidenfeld (1990). Kadane, Sedransk e Seidenfeld (Kadane, 1996), fazem uma proposta de um planejamento bayesiano (KSS), aleatorizando apenas tratamentos admissíveis para um paciente, de modo que seus imnteresses sejam considerados. Em conjunto com um grupo de anestesistas do Hospital Johns Hopkins, o Prof. Kadane conduziu um experimento clínico utilizando o planejamento bayesiano KSS
Inferência em modelos com erros nas variáveis através do método do escore corrigido
Neste trabalho apresentamos uma formulação geral para a metodologia baseada no escore corrigido (Nakamura, 1990), para inferência em modelos com erros nas variáveis. O método é aplicável tanto a modelos lineares quanto não lineares e permitetratar de forma unificada os casos funcional e estrutural. Exibimos um modelo simples para o qual a função escore corrigida não pode ser obtida como o gradiente de uma log-verossimilhança corrigida, mesmo existindo esta função. Portanto,estabelecemos condições de regularidade suficientes, sem referência à log-verossimilhança corrigida, para provar consistência e normalidade assintótica dos estimadores. Testes de hipóteses assintóticos baseados nos estimadores do escorecorrigido, são propostos. A eficiência relativa assintótica destes testes com respeito a testes 'naive' e testes baseados nas verdadeiras covariáveis, é calculada para uma classe particular de modelos lineares generalizados. A técnica é aplicadaem dois modelos de interesse, o modelo de calibração comparativa e o modelo de regressão Weibull
1997
Patrícia Cristina Gimenez
Calibração: uma abordagem bayesiana
Neste trabalho apresentamos soluções para o problema de calibração controlada sob a perspectiva bayesiana da inferência estatística. Em primeiro lugar, tratamos do problema sob a suposição de linearidade e de que os erros são distribuídos de acordo com uma distribuição elíptica. Para o modelo elíptico dependente mostramos que a distribuição a posteriori de interesse coincide com a distribuição a posteriori obtida sob a suposição de normalidade, quando considerada uma distribuição a priori imprópria para o parâmetro de dispersão. Uma análise conjugada também é apresentada. Entretanto, não obtemos essa coincidência de resultados para o modelo independente. Neste caso, a distribuição a posteriori deverá depender do particular modelo elíptico especificado. Considerando algumas especificações a priori e a representabilidade do modelo elíptico, obtivemos formas gerais para estas distribuições a posteriori, caracterizando-as como mistura de distribuições conhecidas. Além disso, foram obtidas formas conhecidas para todas as distribuições a posteriori de um parâmetro, condicionais aos demais, possibilitando a implementação do amostrador de Gibbs. Posteriormente, tratamos do problema de calibração sem a suposição de linearidade e considerando que a variável resposta é categorizada. Apresentamos uma generalização do conhecido modelo probit, onde a função de ligação é uma distribuição elíptica. Nesse caso, obtivemos uma aproximação assintótica para a distribuição a posteriori, bem como uma solução via método MCCM (Monte Carlo baseado em Cadeias de Markov), para o modelo binomial. Para o modelo multinomial, propomos a solução via MCCM e apresentamos formas conhecidas para todas as distribuições condicionais
Análise de ondaletas em séries temporais
Neste trabalho utilizamos ondaletas para analisar processos estacionários e localmente estacionários. No caso de processos estacionários, introduzimos uma análise em tempo-escala e no caso de processos localmente estacionários apresentamos um método de estimação de sistemas lineares variando no tempo. Algumas idéias básicas sobre ondaletas são dadas e os conceitos dos processos não-estacionários e localmente estacionários são introduzidos. Na parte da análise espectral de ondaletas, o conceito do espectro de ondaleta é introduzido e as propriedades assintóticas das transformadas de ondaleta são obtidas. O periodograma de ondaleta é considerado como um estimador do espectro de ondaleta e suas propriedades estudadas. Na parte de estimação de sistemas lineares variando no tempo, os coeficientes do filtro do sistema são função do tempo e utilizamos uma expansão dos mesmos em ondaletas para estimá-los. Aplicações para dados reias são apresentadas
Método linear Bayesiano
Descrevemos o modelo de regressão linear sob um ponto de vista bayesiano, considerando os argumentos do Método Linear Bayesiano. O Método Linear Bayesiano é um processo recursivo que segue o esquema bayesiano, mas usa somente os primeiros esegundos momentos das distribuições envolvidas, sem requerer uma completa caracterização do modelo de probabilidade. Mostramos que o filtro de Kalman é um caso particular do Método Linear Bayesiano
1997
Péricles César de Araújo
Comparação de estimadores do parâmetro de longa memória do modelo ARFIMA (p,d,q)
não disponível
1997
Cristina Baptista Moura
Limites para a confiabilidade de sistemas usados com componentes com tempo de vida M I F R
Consideramos um sistema usado, sua deterioração no tempo e a dependência estatística e estrutural de suas componentes através dos processos de contagem associados com as falhas dos componentes e com a falha do sistema. Utilizando a teoria dos Martingales para processos pontuais e assumindo que conhecemos um momento ou um percentual obtivemos limites para a confiabilidade de sistemas usados, complexos e com componentes dependentes sob a hipótese de que a distribuição conjunta dos componentes é M I F R/'F IND.t' (Multivariate Incrasing Failure Rate) relativa a história dos componentes
Regressão logística parcial: uma técnica paramétrica em análise de sobrevivência
Uma técnica largamente utilizada para estimar a função de sobrevivência para dados censurados é a técnica não-paramétrica de Kaplan-Meier que, apesar de ser facilmente calculável e interpretável, apresenta algumas limitações e, em alguns casos, estimadores paramétricos devem ser considerados. Entretanto, a teoria paramétrica clássica, também apresenta limitações, uma vez que escolher uma distribuição para a função de sobrevivência implica em fixar a forma da função de risco. Este trabalho pretende apresentar uma técnica paramétrica alternativa: a Regressão Logística Parcial, que permite a modelagem da função de risco bem como da função de sobrevivência. Trata-se de uma técnica adequada para estudos em que se tem interesse em analisar não só o comportamento da função de sobrevivência, mas também da função de risco
1998
Carine Savalli Redígolo
Processo de exclusão simples totalmente assimétrico
Considere um processo de exclusão simples totalmente assimétrico na rede unidimensional em Z. A deriva do processo é positiva. Estamos interessados em saber o que acontecerá com as propriedades locais e globais do processo ao começarmos o processo com degrau de densidade na distribuição inicial das partículas da seguinte maneira: a distribuição de partículas para os sítios à esquerda da origem será dada pela medida produto 'v IND. 'lâmbda' de densidade 'lâmbda' à direita da origem com 'v IND.p' para p< 'lâmbda'. Nesta dissertaçào é mostrado que o número de partículas no tempo t entre os sítios [ut] e [vt] dividido por t, converge quase certamente para 'INT.SUP.v INF. u' f(s)ds, onde f será chamada perfil de densidade que é uma função contínua e pode ser determinada explicitamente. Também é provado que a distribuição do processo vista por um observador que viaja à velocidade constante u converge fracamente para uma medida de Bernoulli com densidade f(u) quando o tempo tende ao infinito. A este resultado damos o nome de equilíbrio local. A chave das demonstrações será usar o processo de exclusão com dois tipos de partículas e a técnica do Acoplamento. As provas estão baseadas em idéias de Rost, Benassi-Fouque, Andjel-Vares e Andjel e completa a prova do resultado enunciado em Benassi-Fouque
1998
Adriano Francisco Siqueira
Previsão com modelos estruturais de componentes não observados: aplicações a séries de agregados monetários brasileiros
Este estudo descreve a metodologia de modelos estruturais em séries temporais e sua utilização na previsão de séries econômicas brasileiras. É apresentado o modelo estrutural clássico que decompõe uma série em componentes não observados, a saber, tendência, sazonalidade, ciclo e irregular. A estimação dos hiperparâmetros, variabilidades dos componentes não observados é feita com o auxílio do procedimento filtro de Kalman difuso. Como um dos objetivos é previsão, é feita análise de diagnóstico para verificar a qualidade dos modelos. São aplicados dois modelos para séries brasileiras, um, univariado, para a base monetária, e outro, bivariado, para o depósito a vista e para o papel moeda em poder do público, todas variáveis são medidas em médias mensais. O objetivo principal da modelagem é exclusivamente antecipar a trajetória futura das variáveis
1998
Roberto Francisco Casagrande Herdeiro
Grandes flutuações de densidade e metaestabilidade no processo de contato supercrítico multidimensional
não disponível
Seleção de variáveis em regressão 'L IND.1'
O método mais utilizado no ajuste de modelos de regressão múltipla é o de mínimos quadrados, devido a suas propriedades estatísticas serem amplamente estudadas e facilidades computacionais. Contudo, este método é sensível a valores aberrantes, que são muito freqüentes no caso da distribuição dos erros possuir caudas pesadas. O objetivo desta dissertação é apresentar o método de estimação 'L IND.1', que é resistente a valores aberrantes na variável resposta. Será explorado, em particular, o problema de seleção de variáveis, sendo apresentados e desenvolvidos os critérios quando são analisadas as possíveis regressões, e procedimento automáticos de seleção. Um estudo preliminar sobre os efeitos da multicolinearidade nas estimativas 'L IND.1' é também executado. São apresentados também, programas que tornam viável a utilização do método 'L IND.1' em problemas de regressão
1998
Rodrigo Andrade Tavares
Urna de pólya e a distribuição beta
Este trablho descreve o processo de urna de Pólya, que é uma particularização dos processos de urna permutáveis. Considerando o espaço amostral dado pelo conjunto {0,1}, o Teorema da Representação de Bruno De Finetti para processos de Pólya surge em sua forma mais simples, e a priori é essencialmente membro da família Beta de distribuições. Dada a urna de Pólya com composição inicial de bolas ('a IND.0', 'b IND.0'), sendo 'a IND.n'e 'b IND.n' quantidades de bolas azuis e brancas, respectivamente, no tempo n, as proporções de bolas {'a IND.n'/'a IND.n'+'b IND.n'} n '> OU ='0 convergem a uma variável limite, que possui distribuição Beta com parâmetros dados pela composição inicial de bolas na urna
1998
Carolina Fabiana Svetliza
Imprevistos e suas consequências
A influência de informaçôes cuja ocorrência não havia sido previamente antecipada na construção de distribuições a posteriori será discutida.Primeiramente, abordaremos a questão da atualização de probalidades quando imprevistos ocorrem imediatamente antes de declaração de opiniões a posteriori. Alguns mecanismos de atualização de probalidades serão apresentados e algumas de suas fragilidades discutidas. A Regra de Jeffrey será vista em detalhes, destacando sua versão preditivista e o conceito de conjugação definido por esta regra. Também será discutido o Condicionamento Bayesiano e sua quaseimpotência na incorporação de imprevistos.Uma caracterização preditivista de modelos lineares t é obtida partindo apenas de julgamentos sobre objetos observáveis. Além de mais alguns exemplos de Jeffrey-conjugação, esta caracterização fornece um procedimento completamente operacional de modelagem. Posteriormente, apresentaremos um procedimento para inferir sobre pontos de mudanças, os quais muitas vezes surgem como conseqüências da ocorrência de imprevistos, utilizando o Modelo Partição Produto. Como inferir sobre mudanças na média e na variância de dados condicionalmente normais usando este procedimento será especificado. Aplicaremos os procedimentos desenvolvidos a dados do mercado financeiro
1998
Rosângela Helena Loschi
Bootstrap não-paramétrico aplicado a dados incompletos
Um problema bastante comum em levantamentos amostrais é afalta de algumas das informações. Uma maneira de tratar esse problema é a imputação, consiste em prever as observações perdidas, completando o conjunto, de dados para depois analisá-lo como se fosse completo. Em particular, essa idéia também pode ser aplicada quando se pretende utilizar o método bootstrap para se estimar o erro padrão de algum estimador. Apesar dessa técnica ser bastante utilizada atualmente, pouca atenção tem sido dada á sua aplicação na ausência de informações. Este trabalho discorre sobre a aplicação da técnica bootstrap não-paramétrica a dados incompletos, caso em que o procedimento usual é aplicá-la em conjunto com algum método de imputação. Apresentamos os resultados de simulação sobre a estimação da variância dos estimadores das componentes da variância em um modelo linear misto e mediante a geração de dados através de uma distribuição normal bivariada. As amostras utilizadas são do tipo painel onde n indivíduos foram gerados em dois instantes de tempo
1998
Delhi Teresa Paiva Salinas
Probabilidade de paternidade: uma proposta metodológica para seu cálculo
Neste trabalho se apresenta uma proposta metodológica para calcular a probabilidade de paternidade, quando não é possível analisar ou obter o DNA do indivíduo acusado de ser o pai e os genótipos dos outros indivíduos considerados no estudo, sãodeterminados sem erro. Para cada conjunto de parentes do acusado - pais, irmãos e/ou filhos - a metodologia proposta permite determinar, exatamente, a distribuição de probabilidade a posteriori para o genótipo do acusado, após ter observado osgenótipos de seus parentes. Com esta distribuição, a probabilidade a posteriori de paternidade pode ser calculada. Consideramos a lei de equilíbrio populacional de Hardy-Weinberg, apresentando um teste exato e não condicional. O teste édesenvolvido, separadamente, para ambos os casos, o de dois alelos e o de alelos múltiplos. Baseando-se no conceito de informação esperada de um experimento (Smith e Bernardo, 1994), estabelecemos uma ordem de preferência entre todas as classesde parentes. Para obter essa ordem, analisamos os diferentes conjuntos de parentes do acusado. Além disso, alguns locos, usados pelo laboratório Genomic, em suas análises de DNA, são classificados em termos da informação esperada obtida para osdiferentes experimentos aqui considerados
1998
Luis Eduardo Montoya Delgado
Influência local e análise de resíduos em modelos de regressão von Mises
Uma etapa importante apóa a formulação e ajuste de um modelo de regressào é a análise de diagnóstico. Neste trabalho são tratados alguns aspectos de diagnóstico em modelos de regressão von Mises. É empregada a abordagem de influência local sobrea likelihood displacement para o modelo misto, onde os dois parâmetros da distribuição von Mises são modelados através de funções de ligação apropriadas. Considerando o modelo de médias von Mises, são propostos dois resíduos padronizados obtidosa partir dos componentes da função desvio. Nós mostramos que as distribuições de probabilidade desses resíduos podem ser aproximados pela distribuição normal padrão e apresentamos o resultado de um estudo de simulação desenvolvido com o objetivode avaliar o comportamento de algumas características dessas distribuições. Os resultados são aplicados a dois conjuntos de dados reais
1999
Francisco Antonio Morais de Souza
Métodos de comparação de séries temporais
Na análise de séries temporais, muitas vezes, é de interesse verificar se duas séries, ou trechos de uma mesma série, estão sendo gerados pelo mesmo processo estocástico. No caso de processos estacionários de segunda ordem, as hipóteses deinteresse são verificar se elas apresentam igual estrutura de autocovariância (autocorrelação) ou igualdade das funções de densidades espectrais. Nesta dissertação apresentamos vários testes, alguns para séries multivariadas, com esse objetivo.Simulações são realizadas para comparar os diferentes procedimentos no caso de comparação de duas séries univariadas. Finalmente, aplicamos todas as técnicas para a análise de um conjunto de dados reais
1999
Gladys Elena Salcedo Echeverry
Confiabilidade assintótica de sistemas reparáveis
Na Teoria da Confiabilidade muitos problemas são resolvidos facilmente quando assumimos que todas as variáveis aleatórias envolvidas comportam-se de acordo com uma lei exponencial. Contudo as variáveis usadas nessa teoria tais como tempo deoperação, tempo de reparo, etc., podem ter distribuições completamente diferentes. Neste caso usamos métodos de outras áreas tais como, Teoria das Filas e Teoria da Renovação, que permitem a solução de problemas quando parte ou todas asdistribuições envolvidas são arbitrárias. Outra forma é a procura de soluções aproximadas através de teoremas limite. Este trabalho segue esta linha
1999
Esteban Fernández Tuesta