Repositório RCAAP
Densidades preditivas no modelo de regressão linear
Neste trabalho, dedicamo-nos ao estudo de funções de verossimilhança preditivas e densidades preditivas para um vetor de observações futuras com base num conjunto de dados observados, apresentando várias aplicações em modelos de regressão linear.Sob estes modelos, apresentamos quatro diferentes densidades preditivas, analisando propriedades relativas à consistência e otimalidade. Posteriomente, descrevemos um método para detectar pontos influentes na análise de regressão através do usode densidades preditivas. Na última parte do trabalho, essas funções são utilizadas na seleção da melhor equação de regressão
2000
Magen Danielle Infante Rojas
Testes para hipóteses restritas em desigualdades lineares usando equações de estimação generalizadas
O objetivo deste trabalho é apresentar, inicialmente, uma unificação dos principais artigos sobre testes para hipóteses restritas envolvendo o Modelo Normal Linear. Nesse caso, a relação entre as estatísticas do teste bem como a distribuição nulaassintótica das estatísticas são apresentadas nos casos em que a matriz de covariância do erro é conhecida e desconhecida. Apresentamos uma breve revisão dos Modelos Lineares Generalizados e formalmente as Equações de Estimação Generalizadas(EEGs) de Liang e Zeger (1986). É estudado, em particular, o procedimento proposto por Kodde e Palm (1986) juntamente com os resultados de Wolak (1991) para desenvolver testes para hipóteses restritas em desigualdades lineares usando as EEGs.Apresentamos também, uma extensão para EEGs do procedimento proposto por Follmann (1996) para testar hipóteses restritas usando a estatística 'T POT.2' de Hotteling. Para os procedimentos propostos, vários estudos de simulação são desenvolvidospara verificar o comportamento dos mesmos em termos de poder com relação ao teste tradicional de Wald para hipóteses não restritas. Observa-se um razoável ganho de poder dos testes de Kodde e Palm e Follmann em relação ao teste de Wald e umpequeno ganho de poder do teste de Kodde e Palm em relação ao teste de Follman. Este último é fácil de ser aplicado e evita o cálculo dos pesos exigidos pelo teste de Kodde e Palm, o que o torna um forte competidor principalmente quando o númerode restrições é maior que 4
Alguns testes de linearidade para séries temporais nos domínios do tempo e da freqüência
O problema prático, encontrado ao ajustar um modelo a uma série temporal, é decidir se devemos utilizar, ou não, um modelo linear. Os testes de linearidade podem ser utilizados para decidir quendo devemos usar a classe dos modelos lineares cujaidentificação, estimação e previsão está amplamente desenvolvida e implementada nos programas computacionais. Este trabalho tem como objetivo descrever e aplicar a algumas séries reais os testes de linearidade e normalidade de Subba Rao e Gabr(1980), Hinich (1982),McLeod e Li(1983), Tsay(1986), Poggi e Portier (1997) e Brillinger e Irizarry (1998)
2000
Alessandra de Ávila Montini
Testes de significância Bayesianos: aplicações a distribuições discretas
O p-value, usado como ferramenta para testar hipóteses, já é parte da linguagem científica pois acredita-se que o mesmo é uma medida da evidência da validade de uma hipótese específica. Muitas vezes o cálculo do p-value - também chamado deníveldescritivo - não leva em consideração a hipótese alternativa, mas apenas a hipótese nula. Discute-se neste trabalho uma medida de evidência, denominada P-value Bayesiano, que além de incorporar em seu cálculo ambas as hipóteses, levaemconsideração opiniões representadas por distribuições de probabilidades a priori no espaço paramétrico. Tratamos de caso de hipóteses nulas precisas, que são definidas por conjuntos do espaço paramétrico cuja dimensão é menor do que oespaçooriginal. Integrais de superfície são usadas no cálculo do P-value Bayesiano. Os exemplos apresentados se restringem a distribuições discretas, mais especificamente a tabelas de contingência e a comparação de distribuições de Poisson
2000
André Luiz Silva Samartini
Imputação de dados através de modelos de curvas de crescimento polinomiais
Em estudos longitudinais é freqüente a ocorrência de observações ausentes. Uma abordagem para dados incompletos é a imputação, que consiste em prever as observações ausentes, completando o conjunto de dados para posterior análise. Neste trabalho, a imputação é feita através do modelo de curvas de crescimento polinomiais sob o modelo misto, com as suposições de normalidade de efeitos e erros aleatórios, independência dos erros e mesma matriz de covariância para efeitos individuais. O método de imputação adotado é o BLUP (Best Linear Unbiased Predictor), que depende da estimação das matrizes de covarância, para a qual vários métodos são considerados. Além disso, a técnica é aplicada a um conjunto de dados reais e, para outros três conjuntos de dados, os resultados são comparados com os de outros trabalhos
Método de Chen-Stein e o modelo de Ehrenfest
O objetivo deste trabalho é estudar o método de Chen-Stein o qual determina um limite superior para a velocidade de convergência em distribuição de somas de variáveis aleatórias dependentes Bernoulli à distribuição Poisson. Inicialmente o métodofoi introduzido por Charles Stein (1970) no contexto do teorema central do limite e a seguir Louis Chen (1975) adaptou essas idéias à distribuição Poisson. Apresentamos e exemplificamos aqui todos os detalhes de principal resultado obtido porChen. Além disso, aplicamos o método para o modelo de Ehrenfest no contexto do passeio aleatório no hipercubo
2000
José Domingo Restrepo Alvarez
Modelo de espaço de estados com efeitos retrospectivos para dados longitudinais multivariados
Neste trabalho, apresentamos um modelo de espaço de estados para dados longitudinais, no qual o processo latente é um processo de Markov de ordem `L > OU =1¦. Assumimos que, dado o processo latente, a distribuição condicional do processo observado depende do valor presente e de 'K > OU = 0' valores passados do processo latente e tanto o processo observado quanto o processo latente têm distribuição na família Tweedie dos modelos de dispersão. O modelo é log-linear em um conjunto de covariáveis que podem variar no tempo e a estimação dos parâmetros de regressão é feita por meio de equações de estimação de Kalman, resolvidas por um algoritmo de escores de Newton. Parâmetros de dispersão são estimados por meio de estimadores de Pearson corrigidos. O modelo admite ainda uma terceira classe de parâmetros, os parâmetros retrospectivos, que definem a ordem do processo latente. Para estimação destes parâmetros retrospectivos, propomos um procedimento inspirado na função de verossimilhança perfilada. Mostramos alguns resultados de simulação e uma aplicação do modelo a um conjunto de dados reais
2000
Antonieta D'Alcantara de Queiroz Peres
Modelos lineares hierárquicos
Estruturas hierárquicas de dados são encontradas freqüentemente em diversos estudos. Elas são caracterizadas pela presença de unidades experimentais agrupadas em outras unidades maiores. Para avaliar dados desta natureza podem ser utilizados osmodelos lineares hierárquicos. Eles constituem uma nova formulação para os modelos de efeitos aleatórios, que permite especificar cada um dos níveis de hierarquia separadamente e incorporar efeitos aleatórios associados a cada um destes níveis.O modelo linear hierárquico com 2 níveis é apresentado e ilustrado através de alguns sub modelos, juntamente com a sua teoria de estimação e testes de hipóteses. São apresentadas duas aplicações: uma em Educação e a outra em Medicina, executadasem dois programas computacionais: HLM e SAS. A última aplicação mostra como um estudo de dados longitudinais pode ser tratado sob o enfoque de um modelo linear hierárquico
Modelagem de equações estruturais
Esta monografia discute a modelagem de equações estruturais ('Structural Equation Modeling - SEM'), apresentando os aspectos teóricos, uma revisão dos casos da literatura aplicados à área de marketing, e um estudo de caso
Modelos GARCH com distribuições não Gaussianas
A ênfase do trabalho está na modelagem de séries financeiras. O presente trabalho investiga, em modelos GARCH, como a suposição de distribuição dos erros padronizados pode afetar a previsão por intervalo da série em estudo. Simulações foram realizadas com o intuito de comparar os modelos GARCH com erros padronizados seguindo distribuição normal, t-student e normal contaminada. Uma série real foi estudada utilizando três diferentes suposições sobre a distribuição dos erros padronizados. A conclusão geral é que existe considerável benefício na previsão por intervalo quando são utilizadas distribuições com excesso de curtose quando comparadas à distribuição normal
2000
Rogério Oliveira Ribeiro
Modelos de 'credit scoring': regressão logística, 'chaid' e real
O mercado financeiro de varejo brasileiro encontra-se em um momento de expansão da concessão de crédito, ocasionando um forte aumento na demanda por ferramentas capazes de avaliar o risco de inadimplência dos potenciais contratantes de produtos de crédito. Modelos estatísticos, denominados modelos de 'Credit Scoring', estão sendo utilizados para esta finalidade. Neste trabalho, descrevemos as caracteristicas dos processo de concessão de crédito e a partir de uma amostra de dados, fornecida por uma instituição financeira brasileira, aplicamos e comparamos três técnicas para classificação de clientes: a Regressão Logística Múltipla, o CHAID e o REAL. As duas primeiras técnicas são bastante utilizadas por profissionais do mercado e a terceira, trata-se de um novo algoritmo de Árvore de Classificação, sendo a primeira vez que é aplicado ao problema. Vantagens e desvantagens de cada um dos métodos são apresentadas
2000
Paulo de Tarso Marques Rosa
Modelos de percolação multi escalar
Estudamos as propriedades de conectividade de conjunto complementar no modelo de percolação de Poisson multi escalar e no modelo de percolação de Mandelbrot em dimensão arbitrária. Usando um resultado sobre a majoração de campos aleatórios dependentes por campos de Bernoulli, provamos que se o parâmetro de seleção é menor do que um certo valor crítico então escolhendo o parâmetro de escala suficientemente grande é possível garantir a ausência de percolação no conjunto complementar. Os resultados para o modelo de Mandelbrot são generalizados para o caso de um mosaico k-simétrico d-dimensional. O resultado obtido é aplicado ao modelo de percolação multi escalar por elo. Estudamos também o modelo Booleano de Poisson no caso de raio aleatório p não limitado. Para uma classe de modelos de percolação de longo alcance tais que as probabilidades p(x,z) de elo (x,z) ser aberto satisfazem algumas condições de regularidade e 'sigma'z pertence a'Z POT. 2' p(x,z) = 'infinito' provamos que a percolação ocorre mesmo se os elos maiores do que um certo número (que depende da família de probabilidades {p(x,z)}) forem cortados. Apresentamos também um exemplo de um modelo dependente de longo alcance para o qual isto não vale
Análise preqüencial
Basicamente, a análise preqüencial consiste na produção e avaliação de previsões para quantidades observáveis. Por previsão, entende-se uma distribuição de probabilidades para a quantidade desconhecida de interesse. Assim definida cada previsão é coerente segundo a noção de coerência de De Finetti. Neste trabalho são estudados sistemas de previsão e diversas medidas de avaliação, incluindo o comportamento assintótico destas medidas para um bom sistema de avaliação. Neste contexto, são apresentados os princípios preqüenciais. Por fim, são apresentadas quatro aplicações analisadas sob a ótica preqüencial
2000
Airlane Pereira Alencar
Novas quotas inferiores para a probabilidade crítica do processo de percolação orientada por meio de cadeias de Markov numa faixa de múltiplas vias
Apresentamos uma seqüência decrescente de passeios aleatórios em Z, que domina a margem direita do processo de percolação orientada. Através do conceito de cadeia de Markov numa faixa, descrevemos um algoritmo que gera uma seqüência crescente de quotas inferiores que converge para a probabilidade crítica do processo de percolação orientada em duas dimensões. Calculando numericamente os dez primeiros termos dessa seqüência, obtivemos uma nova quota inferior para a probabilidade crítica deste processo: 'p.IND. c' > OU = 0,63328
Teoria da resposta ao ítem para dados longitudinais
Neste trabalho consideramos a situação em que um grupo de indivíduos é acompanhado ao longo de várias condições de avaliação pré-fixadas. Seu desempenho (habilidade/proficiência) é obtido a partir de respostas dadas em testes formados por ítens (questões) com características próprias. Para modelar a dependência entre suas habilidades nos vários períodos estudados são propostas diversas estruturas de covariância. São apresentadas equações de estimação para o conjunto de características dos ítens e para os parâmetros da distribuição latente. É abordado o caso de dados incompletos, o caso em que há várias populações em estudo, e são apresentadas propostas para modelar as curvas de crescimento relativas aos parâmetros da distribuição latente. São feitas simulações e uma aplicação aos dados do projeto de Avaliação de Jornada Única, realizado pela Secretaria de Estado da Educação de São Paulo no período 1992-94
2001
Heliton Ribeiro Tavares
Instantes de ocorrência de eventos raros em processos misturadores
Esta tese trata das distribuições dos processos pontuais formados pelas sucessivas ocorrências de um evento raro em processos estocásticos misturadores. Este estudo abrange basicamente, três situações bem diferenciadas: o instante de primeira entrada em um evento, o instante de retorno a um evento e o tempo de permanência no evento. Se considerarmos os intantes das sucessivas ocorrências de um mesmo evento durante a realização de um processo, estes formarão então um processo pontual. O estudo destas três situações nos permitirá compreender como se distribui esse processo ao longo do tempo para processos estocásticos que perdem memória segundo uma condição geral, que chamamos de processos misturadores. Estes processos abrangem vários tipos de processos estocásticos a tempo discreto bem conhecidos, por exemplo, cadeias de Markov e medidas de Gibbs. Apresentaremos uma majoração e minoração para o erro na aproximação exponencial para o instante de entrada em um evento raro para processos 'alfa'-misturadores somáveis e processos 'fi'-misturadores quaisquer com alfabeto finito. Este estudo nos permitirá também fazer uma divisão entre os eventos segundo o comportamento da lei exponencial aproximante. A lei do instante de volta pode ser aproximada por uma combinação de uma lei degenerada e uma lei exponencial. Por sua vez, a lei do tempo de permanência pode ser aproximada por uma lei geométrica. Apresentaremos uma estimação do erro em ambos os casos. Como último resultados obtemos a aproximação poissoniana para os sucessivos instantes de entrada em um evento raro não recorrente para processos 'fi'-misturadores através do método Chen-Stein
Métodos de controle de processo on-line para atributos
Uma classe de procedimentos utilizados para monitorar processos por atributos são os procedimentos introduzidos por Taguchi (1981, 1984, 1985) e Taguchi et al. (1989). Esses procedimentos envolvem apenas a inspeção de um item retirado da linha de produção, a cada intervalo fixo de m itens produzidos, e o seu planejamento é tratado por Taguchi e seus colaboradores através de critérios econômicos. Este trabalho tem como objetivo apresentar um modelo formal, unificado, para descrever o procedimento de Taguchi para atributos e obter, a partir dele, a expressão analítica para o custo médio assintótico do procedimento de controle, por item produzido. Neste contexto, o trabalho corrige um resultado obtido por Nayebpour e WoodLL (1993), no desenvolvimento de uma modelagem alternativa para o mecanismo de falha, quando este é monitorado pelo procedimento de Taguchi. Aborda, ainda, a questão da estimação dos parâmetros do processo a partir dos dados observados no procedimento de controle. Neste último caso, dá-se ênfase, em particular, ao ponto de mudança ou instante da falha do processo
2001
Ana Cristina Vieira Belem
Modelagem de riscos proporcionais para dados de sobrevivência com estrutura hierarquica
As técnicas mais difundidas em análise de sobrevivência supõem independência entre as observações. No entanto, em muitos problemas práticos esta suposição não é adequada, pela própria natureza dos dados. Uma maneira de abordar o problema é a utilização de modelos multiníveis, que são desenvolvidos para dados com estrutura hierárquica. Nestes modelos, a inclusão de coeficientes aleatórios faz com que o modelo possa incorporar dependências entre observações. Neste trabalho, foram estudados modelos de sobrevivência multiníveis em que os coeficientes apresentam distribuição normal, considerando-se uma abordagem paramétrica (modelos exponencial e Weibull) e uma abordagem baseada no modelo de regressão do Cox. A estimação estudada baseia-se na metodologia desenvolvida para modelos lineares generalizados. São apresentados dois métodos de estimação, que foram utilizados para analisar três conjuntos de dados. Além disso, é utilizado o método bootstrap para verificação de hipóteses de interesse sobre os parâmetros
Transição de fase e forma assintótica em um modelo de reação em cadeia
Neste trabalho estudamos o comportamento assintótico (forma assintótica e transição de fase) de um sistema crescente de passeios aleatórios simples, cuja dinâmica pode ser descrita do seguinte modo: inicialmente temos um número aleatório de partículas em cada sítio de um grafo G. Um sítio arbitrário de G é destacado dos demais e denominado, a partir de então, sua raíz e denotado pelo símbolo 0. Todas as partículas estão ativas (acordadas). A cada novo instante de tempo, cada uma das partículas ativas morre com probabilidade 1-p, independentemente das demais. Uma vez que uma partícula ativa sobrevive, ela salta sobre um sítio vizinho mais próximo, que é escolhido com probabilidade uniforme. Assim, cada partícula ativa realiza um passeio aleatório simples a tempo discreto em G, enquanto estiver viva. Durante o seu percurso, uma partícula ativa acorda todas as partículas dormentes que encontra pelo caminho e estas começam a se mover. Não há interação entre partículas ativas
2001
Oswaldo Scarpa Magalhães Alves
Simulação perfeita via cadeias de Markov
Neste trabalho apresentamos dois algoritmos de simulação perfeita usando cadeias de Markov e as respectivas provas de que fornecem amostras de acordo com a distribuição desejada. Estes algoritmos são o Coupling from the past-CFTP introduzido por Propp e Wilson e o algoritmo de Fill. Para ilustração destes algoritmos aplicamo-nos ao modelo de ising ferromagnético em duas dimensões, usando o amostrador de Gibbs (Gibbs sampler)
2001
Edvaldo Capobiango Coelho