Repositório RCAAP
Modelos de regressão para variáveis categóricas ordinais com aplicações ao problema de classificação
Neste trabalho, apresentamos algumas metodologias para analisar dados que possuem variável resposta categórica ordinal. Descrevemos os principais Modelos de Regressão conhecidos atualmente que consideram a ordenação das categorias de resposta, entre eles: Modelos Cumulativos e Modelos Sequenciais. Discutimos também o problema de discriminação e classificação de elementos em grupos ordinais, comentando sobre os preditores mais comuns para dados desse tipo. Apresentamos ainda a técnica de Análise Discriminante Ótima e sua versão aprimorada, baseada na utilização de métodos bootstrap. Por fim, aplicamos algumas das técnicas descritas a dados reais da área financeira, com o intuito de classificar possíveis clientes, no momento da aquisição de um cartão de crédito, como futuros bons, médios ou maus pagadores. Para essa aplicação, discutimos as vantagens e desvantagens dos modelos utilizados em termos de qualidade da classificação.
2008
Roberta Irie Sumi Okura
Estatística gradiente: teoria assintótica de alta ordem e correção tipo-Bartlett
Obtemos uma expansão assintótica da função de distribuição sob a hipótese nula da estatística gradiente para testar hipóteses nulas compostas na presença de parâmetros de perturbação. Esta expansão é derivada utilizando uma rota Bayesiana baseada no argumento de encolhimento descrito em Ghosh e Mukerjee (1991). Usando essa expansão, propomos uma estatística gradiente corrigida por um fator de correção tipo-Bartlett, que tem distribuição qui-quadrado até um erro de ordem o(n-1) sob a hipótese nula. A partir disso, determinamos fórmulas matriciais e algébricas que auxiliam na obtenção da estatística gradiente corrigida em modelos lineares generalizados com dispersão conhecida e desconhecida. Simulações de Monte Carlo são apresentadas. Finalmente, discutimos a obtenção de regiões de credibilidade via inversão da estatística gradiente. Caracterizamos as densidades a priori, matching priors, que asseguram propriedades de cobertura frequentista acuradas para essas regiões.
Comparação e escolha de agrupamentos: uma proposta utilizando a entropia
A análise de agrupamentos (cluster analysis) é o conjunto de ferramentas estatísticas de análise multivariada para encontrar ou revelar a existência de grupos em uma amostra. A literatura apresenta muitos métodos para particionar um conjunto de dados. Porém, ao utilizá-los, o pesquisador muitas vezes se depara com o problema de decidir em quantos grupos deverá ser feita essa divisão, bem como comparar agrupamentos obtidos por diferentes métodos estabelecendo quão semelhantes eles são. Neste trabalho é feita uma revisão dos principais métodos de comparação de agrupamentos e é apresentada uma nova técnica para a escolha do número ideal de grupos, baseada na diferença de entropias. Afim de avaliá-la, estudos de simulação foram realizados comparando-a com outras técnicas conhecidas: a estatística Gap e a silhueta média. Os resultados indicaram que a nova proposta é tão ou mais eficiente que as demais, no sentido de encontrar o número correto de grupos. Além disso, ela também é computacionalmente mais rápida e de simples implementação. Duas aplicações a dados reais são apresentadas, ambas na área de genética.
2007
Estevão Freitas de Souza
Modelos mistos aditivos semiparamétricos de contornos elípticos
Neste trabalho estendemos os modelos mistos semiparamétricos propostos por Zhang et al. (1998) para uma classe mais geral de modelos, a qual denominamos modelos mistos aditivos semiparamétricos com erros de contornos elípticos. Com essa nova abordagem, flexibilizamos a curtose da distribuição dos erros possibilitando a escolha de distribuições com caudas mais leves ou mais pesadas do que as caudas da distribuição normal padrão. Funções de verossimilhança penalizadas são aplicadas para a obtenção das estimativas de máxima verossimilhança com os respectivos erros padrão aproximados. Essas estimativas, sob erros de caudas pesadas, são robustas no sentido da distância de Mahalanobis contra observações aberrantes. Curvaturas de influência local são obtidas segundo alguns esquemas de perturbação e gráficos de diagnóstico são propostos. Exemplos ilustrativos são apresentados em que ajustes sob erros normais são comparados, através das metodologias de sensibilidade desenvolvidas no trabalho, com ajustes sob erros de contornos elípticos.
2009
Germán Mauricio Ibacache Pulgar
Directed wavelet covariance for locally stationary processes
The main goal of this study is to propose a methodology that measures directed relations between locally stationary processes. Unlike stationary processes, locally stationary processes may present sudden pattern changes and have local characteristics in specific intervals. This behavior causes instability in measures based on Fourier transforms. The relevance of this study relies on considering these processes and propose robust methodologies that are not affected by outliers, sudden pattern changes or local behavior. We start reviewing the Partial Directed Coherence (PDC) and the Wavelet Coherence. PDC measures the directed relation between components of a multivariate stationary Vector Autoregressive (VAR) model in the frequency domain, while Wavelet Coherence is based on complex wavelets decomposition. We then propose a causal wavelet decomposition of the covariance structure for bivariate locally stationary processes: the Directed Wavelet Covariance (DWC). Compared to Fourier-based quantities, wavelet-based estimators are more appropriate for non-stationary processes and processes with local patterns, outliers and rapid regime changes like in EEG experiments with the introduction of stimuli. We then propose its estimators and calculate its expectation and analyze its variance. Next we propose a decomposition for the variance of multivariate processes with more than two components: the Partial Directed Wavelet Covariance (pDWC). Considering a N-variate locally stationary process, the pDWC calculates the Directed Wavelet Covariance of X_1(t) with X_2(t) eliminating the effect of the other components X_3(t), ... ,X_N(t). We propose two approaches to this situation. First we filter the multivariate process to remove all the exogenous influences and then we calculate the directed relation between the components. In the second case, as in Partial Directed Coherence, we consider the multivariate process as a time-varying Vector Autoregressive Model (tv-VAR) and use its coefficients in the decomposition of the covariance function to isolate the effects of the other components. We also compare results of the PDC, Wavelet Coherence and Directed Wavelet Covariance with simulated data. Finally, we present an application of the proposed Directed Wavelet Covariance and Partial Directed Wavelet Covariance on EEG data. Simulation results show that the proposed measures capture the simulated relations. The pDWC with linear filter has shown more stable estimations than the proposed pDWC considering the tv-VAR. Future studies will discuss the DWC\'s and pDWC\'s asymptotic distributions and significance tests. The proposed Directed Wavelet Covariance decomposition is a different approach to deal with non-stationary processes in the context of causality. The use of wavelets is a gain and adds to the number of studies that can be addressed when Fourier transform does not apply. The pDWC is an alternative for multivariate processes and it removes linear influences from observed external components.
2018
Kim Samejima Mascarenhas Lopes
Programação genética: operadores de crossover, blocos construtivos e emergência semântica
Os algoritmos evolutivos são métodos heurísticos utilizados para a solução de problemas de otimização e que possuem mecanismos de busca inspirados nos conceitos da Teoria de Evolução das Espécies. Entre os algoritmos evolutivos mais populares, estão os Algoritmos Genéticos (GA) e a Programação Genética (GP). Essas duas técnicas possuem como ponto em comum o uso pesado do operador de recombinação, ou \"crossover\" - mecanismo pelo qual novas soluções são geradas a partir da combinação entre soluções existentes. O que as diferencia é a flexibilidade - enquanto que nos algoritmos genéticos as soluções são representadas por códigos binários, na programação genética essa representação é feita por algoritmos que podem assumir qualquer forma ou extensão. A preferência pelo operador de crossover não é simplesmente uma característica em comum das duas técnicas supracitadas, mas um poderoso diferencial. Na medida em que os indivíduos (as soluções) são selecionados de acordo com a respectiva qualidade, o uso do operador crossover tende a aumentar mais rapidamente a qualidade média da população se as partes boas de cada solução combinada (os \"building blocks\") forem preservadas. Holland [1975] prova matematicamente que sob determinadas condições esse efeito ocorrerá em algoritmos genéticos, em um resultado que ficou conhecido como \"Schema Theorem of GAs\". Entretanto, a implementação prática de GA (e, em especial, de GP) geralmente não ocorre segundo as condições supostas neste teorema. Diversos estudos têm mostrado que a extensão variável das estruturas utilizadas em GP dão um caráter de mutação ao operador de crossover, na medida em que a seleção aleatória dos pontos de combinação pode levar à destruição dos building blocks. Este trabalho propõe um novo operador de crossover, baseado em uma técnica de meta-controle que orienta a seleção dos pontos para a recombinação das soluções, respeitando o histórico de recombinação de cada ponto e a compatibilidade semântica entre as \"partes\" de cada solução que são \"trocadas\" neste processo. O método proposto é comparado ao crossover tradicional em um estudo empírico ligado à área Financeira, no qual o problema apresentado consiste em replicar a carteira de um fundo de investimentos setorial. Os resultados mostram que o método proposto possui performance claramente superior ao crossover tradicional, além de proporcionar a emergência de semântica entre as soluções ótimas.
A precificação de opções para processos de mistura de brownianos
O estudo apresenta um modelo de precificação de derivativos financeiros baseado em processos de mistura de movimentos brownianos. A partir de uma modelagem probabilística, são apresentados ajustes ao modelo tradicional de Black-Scholes-Merton para contemplar situações em que o retorno do ativo-objeto não segue uma distribuição normal. O trabalho discute ainda um mecanismo de estimação de parâmetros da mistura de normais. O resultado da pesquisa possibilita a análise de preço de opções em situações mais gerais.
An extension of Birnbaum-Saunders distributions based on scale mixtures of skew-normal distributions with applications to regression models
The aim of this work is to present an inference and diagnostic study of an extension of the lifetime distribution family proposed by Birnbaum and Saunders (1969a,b). This extension is obtained by considering a skew-elliptical distribution instead of the normal distribution. Specifically, in this work we develop a Birnbaum-Saunders (BS) distribution type based on scale mixtures of skew-normal distributions (SMSN). The resulting family of lifetime distributions represents a robust extension of the usual BS distribution. Based on this family, we reproduce the usual properties of the BS distribution, and present an estimation method based on the EM algorithm. In addition, we present regression models associated with the BS distributions (based on scale mixtures of skew-normal), which are developed as an extension of the sinh-normal distribution (Rieck and Nedelman, 1991). For this model we consider an estimation and diagnostic study for uncensored data.
2018
Rocio Paola Maehara Sánchez
Relação entre níveis de significância Bayesiano e freqüentista: e-value e p-value em tabelas de contingência
O FBST (Full Bayesian Significance Test) é um procedimento para testar hipóteses precisas, apresentado por Pereira e Stern (1999), e baseado no cálculo da probabilidade posterior do conjunto tangente ao conjunto que define a hipótese nula. Este procedimento é uma alternativa Bayesiana aos testes de significância usuais. Neste trabalho, estudamos a relação entre os resultados do FBST e de um teste freqüentista, o TRVG (Teste da Razão de Verossimilhanças Generalizado), através de alguns problemas clássicos de testes de hipóteses. Apresentamos, também, todos os procedimentos computacionais utilizados para a resolução automática dos dois testes para grandes amostras, necessária ao estudo da relação entre os testes.
Cointegração fracionária em séries financeiras
O objetivo deste trabalho é apresentar alguns testes de cointegração fracionária para séries integradas de ordem d (dR), i.e., séries I(d), comparando-os com os testes de cointegração, cujo parâmetro d assume valores inteiros. O procedimento para os testes de cointegração fracionária utiliza reamostragens de bootstrap com reposição para gerar séries sob a hipótese nula de não cointegração. Estas reamostragens são então utilizadas para calcular os p-valores de algumas estatísticas de testes de regressão, tais como a estatística de Durbin-Watson e a estimativa do parâmetro de memória longa (d) residual. O poder destes testes é apresentado e comparado com os testes de cointegração, mostrando sua consistência. A aplicação destes testes a dados reais compara o modelo de correção de erros de cointegração com o modelo de correção de erros de cointegração fracionária utilizando a medida de erros quadráticos médios dos modelos ajustados.
Causalidade Granger em medidas de risco
Esse trabalho apresenta um estudo da causalidade de Granger em Risco bivariado aplicado a séries temporais financeiras. Os eventos de risco, no caso de séries financeiras, estão relacionados com a avaliação do Valor em Risco das posições em ativos. Para isso, os modelos CaViaR, que fazem parte do grupo de modelos de Regressão Quantílica, foram utilizado para identificação desses eventos. Foram expostos os conceitos principais envolvidos da modelagem, assim como as definições necessárias para entendê-las. Através da análise da causalide de Granger em risco entre duas séries, podemos investigar se uma delas é capaz de prever a ocorrência de um valor extremo da outra. Foi realizada a análise de causalidade de Granger usual somente para como comparativo.
2011
Patricia Nagami Murakami
Modelos de regressão beta inflacionados truncados
Os modelos de regressão beta e beta inflacionados conseguem ajustar adequadamente grande parte das variáveis do tipo proporção. No entanto, esses modelos não são úteis quando a variável resposta não pode assumir valores no intervalo (0,c) e assume o valor c com probabilidade positiva. Variáveis relacionadas a algum tipo de pagamento limitado entre dois valores, quando estudadas em relação ao seu valor máximo, possuem essas características. Para ajustar essas variáveis, introduzimos a distribuição beta inflacionada truncada (BIZUT), que é uma mistura de uma distribuição beta com suporte no intervalo (c,1) e uma distribuição trinomial que assume os valores zero, um e c. Propomos ainda um modelo de regressão para as situações em que a variável resposta tem distribuição BIZUT. Admitimos que todos os parâmetros da distribuição podem variar em função de variáveis preditoras. Além disso, o modelo permite que o parâmetro conhecido c varie entre as unidades populacionais. Para esse modelo são desenvolvidos diversos aspectos inferenciais, são obtidos resultados para as situações em que c é variável e são conduzidos estudos de simulação de Monte Carlo. Além disso, discutimos análise de resíduos, desenvolvemos análise de influência local e realizamos uma aplicação a dados reais de cartão de crédito.
2012
Gustavo Henrique de Araujo Pereira
Seleção de modelos econométricos não aninhados: J-Teste e FBST
A comparação e seleção de modelos estatísticos desempenham um papel fundamental dentro da análise econométrica. No que se trata especificamente da avaliação de modelos não aninhados, o procedimento de teste denominado de J-Teste aparece como uma ferramenta de uso freqüente nessa literatura. De acordo com apontamentos, entre os anos de 1984 e 2004 o J-Teste foi citado em 497 artigos pertinentes. Diferentemente do J-Teste, as abordagens Bayesianas possuem um potencial de aplicabilidade ainda pouco explorado na literatura, dado que são metodologicamente coerentes com os procedimentos inferenciais da econometria. Nesse sentido, o objetivo do presente trabalho é o de avaliar a aplicabilidade do procedimento de teste Bayesiano FBST para a comparação de modelos econométricos não aninhados. Implementando-se o FBST para os mesmos dados de estudos estatísticos relevantes na Teoria Econômica, tais como Bremmer (2003) (Curva de Phillips) e Caporale e Grier (2000) (determinação da taxa de juros real), constata-se que os resultados obtidos apontam para conclusões semelhantes daquelas delineadas com a utilização do J-Teste. Além disso, ao se utilizar a noção de função poder para avaliar ambos os procedimentos de teste, observa-se que sob certas condições as chances de erro expressas pelo Erro Tipo I e Erro Tipo II se tornam relativamente próximas.
2007
Fernando Valvano Cerezetti
Uma análise sobre duas medidas de evidência: p-valor e s-valor
Este trabalho tem como objetivo o estudo de duas medidas de evidência, a saber: o p-valor e o s-valor. A estatística da razão de verossimilhanças é utilizada para o cálculo dessas duas medidas de evidência. De maneira informal, o p-valor é a probabilidade de ocorrer um evento extremo sob as condições impostas pela hipótese nula, enquanto que o s-valor é o maior nível de significância da região de confiança tal que o espaço paramétrico sob a hipótese nula e a região de confiança tenham ao menos um elemento em comum. Para ambas as medidas, quanto menor forem seus respectivos valores, maior é o grau de inconsistência entre os dados observados e a hipótese nula postulada. O estudo será restrito a hipóteses nulas simples e compostas, considerando independência e distribuição normal para os dados. Os resultados principais deste trabalho são: 1) obtenção de fórmulas analíticas para o p-valor, utilizando probabilidades condicionais, e para o s-valor; e 2) comparação entre o p-valor e o s-valor em diferentes cenários, a saber: variância conhecida e desconhecida, e hipóteses nulas simples e compostas. Para hipóteses nulas simples, o s-valor coincide com o p-valor, e quando as hipóteses nulas são compostas, a relação entre o p-valor e o s-valor são complexas. No caso da variância conhecida, se a hipótese nula for uma semi-reta o p-valor é majorado pelo s-valor, se a hipótese é um intervalo fechado a diferença entre as duas medidas de evidência diminui conforme o comprimento do intervalo da hipótese testada. No caso de variância desconhecida e hipóteses nulas compostas, o s-valor é majorado pelo p-valor para valores pequenos do s-valor, por exemplo, quando o s-valor é menor do que 0.05.
2016
Eriton Barros dos Santos
Estratégias para o desenvolvimento de modelos de credit score com inferência de rejeitados.
Modelos de credit score são usualmente desenvolvidos somente com informações dos proponentes aceitos. Neste trabalho foram consideradas estratégias que podem ser utilizadas para o desenvolvimento de modelos de credit score com a inclusão das informações dos rejeitados. Foram avaliadas as seguintes técnicas de inferência de rejeitados: classificação dos rejeitados como clientes Maus, parcelamento, dados aumentados, uso de informações de mercado e ainda a estratégia de aceitar proponentes rejeitados para acompanhamento e desenvolvimento de novos modelos de risco de crédito. Para a avaliação e comparação dos modelos foram utilizadas as medidas de desempenho: estatística de Kolmogorov-Smirnov (KS), área sob a curva de Lorentz (ROC), área entre as curvas de distribuição acumulada dos escores (AEC), diferença entre as taxas de inadimplência nos intervalos do escore definidos pelos decis e coeficiente de Gini. Concluiu-se que dentre as quatro primeiras técnicas avaliadas, o uso de informaçõoes de mercado foi a que apresentou melhor desempenho. Quanto à estratégia de aceitar proponentes rejeitados, observou-se que há um ganho em relação ao modelo ajustado só com base nos proponentes aceitos.
Seleção bayesiana de variáveis em modelos multiníveis da teoria de resposta ao item com aplicações em genômica
As investigações sobre as bases genéticas de doenças complexas em Genômica utilizam diversos tipos de informação. Diversos sintomas são avaliados de maneira a diagnosticar a doença, os indivíduos apresentam padrões de agrupamento baseados, por exemplo no seu parentesco ou ambiente comum e uma quantidade imensa de características dos indivíduos são medidas por meio de marcadores genéticos. No presente trabalho, um modelo multiníveis da teoria de resposta ao item (TRI) é proposto de forma a integrar todas essas fontes de informação e caracterizar doenças complexas através de uma variável latente. Além disso, a quantidade de marcadores moleculares induz um problema de seleção de variáveis, para o qual uma seleção baseada nos métodos da busca estocástica e do LASSO bayesiano são propostos. Os parâmetros do modelo e a seleção de variáveis são realizados sob um paradigma bayesiano, no qual um algoritmo Monte Carlo via Cadeias de Markov é construído e implementado para a obtenção de amostras da distribuição a posteriori dos parâmetros. O mesmo é validado através de estudos de simulação, nos quais a capacidade de recuperação dos parâmetros, de escolha de variáveis e características das estimativas pontuais dos parâmetros são avaliadas em cenários similares aos dados reais. O processo de estimação apresenta uma recuperação satisfatória nos parâmetros estruturais do modelo e capacidade de selecionar covariáveis em espaços de dimensão elevada apesar de um viés considerável nas estimativas das variáveis latentes associadas ao traço latente e ao efeito aleatório. Os métodos desenvolvidos são então aplicados aos dados colhidos no estudo de associação familiar \'Corações de Baependi\', nos quais o modelo multiníveis se mostra capaz de caracterizar a síndrome metabólica, uma série de sintomas associados com o risco cardiovascular. O modelo multiníveis e a seleção de variáveis se mostram capazes de recuperar características conhecidas da doença e selecionar um marcador associado.
2014
Tiago de Miranda Fragoso
Modelos de regressão lineares mistos sob a classe de distribuições normal-potência
Neste trabalho são apresentadas algumas extensões dos modelos potência-alfa assumindo o contexto em que as observações estão censuradas ou limitadas. Inicialmente propomos um novo modelo assimétrico que estende os modelos t-assimétrico (Azzalini e Capitanio, 2003) e t-potência (Zhao e Kim, 2016) e inclui a distribuição t de Student como caso particular. Este novo modelo é capaz de ajustar dados com alto grau de assimetria e curtose, ainda maior do que os modelos t-assimétrico e t-potência. Em seguida estendemos o modelo t-potência às situações em que os dados apresentam censura, com alto grau de assimetria e caudas pesadas. Este modelo generaliza o modelo de regressão linear t de Student para dados censurados por Arellano-Valle et al. (2012). O trabalho também introduz o modelo linear misto normal-potência para dados assimétricos. Aqui a inferência estatística é realizada desde uma perspectiva clássica usando o método de máxima verossimilhança junto com o método de integração numérica de Gauss-Hermite para aproximar as integrais envolvidas na função de verossimilhança. Mais tarde, o modelo linear com interceptos aleatórios para dados duplamente censurados é estudado. Este modelo é desenvolvido sob a suposição de que os erros e os efeitos aleatórios seguem distribuições normal-potência e normal- assimétrica. Para todos os modelos estudados foram realizados estudos de simulação a fim de estudar as suas bondades de ajuste e limitações. Finalmente, ilustram-se todos os métodos propostos com dados reais.
2017
Roger Jesus Tovar Falon
Semi-parametric generalized log-gamma regression models
The central objective of this work is to develop statistical tools for semi-parametric regression models with generalized log-gamma errors under the presence of censored and uncensored observations. The estimates of the parameters are obtained through the multivariate version of Newton-Raphson algorithm and an adequate combination of Fisher Scoring and Backffitting algorithms. Through analytical tools and using simulations the properties of the penalized maximum likelihood estimators are studied. Some diagnostic techniques such as quantile and deviance-type residuals as well as local influence measures are derived. The methodologies are implemented in the statistical computational environment R. The package sglg is developed. Finally, we give some applications of the models to real data.
2017
Carlos Alberto Cardozo Delgado
Modelos longitudinais de grupos múltiplos multiníveis na teoria da resposta ao item: métodos de estimação e seleção estrutural sob uma perspectiva bayesiana
No presente trabalho propomos uma estrutura bayesiana, através de um esquema de dados aumentados, para analisar modelos longitudinais com grupos mútiplos (MLGMTRI) na Teoria da Resposta ao Item (TRI). Tal estrutura consiste na tríade : modelagem, métodos de estimação e métodos de diagnóstico para a classe de MLGMTRI. Na parte de modelagem, explorou-se as estruturas multivariada e multinível, com o intuito de representar a hierarquia existente em dados longitudinais com grupos múltiplos. Esta abordagem permite considerar várias classes de submodelos como: modelos de grupos múltiplos e modelos longitudinais de um único grupo. Estudamos alguns aspectos positivos e negativos de cada uma das supracitadas abordagens. A modelagem multivariada permite representar de forma direta estruturas de dependência, além de possibilitar que várias delas sejam facilmente incorporadas no processo de estimação. Isso permite considerar, por exemplo, uma matriz não estruturada e assim, obter indícios da forma mais apropriada para a estrutura de dependência. Por outro lado, a modelagem multinível propicia uma interpretação mais direta, obtenção de condicionais completas univariadas, fácil inclusão de informações adicionais, incorporação de fontes de dependência intra e entre unidades amostrais, dentre outras. Com relação aos métodos de estimação, desenvolvemos um procedimento baseado nas simulações de Monte Carlo via cadeias de Markov (MCMC). Mostramos que as distribuições condicionais completas possuem forma analítica conhecida e, além disso, são fáceis de se amostrar. Tal abordagem, apesar de demandar grande esforço computacional, contorna diversos problemas encontrados em outros procedimentos como: limitação no número de grupos envolvidos, quantidade de condições de avaliação, escolha de estruturas de dependência, assimetria dos traços latentes, imputação de dados, dentre outras. Além disso, através da metodologia MCMC, desenvolvemos uma estrutura de seleção de matrizes de covariâncias, através de um esquema de Monte Carlo via Cadeias de Markov de Saltos Reversíveis (RJMCMC). Estudos de simulação indicam que o modelo, o método de estimação e o método de seleção produzem resultados bastante satisfatórios. Também, robustez à escolha de prioris e valores iniciais foi observada. Os métodos de estimação desenvolvidos podem ser estendidos para diversas situações de interesse de um modo bem direto. Algumas das técnicas de diagnóstico estudadas permitem avaliar a qualidade do ajuste do modelo de um modo global. Outras medidas fornecem indícios de violação de suposições específicas, como ausência de normalidade para os traços latentes. Tal metodologia fornece meios concretos de se avaliar a qualidade do instrumento de medida (prova, questionário etc). Finalmente, a análise de um conjunto de dados real, utilizando-se alguns dos modelos abordados no presente trabalho, ilustra o potencial da tríade desenvolvida além de indicar um ganho na utilização dos modelos longitudinais da TRI na análise de ensaios educacionais com medidas repetidas em deterimento a suposição de independência.
2008
Caio Lucidius Naberezny Azevedo
Modelos mistos lineares elípticos com erros de medição
O objetivo principal deste trabalho é estudar modelos mistos lineares elípticos em que uma das variáveis explicativas ou covariáveis é medida com erros, sob a abordagem estrutural. O trabalho é apresentado numa notação longitudinal, todavia a covariável medida com erros pode ser observada temporalmente ou como medidas repetidas. Assumimos uma estrutura hierárquica apropriada com distribuição elíptica conjunta para os erros envolvidos, porém a inferência é desenvolvida sob uma abordagem marginal em que consideramos a distribuição marginal da resposta e da variável medida com erros. Procedimentos de influência local em que o esquema de perturbação é escolhido de forma apropriada são desenvolvidos. Um exemplo para motivação é apresentado e analisado através dos procedimentos apresentados neste trabalho. Detalhamos nos apêndices os principais procedimentos necessários para o desenvolvimento do modelo proposto.