Repositório RCAAP

Regressão binária bayesiana com o uso de variáveis auxiliares

A inferência Bayesiana está cada vez mais dependente de algoritmos de simulação estocástica, e sua eficiência está diretamente relacionada à eficiência do algoritmo considerado. Uma prática bastante utilizada é a introdução de variáveis auxiliares para obtenção de formas conhecidas para as distribuições {\\it a posteriori} condicionais completas, as quais facilitam a implementação do amostrador de Gibbs. No entanto, a introdução dessas variáveis pode produzir algoritmos onde os valores simulados são fortemente correlacionados, fato esse que prejudica a convergência. O agrupamento das quantidades desconhecidas em blocos, de tal maneira que seja viável a simulação conjunta destas quantidades, é uma alternativa para redução da autocorrelação, e portanto, ajuda a melhorar a eficiência do procedimento de simulação. Neste trabalho, apresentamos propostas de simulação em blocos no contexto de modelos de regressão binária com o uso de variáveis auxiliares. Três classes de funções de ligação são consideradas: probito, logito e probito-assimétrico. Para as duas primeiras apresentamos e implementamos as propostas de atualização conjunta feitas por Holmes e Held (2006). Para a ligação probito-assimétrico propomos quatro diferentes maneiras de construir os blocos, e comparamos estes algoritmos através de duas medidas de eficiência (distância média Euclidiana entre atualizações e tamanho efetivo da amostra). Concluímos que os algoritmos propostos são mais eficientes que o convencional (sem blocos), sendo que um deles proporcionou ganho superior a 160\\% no tamanho efetivo da amostra. Além disso, discutimos uma etapa bastante importante da modelagem, denominada análise de resíduos. Nesta parte adaptamos e implementamos os resíduos propostos para a ligação probito para os modelos logístico e probito-assimétrico. Finalmente, utilizamos os resíduos propostos para verificar a presença de observações discrepantes em um conjunto de dados simulados.

Ano

2007

Creators

Rafael Braz Azevedo Farias

Modelando o efeito da omissão de atributos em um estudo de análise de preferência conjunta

A Análise de Preferência Conjunta (APC) é uma metodologia estatística bastante utilizada em estudos de comportamento do consumidor e do mercado em geral. Ela possibilita a realização de estudos sobre julgamentos individuais, tais como a aceita-bilidade e preferência por um determinado produto no momento da sua aquisição (ver Artes, 1991 e Friedmann, 1998). Em um estudo de preferência conjunta, são apresentadas configurações hipotéticas de um mesmo produto, que devem ser avaliadas segundo a preferência do respondente. O julgamento de um estímulo é denominado de valor de preferência que nada mais é do que a quantificação da preferência do indivíduo por um estímulo. Quanto maior o número de atributos e níveis utilizados na caracterização de um produto, mais real será sua descrição. No entanto, a complexidade dos estímulos e o número de configurações possíveis aumenta exponencialmente a cada novo atributo ou nível acrescentado, podendo comprometer a qualidade dos resultados de uma pesquisa. Este problema é contornado através da utilização de estímulos gerados através de planejamentos fracionários combinado na omissão de um ou mais atributos nos diferentes estímulos, conhecidos como perfis incompletos. Neste trabalho, pretende-se testar o efeito da ausência de atributos na classificação de estímulos e diferentes formas de imputação da informação faltante em uma aplicação sobre o efeito de características do emprego na satisfação do funcionário.

Modelo bayesiano para dados de sobrevivência com riscos semicompetitivos baseado em cópulas

Motivados por um conjunto de dados de pacientes com insuficiência renal crônica (IRC), propomos uma nova modelagem bayesiana que envolve cópulas da família Arquimediana e um modelo misto para dados de sobrevivência com riscos semicompetitivos. A estrutura de riscos semicompetitivos é bastante comum em estudos clínicos em que dois eventos são de interesse, um intermediário e outro terminal, de forma tal que a ocorrência do evento terminal impede a ocorrência do intermediário mas não vice-versa. Nesta modelagem provamos que a distribuição a posteriori sob a cópula de Clayton é própria. Implementamos os algoritmos de dados aumentados e amostrador de Gibbs para a inferência bayesiana, assim como os criterios de comparação de modelos: LPML, DIC e BIC. Realizamos um estudo de simulação para avaliar o desempenho da modelagem e finalmente aplicamos a metodologia proposta para analisar os dados dos pacientes com IRC, além de outros de pacientes que receberam transplante de medula óssea.

Ano

2018

Creators

Elizabeth González Patiño

Critérios de informação e seleção de modelos lineares mistos

O modelo linear misto é amplamente utilizado na análise de medidas repetidas e de dados longitudinais, e compreende duas abordagens. A primeira é apropriada quando estamos interessados em parâmetros populacionais (efeitos fixos) e a segunda é indicada quando os coeficientes individuais (efeitos aleatórios) são de interesse. A seleção de modelos mistos, quando realizada por meio de critérios de informação, leva em conta estas diferenças de abordagem: o Critério de Informação de Akaike (AIC) marginal baseia-se na log-verossimilhança marginal, e o Critério de Informação de Schwarz (BIC) é similar ao critério anterior, mas também inclui o número total de observações. O AIC condicional baseia-se na log-verossimilhança condicional aos efeitos aleatórios. Realizamos um estudo de simulação para observar o comportamento destes critérios frente a diversos cenários, concluindo que o AIC (marginal ou condicional) e o BIC apresentaram frequência de seleção do modelo correto elevada mesmo para tamanho amostral reduzido (n = 10), desde que a quantidade de observações por indivíduo seja elevada (m 13). Além disso, quanto mais correlacionados os dados, são necessários tanto tamanho amostral quanto número de observações por indivíduo maiores (n 30 e m 16, respectivamente) para detecção do modelo correto. Consideramos dois exemplos em que ilustramos a aplicação do AIC marginal e do AIC condicional. Mostramos que a seleção de modelos por intermédio dos critérios AIC e BIC é compatível com a análise de resíduos associada.

Ano

2020

Creators

Rodrigo Marques da Cruz

Modelos black-litterman e GARCH ortogonal para uma carteira de títulos do tesouro nacional

Uma grande dificuldade da gestão financeira é conseguir associar métodos quantitativos às formas tradicionais de gestão, em um único arranjo. O estilo tradicional de gestão tende a não crer, na devida medida, que métodos quantitativos sejam capazes de captar toda sua visão e experiência, ao passo que analistas quantitativos tendem a subestimar a importância do enfoque tradicional, gerando flagrante desarmonia e ineficiência na análise de risco. Um modelo que se propõe a diminuir a distância entre essas visões é o modelo Black-Litterman. Mais especificamente, propõe-se a diminuir os problemas enfrentados na aplicação da teoria moderna de carteiras e, em particular, os decorrentes da aplicação do modelo de Markowitz. O modelo de Markowitz constitui a base da teoria de carteiras há mais de meio século, desde a publicação do artigo Portfolio Selection [Mar52], entretanto, apesar do papel de destaque da abordagem média-variância para o meio acadêmico, várias dificuldades aparecem quando se tenta utilizá-lo na prática, e talvez, por esta razão, seu impacto no mundo dos investimentos tem sido bastante limitado. Apesar das desvantagens na utilização do modelo de média-variância de Markowitz, a idéia de maximizar o retorno, para um dado nível de risco é tão atraente para investidores, que a busca por modelos com melhor comportamento continuou e é neste contexto que o modelo Black-Litterman surgiu. Em 1992, Fischer Black e Robert Litterman publicam o artigo Portfolio Optimization [Bla92], fazendo considerações sobre o papel de pouco destaque da alocação quantitativa de ativos, e lançam o modelo conhecido por Black-Litterman. Uma grande diferença entre o modelo Black-Litterman e um modelo média-variância tradicional é que, enquanto o segundo gera pesos em uma carteira a partir de um processo de otimização, o modelo Black-Litterman parte de uma carteira de mercado em equilíbrio de longo prazo (CAPM). Outro ponto de destaque do modelo é ser capaz de fornecer uma maneira clara para que investidores possam expressar suas visões de curto prazo e, mais importante, fornece uma estrutura para combinar de forma consistente a informação do equilíbrio de longo prazo (priori) com a visão do investidor (curto prazo), gerando um conjunto de retornos esperados, a partir do qual os pesos em cada ativo são fornecidos. Para a escolha do método de estimação dos parâmetros, levou-se em consideração o fato de que matrizes de grande dimensão têm um papel importante na avaliação de investimentos, uma vez que o risco de uma carteira é fundamentalmente determinado pela matriz de covariância de seus ativos. Levou-se também em consideração que seria desejável utilizar um modelo flexível ao aumento do número de ativos. Um modelo capaz de cumprir este papel é o GARCH ortogonal, pois este pode gerar matrizes de covariâncias do modelo original a partir de algumas poucas volatilidades univariadas, sendo, portanto, um método computacionalmente bastante simples. De fato, as variâncias e correlações são transformações de duas ou três variâncias de fatores ortogonais obtidas pela estimação GARCH. Os fatores ortogonais são obtidos por componentes principais. A decomposição da variância do sistema em fatores de risco permite quantificar a variabilidade que cada fator de risco traz, o que é de grande relevância, pois o gestor de risco poderá direcionar mais facilmente sua atenção para os fatores mais relevantes. Ressalta-se também que a ideia central da ortogonalização é utilizar um espaço reduzido de componentes. Neste modelo de dimensão reduzida, suficientes fatores de risco serão considerados, assim, os demais movimentos, ou seja, aqueles não capturados por estes fatores, serão considerados ruídos insignificantes para este sistema. Não obstante, a precisão, ao desconsiderar algumas componentes, irá depender de o número de componentes principais ser suficiente para explicar grande parte da variação do sistema. Logo, o método funcionará melhor quando a análise de componentes principais funcionar melhor, ou seja, em estruturas a termo e outros sistemas altamente correlacionados. Cabe mencionar que o GARCH ortogonal continua igualmente útil e viável quando pretende-se gerar matriz de covariâncias de fatores de risco distintos, isto é, tanto dos altamente correlacionados, quanto daqueles pouco correlacionados. Neste caso, basta realizar a análise de componentes principais em grupos correlacionados. Feito isto, obtêm-se as matrizes de covariâncias utilizando a estimação GARCH. Em seguida faz-se a combinação de todas as matrizes de covariâncias, gerando a matriz de covariâncias do sistema original. A estimação GARCH foi escolhida pois esta é capaz de captar os principais fatos estilizados que caracterizam séries temporais financeiras. Entende-se por fatos estilizados padrões estatísticos observados empiricamente, que, acredita-se serem comuns a um grande número de séries temporais. Séries financeiras com suficiente alta frequência (observações intraday e diárias) costumam apresentar tais características. Este modelo foi utilizado para a estimação dos retornos e, com isso, obtivemos todas as estimativas para que, com o modelo B-L, pudéssemos gerar uma carteira ótima em um instante de tempo inicial. Em seguida, faremos previsões, obtendo carteiras para as semanas seguintes. Por fim, mostraremos que a associação do modelo B-L e da estimação GARCH ortogonal pode gerar resultados bastante satisfatórios e, ao mesmo tempo, manter o modelo simples e gerar resultados coerentes com a intuição. Este estudo se dará sobre retornos de títulos de renda fixa, mais especificamente, títulos emitidos pelo Tesouro Nacional no mercado brasileiro. Tanto a escolha do modelo B-L, quanto a escolha por utilizar uma carteira de títulos emitidos pelo Tesouro Nacional tiveram como motivação o objetivo de aproximar ferramentas estatísticas de aplicações em finanças, em particular, títulos públicos federais emitidos em mercado, que têm se tornado cada vez mais familiares aos investidores pessoas físicas, sobretudo através do programa Tesouro Direto. Ao fazê-lo, espera-se que este estudo traga informações úteis tanto para investidores, quanto para gestores de dívida, uma vez que o modelo média-variância presta-se tanto àqueles que adquirem títulos, buscando, portanto, maximizar retorno para um dado nível de risco, quanto para aqueles que emitem títulos, e que, portanto, buscam reduzir seus custos de emissão a níveis prudenciais de risco.

Ano

2012

Creators

Roberto Beier Lobarinhas

Análise de variância utilizando ondaletas

Análise de Variância no contexto de séries temporais possui a inconveniência da presença de correlação entre as observações. Nessa dissertação, foram estudados métodos de análise de sinais, mais precisamente análise de Fourier e análise de ondaletas (Wavelets), que são ferramentas capazes de transformar o sinal original em uma nova entidade matemática descorrelacionada que possui domínio diferente do original, possibilitando a aplicação da análise de variância sem violar a hipótese de independência dessa metodologia. A diferença mais relevante entre as técnicas é que a análise de Fourier é própria para sinais estacionários, enquanto a análise de ondaletas é robusta a sinais não estacionários pelo fato de sua transformada possuir aspecto local. Na comparação dos resultados por meio de dados simulados, ambas as técnicas convergiram para um mesmo resultado. Para aplicação em dados, reais foram utilizadas medidas de Pico de Fluxo Expiratório (PFE) ao longo do tempo de crianças e adolescentes com condição asmática, ou não, e expostas ao fumo domiciliar, ou não. Na aplicação da ANOVA dois fatores, ambas as metodologias convergiram no teste de interação, mas ocorreram algumas divergências nos testes dos fatores isoladamente.

Ano

2020

Creators

Deyvid Toledo Santiago de Almeida

Testes de hipóteses para componentes de variância utilizando estatísticas U

Nós consideramos decomposições de estatísticas $U$ para obter testes para componentes de variância. As distribuições assintóticas das estatísticas de testes sob a hipótese nula são obtidas supondo apenas a existência do quarto momento do erro condicional e do segundo momento dos efeitos aleatórios. Isso permite sua utilização em uma classe bastante ampla de distribuições. Sob a suposição adicional de existência do quarto momento dos efeitos aleatórios, obtemos também a distribuição assintótica das estatísticas sob uma seqüência de hipóteses alternativas locais. Comparamos a eficiência dos testes propostos com aqueles dos testes clássicos, obtidos sob suposição de normalidade, por meio de estudos de simu-lação. Os testes propostos se mostram mais adequados nas situações em que a amostra é de tamanho moderado ou grande, independentemente da distribuição das fontes de variação, e nas situações em que existe fortes afastamentos da normalidade.

Ano

2007

Creators

Juvencio Santos Nobre

Modelagem para dados de sobrevivência com censura dependente: aplicação para análise do tempo de sobrevivência ajustado pela qualidade de vida

O Tempo de Sobrevivência Ajustado pela Qualidade de Vida (TSAQV) tem sido bastante utilizado em análise de dados na área médica. A motivação deste trabalho está em um estudo de coorte prospectivo nas UTIs de dois hospitais públicos brasileiros especializados em tratamento oncológico, Instituto do Câncer Dr. Octávio Frias de Oliveira (ICESP) e Fundação Pio XII Hospital do Câncer de Barretos. Um total de 792 pacientes foram selecionados como participantes do estudo e esses foram acompanhados até óbito ou final do estudo em 24 meses, sendo que o objetivo principal do estudo é avaliar o TSAQV desses pacientes. Entretanto, a dificuldade que surge na análise estatística de dados ao utilizar o TSAQV como desfecho é que a censura passa a ser informativa quando o tempo de sobrevivência é ponderado pela qualidade de vida. Dessa forma, metodologias usuais de análise de sobrevivência são inconsistentes e métodos estatísticos apropriados para a análise do TSAQV precisam ser utilizados. Para tanto, foram estudados e aplicados métodos de estimação com modelos de taxa de falhas proporcionais sob censura dependente usando função de cópula. Foi realizado um extenso estudo de simulação para avaliar a performance dos métodos de estimação em diferentes cenários de simulação. A aplicação dos modelos para dados com presença de censura dependente foi satisfatória, embora persistam algumas dificuldades como o problema de não identificabilidade do parâmetro alfa da cópula arquimediana. Entretanto, a alternativa usando o índice CV(tau) mostrou-se uma metodologia confiável para descartar a premissa de censura independente.

Ano

2020

Creators

Fernando Henrique Sousa Barreto

Ising and Potts model coupled to Lorentzian triangulations

The main objective of the present thesis is to investigate: What are the properties of the Ising and Potts model coupled to a CDT emsemble? For that objective, we used two methods: (1) transfer matrix formalism and Krein-Rutman theory. (2) FK representation of the q -state Potts model on CDTs and dual CDTs. Transfer matrix formalism permite us to obtain spectral properties of the transfer matrix using the Krein-Rutman theorem [KR48] on operators preserving the cone of positive func- tions. This yields results on convergence and asymptotic properties of the partition function and the Gibbs measure and allows us to determine regions in the parameter quarter-plane where the free energy converges. Second methods permite us to determine a region in the quadrant of parameters , > 0 where the critical curve for the classical model can be located. We also provide lower and upper bounds for the innite-volume free energy. Finally, using arguments of duality on graph theory and hight-T expansion we study the Potts model coupled to CDTs. This approach permite us to improve the results obtained for Ising model and obtain lower and upper bounds for the critical curve and free energy. Moreover, we obtain an approximation of the maximal eigenvalue of the transfer matrix at lower temperature.

Ano

2014

Creators

José Javier Cerda Hernández

Comparative evaluation of network reconstruction methods in high dimensional settings

In the past years, several network reconstruction methods modeled as Gaussian Graphical Model in high dimensional settings where proposed. In this work we will analyze three different methods, the Graphical Lasso (GLasso), Graphical Ridge (GGMridge) and a novel method called LPC, or Local Partial Correlation. The evaluation will be performed in high dimensional data generated from different simulated random graph structures (Erdos-Renyi, Barabasi-Albert, Watts-Strogatz ), using Receiver Operating Characteristic or ROC curve. We will also apply the methods in the reconstruction of genetic co-expression network for the differentially expressed genes in cervical cancer tumors.

Ano

2017

Creators

Henrique Bolfarine

Um modelo de evolução de espécies com extinções em massa

Apresentamos um modelo estocástico para evolução de espécies utilizando processos de Poisson. Eventos de surgimento de novas espécies e eventos de extinção são dados por dois processos de Poisson independentes. A cada evento de surgimento, uma nova espécie é adicionada ao sistema e uma aptidão aleatória é associada a ela. À cada evento de extinção, é associado um limiar também aleatório e todas as espécies com aptidão inferior ao limiar são retiradas do sistema. Apresentamos critérios necessários e suficientes para recorrência/transitoriedade da configuração vazia. Mostramos a existência da distribuição limite e apresentamos critérios necessários e suficientes para um número in/finito de espécies em tal distribuição.

Ano

2018

Creators

Fabio Sternieri Marques

Convergência de modelos de armadilhas no hipercubo

Derivamos resultados para o Modelo de Armadilhas de Bouchaud no hipercubo a baixa temperatura. Este é um passeio aleatório simples simétrico em tempo contínuo que espera um tempo exponencial com taxa aleatória com distribuição no domínio de atração de uma lei estável de expoente menor do que 1. Os resultados recaem sobre o processo limite chamado K-processo, basicamente, um processo markoviano em um espaço de estados enumerável que entra em qualquer conjunto finito com distribuição uniforme.

Ano

2007

Creators

Paulo Henrique de Souza Lima

Técnicas de diagnóstico para modelos lineares generalizados com medidas repetidas

A literatura dispõe de métodos de diagnóstico para avaliar o ajuste de modelos lineares generalizados (MLGs) para medidas repetidas baseado em equações de estimação generalizada (EEG). No entanto, tais métodos não contemplam a distribuição binomial nem bancos de dados com observações faltantes. O presente trabalho generalizou os métodos já desenvolvidos para essas duas situações. Na construção de gráficos de probabilidade meio-normal com envelope simulado para a distribuição binomial, foi proposto um método para geração de variáveis aleatórias com distribuição marginal binomial correlacionadas, baseado na convolução de variáveis com distribuição de Poisson independentes. Os métodos de diagnóstico desenvolvidos foram aplicados em dados reais e simulados.

Ano

2012

Creators

Lucas Petri Damiani

Modelos elípticos multiníveis

Os modelos multiníveis representam uma classe de modelos utilizada para ajustes de dados que apresentam estrutura de hierarquia. O presente trabalho propõe uma generalizacão dos modelos normais multiníveis, denominada modelos elípticos multiníveis. Esta proposta sugere o uso de distribuicões de probabilidade pertencentes à classe elíptica, envolvendo portanto todas as distribuições contínuas simétricas, incluindo a distribuição normal como caso particular. As distribuições elípticas podem apresentar caudas mais leves ou mais pesadas que as caudas da distribuição normal. No caso da presença de observações aberrantes, é sugerido o uso de distribuições com caudas pesadas no intuito de obter um melhor ajuste do modelo aos dados considerados discrepantes. Nesta dissertação, alguns aspectos dos modelos elípticos multiníveis são desenvolvidos, como o processo de estimação dos parâmetros via máxima verossimilhança, testes de hipóteses para os efeitos fixos e parâmetros de variância e covariância e análise de resíduos para verificação de características relacionadas aos ajustes e às suposições estabelecidas.

Ano

2011

Creators

Roberto Ferreira Manghi

Passeios aleatórios estáveis em Z com taxas não-homogêneas e os processos quase-estáveis

Seja $\\mathcal X=\\{\\mathcal X_t:\\, t\\geq0,\\, \\mathcal X_0=0\\}$ um passeio aleatório $\\beta$-estável em $\\mathbb Z$ com média zero e com taxas de saltos não-homogêneas $\\{\\tau_i^: i\\in\\mathbb Z\\}$, com $\\beta\\in(1,2]$ e $\\{\\tau_i: i\\in\\mathbb Z\\}$ sendo uma família de variáveis aleatórias independentes com distribuição marginal comum na bacia de atração de uma lei $\\alpha$-estável, com $\\alpha\\in(0,2]$. Nesta tese, obtemos resultados sobre o comportamento do processo $\\mathcal X_t$ para tempos longos, em particular, obtemos seu limite de escala. Quando $\\alpha\\in(0,1)$, o limite de escala é um processo $\\beta$-estável mudado de tempo pela inversa de um outro processo, o qual envolve o tempo local do processo $\\beta$-estável e um independente subordinador $\\alpha$-estável; chamamos o processo resultante de processo quase-estável. Para o caso $\\alpha\\in[1,2]$, o limite de escala é um ordinário processo $\\beta$-estável. Para $\\beta=2$ e $\\alpha\\in(0,1)$, o limite de escala é uma quase-difusão com medida de velocidade aleatória estudada por Fontes, Isopi e Newman (2002). Outros resultados sobre o comportamento de $\\mathcal X$ para tempos longos são envelhecimento e localização. Nós obtemos resultados de envelhecimento integrado e não-integrado para $\\mathcal X$ quando $\\alpha\\in(0,1)$. Relacionado à esses resultados, e possivelmente de interesse independente, consideramos o processo de armadilha definido por $\\{\\tau_{\\mathcal X_t}: t\\geq0\\}$, e obtemos seu limite de escala. Concluímos a tese com resultados sobre localização de $\\mathcal X$. Mostramos que ele pode ser localizado quando $\\alpha\\in(0,1)$, e que não pode ser localizado quando $\\alpha\\in(1,2]$, assim estendendo os resultados de Fontes, Isopi e Newman (1999) para o caso de passeios simples simétricos.

Ano

2012

Creators

Wagner Barreto de Souza

Estimação em modelos funcionais com erro normais e repetições não balanceadas

Esta dissertação compreende um estudo da eficiência de estimadores dos parâmetros no modelo funcional com erro nas variáveis, com repetições para contornar o problema de falta de identificação. Nela, discute-se os procedimentos baseados nos métodos de máxima verossimilhança e escore corrigido. As estimativas obtidas pelos dois métodos levam a resultados similares.

Ano

2008

Creators

Joan Neylo da Cruz Rodriguez

Passeio aleatório unidimensional com ramificação em um meio aleatório K-periódico

Neste trabalho estudamos um passeio aleatório, unidimensional com ramificação em Z+ em um meio aleatório não identicamente distribuído. Definimos recorrência e transiência para este processo e apresentamos um critério de classificação.

Ano

2001

Creators

Josué Macario de Figueirêdo Rocha

Superdispersão em dados binomiais hierárquicos

Para analisar dados binários oriundos de uma estrutura hierárquica com dois níveis (por exemplo, aluno e escola), uma alternativa bastante utilizada é a suposição da distribuição binomial para as unidades experimentais do primeiro nível (aluno) condicionalmente a um efeito aleatório proveniente de uma distribuição normal para as unidades do segundo nível (escola). Neste trabalho, propõe-se a adição de um efeito aleatório normal no primeiro nível de um modelo linear generalizado hierárquico binomial para contemplar uma possível variabilidade extra-binomial decorrente da dependência entre os ensaios de Bernoulli de um mesmo indivíduo. Obtém-se o processo de estimação por máxima verossimilhança para este modelo a partir da verossimilhança marginal dos dados, após uma dupla aplicação do método de quadratura de Gauss-Hermite adaptativa como aproximação para as integrais dos efeitos aleatórios. Realiza-se um estudo de simulação para contrastar propriedades inferenciais do modelo aspirante com o modelo linear generalizado binomial, um modelo de quase-verossimilhança e o tradicional modelo linear generalizado hierárquico em dois níveis.

Modelos baseados no planejamento para análise de populações finitas

Estudamos o problema de obtenção de estimadores/preditores ótimos para combinações lineares de respostas coletadas de uma população finita por meio de amostragem aleatória simples. Nesse contexto, estendemos o modelo misto para populações finitas proposto por Stanek, Singer & Lencina (2004, Journal of Statistical Planning and Inference) para casos em que se incluem erros de medida (endógenos e exógenos) e informação auxiliar. Admitindo que as variâncias são conhecidas, mostramos que os estimadores/preditores propostos têm erro quadrático médio menor dentro da classe dos estimadores lineares não viciados. Por meio de estudos de simulação, comparamos o desempenho desses estimadores/preditores empíricos, i.e., obtidos com a substituição das componentes de variância por estimativas, com aquele de competidores tradicionais. Também, estendemos esses modelos para análise de estudos com estrutura do tipo pré-teste/pós-teste. Também por intermédio de simulação, comparamos o desempenho dos estimadores empíricos com o desempenho do estimador obtido por meio de técnicas clássicas de análise de medidas repetidas e com o desempenho do estimador obtido via análise de covariância por meio de mínimos quadrados, concluindo que os estimadores/ preditores empíricos apresentaram um menor erro quadrático médio e menor vício. Em geral, sugerimos o emprego dos estimadores/preditores empíricos propostos para dados com distribuição assimétrica ou amostras pequenas.

Ano

2008

Creators

Luz Mery González Garcia

Contribuições à análise de outliers em modelos de equações estruturais

O Modelo de Equações Estruturais (MEE) é habitualmente ajustado para realizar uma análise confirmatória sobre as conjecturas de um pesquisador acerca do relacionamento entre as variáveis observadas e latentes de algum estudo. Na prática, a maneira mais recorrente de avaliar a qualidade das estimativas de um MEE é a partir de medidas que buscam mensurar o quanto a usual matriz de covariâncias clássicas ou ordinárias se distancia da matriz de covariâncias do modelo ajustado, ou a magnitude do afastamento entre as funções de discrepância do modelo hipotético e do modelo saturado. Entretanto, elas podem não captar problemas no ajuste quando há muitos parâmetros a estimar ou bastantes observações. A fim de detectar irregularidades no ajustamento resultantes do impacto provocado pela presença de outliers no conjunto de dados, este trabalho contemplou alguns indicadores conhecidos na literatura, como também considerou alterações no Índice da Qualidade do Ajuste (ou GFI, de Goodness-of-Fit Index) e no Índice Corrigido da Qualidade do Ajuste (ou AGFI, de Ajusted Goodness-of-Fit Index), ambos nas expressões para estimação de parâmetros pelo método de Máxima Verossimilhança, que consistiram em substituir a tradicional matriz de covariâncias pelas matrizes de covariâncias computadas com os seguintes estimadores: Elipsoide de Volume Mínimo, Covariância de Determinante Mínimo, S, MM e Gnanadesikan-Kettenring Ortogonalizado (GKO). Através de estudos de simulação sobre perturbações de desvio de simetria e excesso de curtose, em baixa e alta frações de contaminação, em diferentes tamanhos de amostra e quantidades de variáveis observadas afetadas, foi possível constatar que as propostas de modificação do GFI e do AGFI adaptadas pelo estimador GKO foram as únicas que conseguiram ser informativas em todas essas situações, devendo-se escolher a primeira ou a segunda respectivamente quando a quantidade de parâmetros a serem estimados é baixa ou elevada.

Ano

2013

Creators

Rodrigo de Souza Bulhões