RCAAP Repository
Vida residual em pacientes com insuficiência cardíaca: uma abordagem semiparamétrica
Usualmente a análise de sobrevivência considera a modelagem da função da taxa de falha ou função de risco. Uma alternativa a essa visão é estudar a vida residual, que em alguns casos é mais intuitiva do que a função de risco. A vida residual é o tempo de sobrevida adicional de um indivíduo que sobreviveu até um dado instante t0. Este trabalho descreve técnicas semiparamétricas e não paramétricas para estimar a média e a mediana de vida residual em uma população, testes para igualdade dessas medidas em duas populações e também modelos de regressão. Tais técnicas já foram testadas anteriormente em dados com baixa presença de censura; aqui elas são aplicadas a um conjunto de dados de pacientes com insuficiência cardíaca que possui uma alta quantidade de observações censuradas.
2022-12-06T14:52:58Z
Victor Gonçalves Duarte
Modelos de regressão beta e simplex para análise de proporções
Diversos estudos compreendem a análise de variáveis definidas no intervalo (0, 1), como porcentagens ou proporções. Os modelos mais adequados são os de regressão baseados nas distribuições beta e simplex. Neste trabalho, apresentamos o modelo de regressão beta proposto por Ferrari & Cribari-Neto (2004) e desenvolvemos o modelo de regressão simplex. Definimos um resíduo para o modelo de regressão simplex, muito útil na análise de diagnóstico, a partir do trabalho de Espinheira, Ferrari & Cribari-Neto (2008). Apresentamos uma forma geral para algumas medidas de diagnóstico, que podem ser aplicadas para os dois modelos. Avaliamos os modelos de regressão beta e simplex por meio de duas aplicações a dados reais, utilizando essas medidas.
2022-12-06T14:52:58Z
Eliane Shizue Miyashiro
Estimação e teste de hipótese baseados em verossimilhanças perfiladas
Tratar a função de verossimilhança perfilada como uma verossimilhança genuína pode levar a alguns problemas, como, por exemplo, inconsistência e ineficiência dos estimadores de máxima verossimilhança. Outro problema comum refere-se à aproximação usual da distribuição da estatística da razão de verossimilhanças pela distribuição qui-quadrado, que, dependendo da quantidade de parâmetros de perturbação, pode ser muito pobre. Desta forma, torna-se importante obter ajustes para tal função. Vários pesquisadores, incluindo Barndorff-Nielsen (1983,1994), Cox e Reid (1987,1992), McCullagh e Tibshirani (1990) e Stern (1997), propuseram modificações à função de verossimilhança perfilada. Tais ajustes consistem na incorporação de um termo à verossimilhança perfilada anteriormente à estimação e têm o efeito de diminuir os vieses da função escore e da informação. Este trabalho faz uma revisão desses ajustes e das aproximações para o ajuste de Barndorff-Nielsen (1983,1994) descritas em Severini (2000a). São apresentadas suas derivações, bem como suas propriedades. Para ilustrar suas aplicações, são derivados tais ajustes no contexto da família exponencial biparamétrica. Resultados de simulações de Monte Carlo são apresentados a fim de avaliar os desempenhos dos estimadores de máxima verossimilhança e dos testes da razão de verossimilhanças baseados em tais funções. Também são apresentadas aplicações dessas funções de verossimilhança em modelos não pertencentes à família exponencial biparamétrica, mais precisamente, na família de distribuições GA0(alfa,gama,L), usada para modelar dados de imagens de radar, e no modelo de Weibull, muito usado em aplicações da área da engenharia denominada confiabilidade, considerando dados completos e censurados. Aqui também foram obtidos resultados numéricos a fim de avaliar a qualidade dos ajustes sobre a verossimilhança perfilada, analogamente às simulações realizadas para a família exponencial biparamétrica. Vale mencionar que, no caso da família de distribuições GA0(alfa,gama,L), foi avaliada a aproximação da distribuição da estatística da razão de verossimilhanças sinalizada pela distribuição normal padrão. Além disso, no caso do modelo de Weibull, vale destacar que foram derivados resultados distribucionais relativos aos estimadores de máxima verossimilhança e às estatísticas da razão de verossimilhanças para dados completos e censurados, apresentados em apêndice.
2022-12-06T14:52:58Z
Michel Ferreira da Silva
Amostragem intencional
Neste trabalho apresentamos o método de amostragem intencional via otimização. Tal método baseia-se na fundamentação de que devemos controlar a seleção amostral sempre que houver conhecimento suficiente para garantir boas inferências de quantidades conhecidas e de alguma forma correlacionadas com aquelas desconhecidas e de interesse. Para a resolução dos problemas de otimização foram utilizadas técnicas de programação linear. Três aplicações foram apresentadas e em todas elas notou-se que o procedimento de amostragem intencional produziu amostras com bom balanceamento entre as composições amostrais e de referência.
2022-12-06T14:52:58Z
Catia Yumi Nagae
Adaptive significance levels in linear regression models
The Full Bayesian Significance Test (FBST) for precise hypotheses is presented by Pereira and Stern (1999) as a Bayesian alternative to the traditional significance tests based on p-values. With the FBST the authors introduce the e-value as an evidence index in favor of the null hypothesis (H). An important practical issue for the implementation of the FBST is to establish how small the evidence against H must be in order to decide for its rejection. In this work we present a method to find a cutoff value for the evidence in the FBST by minimizing the linear combination of the averaged type-I and type-II error probabilities for a given sample size and also for a given dimensionality of the parameter space. Furthermore, we compare our methodology with the results obtained from the test proposed by Pereira et al. (2017) and Gannon et al. (2019) which presents the P-value as a decision-making evidence measure and includes an adaptive significance level. For that purpose, the scenario of linear regression models under the Bayesian approach is considered.
2022-12-06T14:52:58Z
Alejandra Estefanía Patiño Hoyos
Avaliação de propostas de coeficientes de determinação do tipo R² em modelos de regressão logística com resposta nominal
Ao contrário de modelos de regressão linear múltipla, em que o coeficiente de determinação R² representa uma forma intituiva de avaliar a proporção de variabilidade da resposta que é devidamente explicada por meio das variáveis independentes, não existe uma forma bem estabelecida de se mensurar a variabilidade explicada em modelos de regressão logística. Diversas proposições já foram realizadas em trabalhos anteriores, especialmente para casos em que existe uma escala contínua latente associada à variável resposta. Entretanto, não há consenso sobre a melhor alternativa para respostas de natureza nominal. Este trabalho teve como objetivo revisar 12 propostas de coeficientes de determinação do tipo R² que já foram discutidas em trabalhos anteriores, a fim de avaliar a sua adequabilidade para modelos de regressão logística com resposta nominal. Foi conduzido um estudo de simulação, que apontou que os dois coeficientes apresentados por McFadden (1974) - um para a regressão simples, e outro corrigido, para a regressão múltipla - são os mais apropriados entre todas as alternativas analisadas, levando em conta a sua interpretação intuitiva; variabilidade no intervalo razoável de valores de 0 a 1; e maior conformidade com o índice de sobreposição (Bura e Gastwirth, 2001) e com medidas de acurácia preditiva, tais como o KS (Hand, 2012) e a área abaixo da curva ROC - ou, equivalentemente, o índice de Gini.
2022-12-06T14:52:58Z
Angelo de Souza Chiode
Modelos multiníveis Weibull com efeitos aleatórios
Os modelos multiníveis são uma classe de modelos úteis na análise de bases de dados com estrutura hierárquica. No presente trabalho propõem-se os modelos multiníveis com resposta Weibull, nos quais são considerados interceptos aleatórios na modelagem dos dois parâmetros da distribuição da variável resposta. Os modelos aqui propostos são flexíveis devido a que a distribuição dos interceptos aleatórios pode der escolhida entre uma das seguintes quatro distribuições: normal, log--gama, logística e Cauchy. Uma extensão dos modelos é apresentada na qual é possível incluir na parte sistemática dos dois parâmetros da distribuição da variável resposta interceptos e inclinações aleatórias com distribuição normal bivariada. A estimação dos parâmetros é realizada pelo método de máxima verossimilhança usando a quadratura de Gauss--Hermite para aproximar a função de verossimilhança. Um pacote em linguagem R foi desenvolvido especialmente para a estimação dos parâmetros, predição dos efeitos aleatórios e para a obtenção dos resíduos nos modelos propostos. Adicionalmente, por meio de um estudo de simulação foi avaliado o impacto nas estimativas dos parâmetros do modelo ao assumir incorretamente a distribuição dos interceptos aleatórios.
2022-12-06T14:52:58Z
Freddy Hernandez Barajas
"Modelos lineares generalizados para análise de dados com medidas repetidas"
Neste trabalho, apresentamos as equações de estimação generalizadas desenvolvidas por Liang e Zeger (1986), sob a ótica da teoria de funções de estimação apresentada por Godambe (1991). Essas equações de estimação são obtidas para os modelos lineares generalizados (MLGs) considerando medidas repetidas. Apresentamos também um processo iterativo para estimação dos parâmetros de regressão, assim como testes de hipóteses para esses parâmetros. Para a análise de resíduos, generalizamos para dados com medidas repetidas algumas técnicas de diagnóstico usuais em MLGs. O gráfico de probabilidade meio-normal com envelope simulado é uma proposta para avaliarmos a adequação do ajuste do modelo. Para a construção desse gráfico, simulamos respostas correlacionadas por meio de algoritmos que descrevemos neste trabalho. Por fim, realizamos aplicações a conjuntos de dados reais.
2022-12-06T14:52:58Z
Maria Kelly Venezuela
A lei fraca de Feller para jogos de São Petersburgo
Quase três séculos já se passaram desde que a primeira versão do chamado paradoxo de São Petersburgo chegou aos meios acadêmicos através do trabalho de Daniel Bernoulli. Contudo, a relevância desse assunto ainda reverbera em artigos científicos atuais em diversas áreas do conhecimento (notadamente, mas não exclusivamente, na Economia e na Estatística). Um jogo de enunciado simples cuja esperança matemática dos ganhos do jogador surpreendentemente é infinita, entretanto, dificilmente alguém estaria disposto a pagar qualquer taxa de entrada cobrada para jogá-lo. No presente trabalho buscou-se em primeiro lugar apresentar uma análise crítica do desenvolvimento histórico das \"soluções\" propostas para o paradoxo. Em seguida mostrou-se uma aplicação direta do paradoxo a um modelo matemático utilizado até hoje para avaliar o preço justo de ações. Por fim, revisaram-se alguns resultados obtidos pela moderna teoria da probabilidade através da convergência em probabilidade.
2022-12-06T14:52:58Z
Rodrigo Viana Rocha
Extensões do modelo -potência
Em analise de dados que apresentam certo grau de assimetria a suposicao que as observações seguem uma distribuição normal, pode resultar ser uma suposição irreal e a aplicação deste modelo pode ocultar características importantes do modelo verdadeiro. Este tipo de situação deu forca á aplicação de modelo assimétricos, destacando-se entre estes a família de distribuições skew-symmetric, desenvolvida por Azzalini (1985). Neste trabalho nos apresentamos uma segunda proposta para a anàlise de dados com presença importante de assimetria e/ou curtose, comparado com a distribuição normal. Nós apresentamos e estudamos algumas propriedades dos modelos alfa-potência e log-alfa-potência, onde também estudamos o problema de estimação, as matrizes de informação observada e esperada de Fisher e o grau do viés dos estimadores mediante alguns processos de simulação. Nós introduzimos um modelo mais estável que o modelo alfa- potência do qual derivamos o caso bimodal desta distribuição e introduzimos os modelos bimodal simêtrico e assimêtrico alfa-potencia. Posteriormente nós estendemos a distribuição alfa-potência para o caso do modelo Birnbaum-Saunders, estudamos as propriedades deste novo modelo, desenvolvemos estimadores para os parametros e propomos estimadores com viés corrigido. Também introduzimos o modelo de regressão alfa-potência para dados censurados e não censurados e para o modelo de regressão log-linear Birnbaum-Saunders; aqui nós derivamos os estimadores dos parâmetros e estudamos algumas técnicas de validação dos modelos. Por ultimo nós fazemos a extensão multivariada do modelo alfa-potência e estudamos alguns processos de estimação dos parâmetros. Para todos os casos estudados apresentam-se ilustrações com dados já analisados previamente com outras suposições de distribuições.
2022-12-06T14:52:58Z
Guillermo Domingo Martinez Florez
Modelos paramétricos para séries temporais de contagem
Diversas situações práticas exigem a análise de series temporais de contagem, que podem apresentar tendência, sazonalidade e efeitos de variáveis explicativas. A motivação do nosso trabalho é a análise de internações diárias por doenças respiratórias para pessoas com mais que 65 anos residentes no município de São Paulo. O efeito de variáveis climáticas e concentrações de poluentes foram incluídos nos modelos e foram usadas as funções seno e cosseno com periodicidade de um ano para explicar o padrão sazonal e obter os efeitos das variáveis climáticas e poluentes controlando essa sazonalidade. Outro aspecto a ser considerado é a inclusão da população nas análises de modo que a interpretação dos efeitos seja para as taxas diárias de internações. Diferentes modelos paramétricos foram propostos para as internações. O mais simples é o modelo de regressão linear para o logaritmo das taxas. Foram ajustados os modelos lineares generalizados (MLG) para as internações com função de ligação logaritmo e com a população como offset, por este modelo permitir o uso das distribuições Poisson e Binomial Negativa, usadas para dados de contagem. Devido à heteroscedasticidade extra, foram propostos modelos GAMLSS incluindo variáveis para explicar o desvio padrão. Foram ajustados modelos ARMA e GARMA, por incluírem uma estrutura de correlação serial. O objetivo desse trabalho é comparar as estimativas, os erros padrões, a cobertura dos intervalos de confiança e o erro quadrático médio para o valor predito segundo os vários modelos e a escolha do modelo mais apropriado, que depende da completa análise de resíduos, geralmente omitida na literatura. O modelo GARMA com distribuição Binomial Negativa apresentou melhor ajuste, pois os erros parecem seguir a distribuição proposta e tem baixa autocorrelação, além de ter tido uma boa cobertura pelo intervalo de confiança e um baixo erro quadrático médio. Também foi analisado o efeito da autocorrelação dos dados nas estimativas nos vários modelos baseado em dados simulados.
2022-12-06T14:52:58Z
Igor André Milhorança
Um estudo de sensibilidade da fatoração PMF - Positive Matrix Factorization - em relação às medidas de incerteza das variáveis
A fatoração PMF - Positive Matrix Factorization - é um método de resolução de problemas em que variáveis observadas conjuntamente são modeladas como a combinação linear de fatores potenciais, representada pela multiplicação de duas matrizes. Este método tem sido utilizado principalmente em áreas de estudo em que as variáveis observadas são sempre não negativas, e quando é aplicada uma modelagem fatorial ao problema. Assume-se a premissa de que são resultantes da multiplicação de duas matrizes com entradas não negativas, ou seja, os fatores potenciais, e os poderadores da combinação linear são desconhecidos, e têm valores não negativos. Neste método além da possibilidade de restringir a busca dos valores das matrizes da fatoração a valores não negativos, também é possível incluir a medida de incerteza relacionada a cada observação no processo de obtenção da fatoração como um modo de reduzir o efeito indesejado que valores outliers podem causar no resultado. Neste trabalho é feito um estudo de sensibilidade da fatoração PMF em relação a algumas medidas de incertezas presentes na literatura, utilizando o software EPA PMF 5.0 com ME-2. Para realizar este estudo foi desenvolvida uma metodologia de simulação de base de dados a partir de perfis de fontes emissoras conhecidas incluindo valores outliers, e aplicação sequencial da fatoração PMF com o software ME-2 nas bases de dados simuladas.
2022-12-06T14:52:58Z
Renato Ciani
Calibração linear assimétrica
A presente tese aborda aspectos teóricos e aplicados da estimação dos parâmetros do modelo de calibração linear com erros distribuídos conforme a distribuição normal-assimétrica (Azzalini, 1985) e t-normal-assimétrica (Gómez, Venegas e Bolfarine, 2007). Aplicando um modelo assimétrico, não é necessário transformar as variáveis a fim de obter erros simétricos. A estimação dos parâmetros e das variâncias dos estimadores do modelo de calibração foram estudadas através da visão freqüentista e bayesiana, desenvolvendo algoritmos tipo EM e amostradores de Gibbs, respectivamente. Um dos pontos relevantes do trabalho, na óptica freqüentista, é a apresentação de uma reparametrização para evitar a singularidade da matriz de informação de Fisher sob o modelo de calibração normal-assimétrico na vizinhança de lambda = 0. Outro interessante aspecto é que a reparametrização não modifica o parâmetro de interesse. Já na óptica bayesiana, o ponto forte do trabalho está no desenvolvimento de medidas para verificar a qualidade do ajuste e que levam em consideração a assimetria do conjunto de dados. São propostas duas medidas para medir a qualidade do ajuste: o ADIC (Asymmetric Deviance Information Criterion) e o EDIC (Evident Deviance Information Criterion), que são extensões da ideia de Spiegelhalter et al. (2002) que propôs o DIC ordinário que só deve ser usado em modelos simétricos.
2022-12-06T14:52:58Z
Cléber da Costa Figueiredo
Ordenação das páginas do Google - \"Page Rank\"
Grande parte do sucesso do Google provêm do algoritmo Page Rank, que avalia quantitativamente a importância de cada página na web. Esta ordenação é obtida através do vetor estacionário de uma matriz estocástica específica, utilizando o Método das Potências. A velocidade de convergência deste método será avaliada em detalhe, já que se trata de uma resposta imediata da pesquisa do usuário. Afim de entender as diferentes situações que o modelo pode enfrentar, diversas simulações são apresentadas neste trabalho. Em particular, estamos interessados nos fatores que influenciam a velocidade de convergência. Para tanto, o número de páginas total e de cada conjunto fechado, bem como o número de conjuntos fechados e de nós pendentes foram estudados.
2022-12-06T14:52:58Z
Mariana Pereira de Melo
A teia Browniana radial
Introduzimos uma familia de trajetorias aleatorias coalescentes com certo tipo de comportamento radial a qual chamaremos de Teia Poissoniana radial discreta. Mostramos que o limite fraco na escala difusiva desta familia e uma familia de trajetorias aleatorias coalescentes que chamaremos de Teia Browniana radial. Por m, caraterizamos o objeto limite como um mapeamento continuo da Teia Browniana restrita num subconjunto de R2.
2022-12-06T14:52:58Z
León Alexander Valencia Henao
Modelos baseados em agentes aplicados à dinâmica de preços do mercado imobiliário
Um dos aspectos regulatórios fundamentais para o mercado imobiliário no Brasil são os limites para obtenção de financiamento no Sistema Financeiro de Habitação. Esses limites podem ser definidos de forma a aumentar ou reduzir a oferta de crédito neste mercado, alterando o comportamento dos seus agentes e, com isso, o preço de mercado dos imóveis. Neste trabalho, propomos um modelo de formação de preços no mercado imobiliário brasileiro com base no comportamento dos agentes que o compõem. Os agentes vendedores têm comportamento heterogêneo e são influenciados pela demanda histórica, enquanto que os agentes compradores têm o seu comportamento determinado pela disponibilidade de crédito. Esta disponibilidade de crédito, por sua vez, é definida pelos limites para concessão de financiamento no Sistema Financeiro de Habitação. Verificamos que o processo markoviano que descreve preço de mercado converge para um sistema dinâmico determinístico quando o número de agentes aumenta, e analisamos o comportamento deste sistema dinâmico. Mostramos qual é a família de variáveis aleatórias que representa o comportamento dos agentes vendedores de forma que o sistema apresente um preço de equilíbrio não trivial, condizente com a realidade. Verificamos ainda que o preço de equilíbrio depende não só das regras de concessão de financiamento no Sistema Financeiro de Habitação, como também do preço de reserva dos compradores e da memória e da sensibilidade dos vendedores a alterações na demanda. A memória e a sensibilidade dos vendedores podem levar a oscilações de preços acima ou abaixo do preço de equilíbrio (típicas de processos de formação de bolhas); ou até mesmo a uma bifurcação de Neimark-Sacker, quando o sistema apresenta dinâmica oscilatória estável.
2022-12-06T14:52:58Z
Manuella de Oliveira Antunes
Modelo multi-estados markoviano não homogêneo com efeitos dinâmicos
Modelos multi-estados têm sido utilizados para descrever o comportamento de unidades amostrais cuja principal resposta é o tempo necessário para a ocorrência de seqüências de eventos. Consideramos um modelo multi-estados markoviano, não homogêneo, que incorpora covariáveis cujos efeitos podem variar ao longo do tempo (efeitos dinâmicos), o que permite a generalização dos modelos usualmente empregados. Resultados assintóticos mostram que procedimentos de estimação baseados no método histograma crivo convergem para um processo gaussiano. A metodologia proposta mostra-se adequada na modelagem de dados reais para comparação de desenvolvimento de recém-nascidos pré-termo com os a termo. Estudos com dados gerados artificialmente confirmam os resultados teóricos obtidos.
2022-12-06T14:52:58Z
Iracema Hiroko Iramina Arashiro
Genotipagem de poliplóides: um modelo de urnas e bolas
Desde os primórdios da agricultura e pecuária, o homem seleciona indivíduos com características desejáveis para reprodução e aumento da proporção de novos indivíduos com tais qualidades. Com o conhecimento da estrutura de DNA e o advento da engenharia genética, a identificação e caracterização de espécies e indivíduos conta com novas tecnologias para auxiliar no desenvolvimento de novas variedades de plantas e animais para diversos fins. Tais tecnologias envolvem procedimentos bioquímicos e físicos cada vez mais apurados que produzem medidas cada vez mais precisas, um exemplo disso são as técnicas que empregam a espectometria de massa para comparar polimorfismos de base única (SNPs). Nas plantas é comum a ocorrência de poliploidia, que consiste na presença de mais de dois cromossomos num mesmo grupo de homologia. A determinação do nível de ploidia é fundamental para a correta genotipagem e por consequência maior eficiência no estudo e aprimoramento genético de plantas. Neste trabalho caracterizamos o fenômeno da poliploidia com modelos probabilísticos de urnas e bolas, propondo um método eficiente e adequado de simulação, assim como uma técnica simples para inferir níveis de ploidia e classificar amostras bialélicas aproveitando características geométricas do problema. Análises de dados simulados e reais provenientes de um experimento de cana-de-açúcar foram realizadas com diferentes medidas de separação entre agrupamentos e diferentes condições experimentais. Para os dados reais, métodos gráficos descritivos evidenciam a corretude e coerência do método proposto, que pode ser generalizado para a genotipagem de locos multialélicos poliplóides. Encerramos o trabalho comparando nossos resultados com a abordagem SuperMASSA [Serang2012] que trouxe excelentes resultados ao problema. Todo código desenvolvido em linguagem R está disponibilizado com o texto.
2022-12-06T14:52:58Z
Silvio Rodrigues de Faria Junior
Modelagem estocástica de sequências de disparos de um conjunto de neurônios
O presente trabalho constitui um primeiro esforço por modelar disparos de neurônios usando cadeias estocásticas de memória de alcance variável. Esses modelos foram introduzidos por Rissanen (1983). A ideia principal deste tipo de modelos consiste em que a definição probabilística de cada símbolo depende somente de uma porção finita do passado e o comprimento dela é função do passado mesmo, tal porção foi chamada de \"contexto\" e o conjunto de contextos pode ser representado através de uma árvore. No passado vários métodos de estimação foram propostos, nos quais é necessário especificar algumas constantes, de forma que Galves et al.(2012) apresentaram o \"critério do menor maximizador\" (SMC), sendo este um algoritmo consistente que independe de qualquer constante. De outro lado na área da neurociência vem tomando força a ideia de que o processamento de informação do cérebro é feito de forma probabilística, por esta razão foram usados os dados coletados por Sidarta Ribeiro e sua equipe, correspondentes à atividade neuronal em ratos, para estimar as árvores de contextos que caracterizam os disparos de quatro neurônios do hipocampo e identificar possíveis associações entre eles, também foram feitas comparações de acordo com o estado comportamental do rato (Vigília / Sono), em todos os casos foi usado o algoritmo SMC para a estimação das árvores de contexto. Por último, é aberta uma discussão sobre o tamanho de amostra necessário para a implementação deste tipo de análise.
2022-12-06T14:52:58Z
Azrielex Andres Arias Rodriguez
Incorporação de indicadores categóricos ordinais em modelos de equações estruturais
A modelagem de equações estruturais é uma técnica estatística multivariada que permite analisar variáveis que não podem ser medidas diretamente, mas que podem ser estimadas através de indicadores. Dado o poder que esta técnica tem em acomodar diversas situações em um único modelo, sua aplicação vem crescendo nas diversas áreas do conhecimento. Diante disto, este trabalho teve por objetivo avaliar a incorporação de indicadores categóricos ordinais em modelos de equações estruturais, fazendo um resumo dos principais procedimentos teóricos e subjetivos presentes no processo de estimação de um modelo, avaliando as suposições violadas quando indicadores ordinais são utilizados para estimar variáveis latentes e criando diretrizes que devem ser seguidas para a correta estimação dos parâmetros do modelo. Mostramos que as correlações especiais (correlação tetracórica, correlação policórica, correlação biserial e correlação poliserial) são as melhores escolhas como medida de associação entre indicadores, que estimam com maior precisão a correlação entre duas variáveis, em comparação à correlação de Pearson, e que são robustas a desvios de simetria e curtose. Por fim aplicamos os conceitos apresentados ao longo deste estudo a dois modelos hipotéticos com o objetivo de avaliar as diferenças entre os parâmetros estimados quando um modelo é ajustado utilizando a matriz de correlações especiais em substituição à matriz de correlação de Pearson.
2022-12-06T14:52:58Z
Bruno Cesar Bistaffa