RCAAP Repository

Modelos de regressão beta com erro nas variáveis

Neste trabalho de tese propomos um modelo de regressão beta com erros de medida. Esta proposta é uma área inexplorada em modelos não lineares na presença de erros de medição. Abordamos metodologias de estimação, como máxima verossimilhança aproximada, máxima pseudo-verossimilhança aproximada e calibração da regressão. O método de máxima verossimilhança aproximada determina as estimativas maximizando diretamente o logaritmo da função de verossimilhança. O método de máxima pseudo-verossimilhança aproximada é utilizado quando a inferência em um determinado modelo envolve apenas alguns mas não todos os parâmetros. Nesse sentido, dizemos que o modelo apresenta parâmetros de interesse como também de perturbação. Quando substituímos a verdadeira covariável (variável não observada) por uma estimativa da esperança condicional da variável não observada dada a observada, o método é conhecido como calibração da regressão. Comparamos as metodologias de estimação mediante um estudo de simulação de Monte Carlo. Este estudo de simulação evidenciou que os métodos de máxima verossimilhança aproximada e máxima pseudo-verossimilhança aproximada tiveram melhor desempenho frente aos métodos de calibração da regressão e naïve (ingênuo). Utilizamos a linguagem de programação Ox (Doornik, 2011) como suporte computacional. Encontramos a distribuição assintótica dos estimadores, com o objetivo de calcular intervalos de confiança e testar hipóteses, tal como propõem Carroll et. al.(2006, Seção A.6.6), Guolo (2011) e Gong e Samaniego (1981). Ademais, são utilizadas as estatísticas da razão de verossimilhanças e gradiente para testar hipóteses. Num estudo de simulação realizado, avaliamos o desempenho dos testes da razão de verossimilhanças e gradiente. Desenvolvemos técnicas de diagnóstico para o modelo de regressão beta com erros de medida. Propomos o resíduo ponderado padronizado tal como definem Espinheira (2008) com o objetivo de verificar as suposições assumidas ao modelo e detectar pontos aberrantes. Medidas de influência global, tais como a distância de Cook generalizada e o afastamento da verossimilhança, são utilizadas para detectar pontos influentes. Além disso, utilizamos a técnica de influência local conformal sob três esquemas de perturbação (ponderação de casos, perturbação da variável resposta e perturbação da covariável com e sem erros de medida). Aplicamos nossos resultados a dois conjuntos de dados reais para exemplificar a teoria desenvolvida. Finalmente, apresentamos algumas conclusões e possíveis trabalhos futuros.

Year

2012

Creators

Jalmar Manuel Farfan Carrasco

Transformações em modelos de séries temporais

Cordeiro e Andrade (2009) incorporam a ideia de variável resposta transformada ao modelo GARMA, autorregressivo e de médias móveis generalizado, introduzido por Benjamin et al. (2003), desenvolvendo assim, o modelo TGARMA, autorregressivo e de médias móveis generalizado transformado. O objetivo do presente trabalho é desenvolver o modelo TGARMA introduzido por Cordeiro e Andrade (2009) para distribuições condicionais simétricas contínuas com e sem heteroscedasticidade e uma possível função não linear para os parâmetros de regressão. Ao longo desta tese derivamos um processo iterativo para estimar os parâmetros desses modelos por máxima verossimilhança. Nós produzimos uma fórmula simples para estimar o parâmetro que define a transformação da variável resposta para uma subclasse de modelos. Fornecemos os momentos para a variável dependente original. Para o modelo homoscedástico, discutimos inferência de alguns parâmetros, propomos uma análise de diagnóstico e a definição de um resíduo padronizado. Finalmente, para ilustrar a teoria desenvolvida, tanto no caso homoscedástico quanto no caso heteroscedástico, utilizamos conjuntos de dados reais e avaliamos os resultados desenvolvidos por meio de estudos de simulação.

Year

2012

Creators

Amanda dos Santos Gomes

Estratégias para tratamento de variáveis com dados faltantes durante o desenvolvimento de modelos preditivos

Modelos preditivos têm sido cada vez mais utilizados pelo mercado a fim de auxiliarem as empresas na mitigação de riscos, expansão de carteiras, retenção de clientes, prevenção a fraudes, entre outros objetivos. Entretanto, durante o desenvolvimento destes modelos é comum existirem, dentre as variáveis preditivas, algumas que possuem dados não preenchidos (missings), sendo necessário assim adotar algum procedimento para tratamento destas variáveis. Dado este cenário, este estudo tem o objetivo de discutir metodologias de tratamento de dados faltantes em modelos preditivos, incentivando o uso de algumas delas já conhecidas pelo meio acadêmico, só que não utilizadas pelo mercado. Para isso, este trabalho descreve sete metodologias. Todas elas foram submetidas a uma aplicação empírica utilizando uma base de dados referente ao desenvolvimento de um modelo de Credit Score. Sobre esta base foram desenvolvidos sete modelos (um para cada metodologia descrita) e seus resultados foram avaliados e comparados através de índices de desempenho amplamente utilizados pelo mercado (KS, Gini, ROC e Curva de Aprovação). Nesta aplicação, as técnicas que apresentaram melhor desempenho foram a que tratam os dados faltantes como uma categoria à parte (técnica já utilizada pelo mercado) e a metodologia que consiste em agrupar os dados faltantes na categoria conceitualmente mais semelhante. Já a que apresentou o pior desempenho foi a metodologia que simplesmente não utiliza a variável com dados faltantes, outro procedimento comumente visto no mercado.

Year

2012

Creators

Fernando Assunção

Modelos multivariados binários com funções de ligação assimétricas

Conjuntos de dados com respostas multivariadas aparecem frequentemente em pesquisas em que os dados são provenientes de questionários. Exemplos mais comuns são pesquisas de opinião, mais especificamente, pesquisas de marketing em que a preferência do consumidor em potencial é avaliado: pelo produto, marca, preço, praça, promoção e etc. Um tipo pesquisa de opinião que ganha grande destaque no Brasil de dois em dois anos são as pesquisas eleitorais de intenção de votos. Nós introduzimos nesta tese uma classe de modelos de regressão multivariados com funções de ligação assimétricas para o ajuste de conjuntos de dados com respostas multivariadas binárias. As funções de ligação consideradas são bastante flexíveis e robustas, contemplando funções de ligação simétricas como casos particulares. Devido a complexidade do modelo, nós discutimos a sua identificabilidade. A abordagem Bayesiana foi considerada e alguns algoritmos de Monte Carlo via Cadeia de Markov (MCMC) foram desenvolvidos. Nós descrevemos algumas ferramentas de seleção de modelos, os quais incluem o Critério de Informação da Deviance (DIC), a Pseudo-Verossimilhança Marginal e o Pseudo-Fator de Bayes. Adicionalmente, um estudo de simulação foi desenvolvido com dois objetivos; i) verificar a qualidade dos algoritmos desenvolvidos e ii) verificar a importância da escolha da função de ligação . No final da tese uma aplicação em um conjunto de dados real é considerada com o objetivo de ilustrar as metodologias e técnicas apresentadas.

Year

2012

Creators

Rafael Braz Azevedo Farias

Aplicações do approximate Bayesian computation a controle de qualidade

Neste trabalho apresentaremos dois problemas do contexto de controle estatístico da qualidade: monitoramento \"on-line\'\' de qualidade e environmental stress screening, analisados pela óptica bayesiana. Apresentaremos os problemas dos modelos bayesianos relativos a sua aplicação e, os reanalisamos com o auxílio do ABC o que nos fornece resultados de uma maneira mais rápida, e assim possibilita análises diferenciadas e a previsão novas observações.

Year

2015

Creators

Thiago Feitosa Campos

Simulação perfeita da distribuição normal multivariada truncada

No presente trabalho apresentamos o algoritmo de simulacão perfeita CFTP, proposto em Propp & Wilson (1996). Seguindo o trabalho de Philippe & Robert (2003) implementamos o CFTP gerando amostras da distribuicão normal bivariada truncada no quadrante positivo. O algoritmo proposto e comparado com o amostrador de Gibbs e o método de rejeição. Finalmente, apresentamos sugestões para a implementação do CFTP para gerar amostras da distribuição normal truncada em dimensões maiores que dois e a geração de amostras em conjuntos diferente do quadrante positivo.

Year

2010

Creators

Thiago Feitosa Campos

Sistemas de partículas interagentes aplicados a dinâmicas sociais: modelos de confiança limitada

Aplicações de processos estocásticos a dinâmicas sociais constituem tema de grande relevância nos últimos anos. Especialmente desafiadores são os modelos de opinião com confiança limitada dada a sua falta de linearidade. Com isso, simulações e resultados numéricos possuem elevada importância. Neste trabalho, focamos em dois dos principais modelos de confiança limitada, nomeadamente os modelos de Hegselmann-Krause e de Deffuant-Weisbuch. Em ambos os casos, e necessário que a diferença de opiniões entre dois dados agentes seja menor que o limite de confiança, parâmetro do modelo. Porém, enquanto no modelo de Hegselmann-Krause a interação a cada etapa se dá entre todos os agentes vizinhos entre si, no modelo de Deffuant-Weisbuch a interação ocorre entre apenas dois agentes por vez. Apresentamos aqui uma revisão da literatura associada ao tema, incluindo resultados numéricos e analíticos sobre o comportamento de ambos os modelos, principalmente no tocante a convergência e condições em que se estabelecem o consenso ou a fragmentação de opiniões.

Year

2016

Creators

Ivan Costa Bernardo

Teoremas fundamentais para o caminho mais curto entre duas sequências

Dans ce travail, nous étudions les propriétés de le chemin le plus court entre deux sequences, et en présente trois principaux résultats: Le premier est le comportement asymptotique de le chemin le plus court comme une fonction linéaire de la taille de les cylindres. Le deuxième est un principe de grandes déviations pour cette quantitée. Et le troisième est de la convergence en distribution d\'une version re-mise à l\'échelle de cette variable aleatorie.

Year

2015

Creators

Rodrigo Lambert

Diagnóstico no modelo de regressão logística ordinal

Os modelos de regressão logística ordinais são usados para descrever a relação entre uma variável resposta categórica ordinal e uma ou mais variáveis explanatórias. Uma vez ajustado o modelo de regressão, se faz necessário verificar a qualidade do ajuste do modelo. As estatísticas qui-quadrado de Pearson e da razão de verossimilhanças não são adequadas para acessar a qualidade do ajuste do modelo de regressão logística ordinal quando variáveis contínuas estão presentes no modelo. Para este caso, foram propostos os testes de Lipsitz, a versão ordinal do teste de Hosmer-Lemeshow e os testes qui-quadrado e razão de verossimilhanças de Pulkistenis-Robinson. Nesta dissertação é feita uma revisão das técnicas de diagnóstico disponíveis para os Modelos logito cumulativo, Modelos logito categorias adjacentes e Modelos logito razão contínua, bem como uma aplicação a fim de investigar a relação entre a perda auditiva, o equilíbrio e aspectos emocionais nos idosos.

Year

2019

Creators

Marina Calais de Freitas Moura

Propriedades assintóticas e estimadores consistentes para a probabilidade de clustering

Considere um processo estocástico X_m em tempo discreto definido sobre o alfabeto finito A. Seja x_0^k-1 uma palavra fixa sobre A^k. No estudo das propriedades estatísticas na teoria de recorrência de Poincaré, é clássico o estudo do tempo decorrente até que a sequência fixa x_0^k-1 seja encontrada em uma realização do processo. Tipicamente, esta é uma quantidade exponencialmente grande com relação ao comprimento da palavra. Contrariamente, o primeiro tempo de retorno possível para uma sequência dada está definido como sendo o mínimo entre os tempos de entrada de todas as sequências que começam com a própria palavra e é uma quantidade tipicamente pequena, da ordem do tamanho da palavra. Neste trabalho estudamos o comportamento da probabilidade deste primeiro retorno possível de uma palavra x_0^k-1 dado que o processo começa com ela mesma. Esta quantidade mede a intensidade de que, uma vez observado um conjunto alvo, possam ser observados agrupamentos ou clusters. Provamos que, sob certas condições, a taxa de decaimento exponencial desta probabilidade converge para a entropia para quase toda a sequência quando k diverge. Apresentamos também um estimador desta probabilidade para árvores de contexto e mostramos sua consistência.

Year

2014

Creators

Mariana Pereira de Melo

Passeios aleatórios em redes finitas e infinitas de filas

Um conjunto de modelos compostos de redes de filas em grades finitas servindo como ambientes aleatorios para um ou mais passeios aleatorios, que por sua vez podem afetar o comportamento das filas, e desenvolvido. Duas formas de interacao entre os passeios aleatorios sao consideradas. Para cada modelo, e provado que o processo Markoviano correspondente e recorrente positivo e reversivel. As equacoes de balanceamento detalhado sao analisadas para obter a forma funcional da medida invariante de cada modelo. Em todos os modelos analisados neste trabalho, a medida invariante em uma grade finita tem forma produto. Modelos de redes de filas como ambientes para multiplos passeios aleatorios sao estendidos a grades infinitas. Para cada modelo estendido, sao especificadas as condicoes para a existencia do processo estocastico na grade infinita. Alem disso, e provado que existe uma unica medida invariante na rede infinita cuja projecao em uma subgrade finita e dada pela medida correspondente de uma rede finita. Finalmente, e provado que essa medida invariante na rede infinita e reversivel.

Year

2017

Creators

Mark Andrew Gannon

Generalizações e teoremas limites para modelos estocásticos de rumores

Os modelos de Daley-Kendall e Maki-Thompson são os dois modelos estocásticos para difusão de rumores mais citados até o momento. Em ambos, uma população finita fechada e totalmente misturada é subdividida em três classes de indivíduos denominados ignorantes, informantes e contidos. Depois de um rumor ser introduzido na população, difunde-se através desta seguindo determinadas regras que dependem da classe à qual a pessoa que sabe do rumor pertence. Tanto a proporção final de indivíduos que nunca chegam a conhecer o rumor quanto o tempo que este demora em ser difundido são variáveis de interesse para os modelos propostos. As técnicas encontradas na literatura para estudar modelos de rumores são o princípio de difusão de constantes arbitrárias; argumentos de martingais; o método de funções geradoras e a análise de versões determinísticas do processo. Neste trabalho apresentamos uma alternativa para essas técnicas baseando-nos na teoria de cadeias de Markov \"density dependent\'\'. O uso desta nova abordagem nos permite apresentar resultados assintóticos para um modelo geral que tem como casos particulares os famosos modelos de Daley-Kendall e Maki-Thompson, além de variações de modelos de rumores apresentados na literatura recentemente.

Year

2010

Creators

Pablo Martin Rodriguez

Fully Bayesian modeling for fMRI group analysis

Functional magnetic resonance imaging or functional MRI (fMRI) is a non-invasive way to assess brain activity by detecting changes associated with blood flow. In this thesis, we propose a fully Bayesian procedure to analyze fMRI data for individual and group stages. For the individual stage, we use a Matrix-Variate Dynamic Linear Model (MDLM), where the temporal dependence is modeled through the state parameters and the spatial dependence is modeled only locally, taking the nearest neighbors of each voxel location. For the group stage, we take advantage of the posterior distribution of the state parameters obtained at the individual stage and create a new posterior distribution that represents the updated beliefs for the group analysis. Since the posterior distribution for the state parameters is indexed by the time t, we propose three options for algorithms that allow on-line estimated curves for the state parameters to be drawn and posterior probabilities to be computed in order to assess brain activation for both individual and group stages. We illustrate our method through two practical examples and offer an assessment using real resting-state data to compute empirical false-positive brain activation rates. Finally, we make available the R package BayesDLMfMRI to perform task-based fMRI data analysis for individual and group stages using the method proposed in this thesis.

Year

2019

Creators

Johnatan Cardona Jiménez

Seleção de modelos para segmentação de sequências simbólicas usando máxima verossimilhança penalizada

O problema de segmentação de sequências tem o objetivo de particionar uma sequência ou um conjunto delas em um número finito de segmentos distintos tão homogêneos quanto possível. Neste trabalho consideramos o problema de segmentação de um conjunto de sequências aleatórias, com valores em um alfabeto $\\mathcal$ finito, em um número finito de blocos independentes. Supomos ainda que temos $m$ sequências independentes de tamanho $n$, construídas pela concatenação de $s$ segmentos de comprimento $l^{*}_j$, sendo que cada bloco é obtido a partir da distribuição $\\p _j$ em $\\mathcal^{l^{*}_j}, \\; j=1,\\cdots, s$. Além disso denotamos os verdadeiros pontos de corte pelo vetor ${{\\bf k}}^{*}=(k^{*}_1,\\cdots,k^{*}_)$, com $k^{*}_i=\\sum _{j=1}^l^{*}_j$, $i=1,\\cdots, s-1$, esses pontos representam a mudança de segmento. Propomos usar o critério da máxima verossimilhança penalizada para inferir simultaneamente o número de pontos de corte e a posição de cada um desses pontos. Também apresentamos um algoritmo para segmentação de sequências e realizamos algumas simulações para mostrar seu funcionamento e sua velocidade de convergência. Nosso principal resultado é a demonstração da consistência forte do estimador dos pontos de corte quando o $m$ tende ao infinito.

Year

2013

Creators

Bruno Monte de Castro

Regressão binária bayesiana com o uso de variáveis auxiliares

A inferência Bayesiana está cada vez mais dependente de algoritmos de simulação estocástica, e sua eficiência está diretamente relacionada à eficiência do algoritmo considerado. Uma prática bastante utilizada é a introdução de variáveis auxiliares para obtenção de formas conhecidas para as distribuições {\\it a posteriori} condicionais completas, as quais facilitam a implementação do amostrador de Gibbs. No entanto, a introdução dessas variáveis pode produzir algoritmos onde os valores simulados são fortemente correlacionados, fato esse que prejudica a convergência. O agrupamento das quantidades desconhecidas em blocos, de tal maneira que seja viável a simulação conjunta destas quantidades, é uma alternativa para redução da autocorrelação, e portanto, ajuda a melhorar a eficiência do procedimento de simulação. Neste trabalho, apresentamos propostas de simulação em blocos no contexto de modelos de regressão binária com o uso de variáveis auxiliares. Três classes de funções de ligação são consideradas: probito, logito e probito-assimétrico. Para as duas primeiras apresentamos e implementamos as propostas de atualização conjunta feitas por Holmes e Held (2006). Para a ligação probito-assimétrico propomos quatro diferentes maneiras de construir os blocos, e comparamos estes algoritmos através de duas medidas de eficiência (distância média Euclidiana entre atualizações e tamanho efetivo da amostra). Concluímos que os algoritmos propostos são mais eficientes que o convencional (sem blocos), sendo que um deles proporcionou ganho superior a 160\\% no tamanho efetivo da amostra. Além disso, discutimos uma etapa bastante importante da modelagem, denominada análise de resíduos. Nesta parte adaptamos e implementamos os resíduos propostos para a ligação probito para os modelos logístico e probito-assimétrico. Finalmente, utilizamos os resíduos propostos para verificar a presença de observações discrepantes em um conjunto de dados simulados.

Year

2007

Creators

Rafael Braz Azevedo Farias

Modelando o efeito da omissão de atributos em um estudo de análise de preferência conjunta

A Análise de Preferência Conjunta (APC) é uma metodologia estatística bastante utilizada em estudos de comportamento do consumidor e do mercado em geral. Ela possibilita a realização de estudos sobre julgamentos individuais, tais como a aceita-bilidade e preferência por um determinado produto no momento da sua aquisição (ver Artes, 1991 e Friedmann, 1998). Em um estudo de preferência conjunta, são apresentadas configurações hipotéticas de um mesmo produto, que devem ser avaliadas segundo a preferência do respondente. O julgamento de um estímulo é denominado de valor de preferência que nada mais é do que a quantificação da preferência do indivíduo por um estímulo. Quanto maior o número de atributos e níveis utilizados na caracterização de um produto, mais real será sua descrição. No entanto, a complexidade dos estímulos e o número de configurações possíveis aumenta exponencialmente a cada novo atributo ou nível acrescentado, podendo comprometer a qualidade dos resultados de uma pesquisa. Este problema é contornado através da utilização de estímulos gerados através de planejamentos fracionários combinado na omissão de um ou mais atributos nos diferentes estímulos, conhecidos como perfis incompletos. Neste trabalho, pretende-se testar o efeito da ausência de atributos na classificação de estímulos e diferentes formas de imputação da informação faltante em uma aplicação sobre o efeito de características do emprego na satisfação do funcionário.

Modelo bayesiano para dados de sobrevivência com riscos semicompetitivos baseado em cópulas

Motivados por um conjunto de dados de pacientes com insuficiência renal crônica (IRC), propomos uma nova modelagem bayesiana que envolve cópulas da família Arquimediana e um modelo misto para dados de sobrevivência com riscos semicompetitivos. A estrutura de riscos semicompetitivos é bastante comum em estudos clínicos em que dois eventos são de interesse, um intermediário e outro terminal, de forma tal que a ocorrência do evento terminal impede a ocorrência do intermediário mas não vice-versa. Nesta modelagem provamos que a distribuição a posteriori sob a cópula de Clayton é própria. Implementamos os algoritmos de dados aumentados e amostrador de Gibbs para a inferência bayesiana, assim como os criterios de comparação de modelos: LPML, DIC e BIC. Realizamos um estudo de simulação para avaliar o desempenho da modelagem e finalmente aplicamos a metodologia proposta para analisar os dados dos pacientes com IRC, além de outros de pacientes que receberam transplante de medula óssea.

Year

2018

Creators

Elizabeth González Patiño

Critérios de informação e seleção de modelos lineares mistos

O modelo linear misto é amplamente utilizado na análise de medidas repetidas e de dados longitudinais, e compreende duas abordagens. A primeira é apropriada quando estamos interessados em parâmetros populacionais (efeitos fixos) e a segunda é indicada quando os coeficientes individuais (efeitos aleatórios) são de interesse. A seleção de modelos mistos, quando realizada por meio de critérios de informação, leva em conta estas diferenças de abordagem: o Critério de Informação de Akaike (AIC) marginal baseia-se na log-verossimilhança marginal, e o Critério de Informação de Schwarz (BIC) é similar ao critério anterior, mas também inclui o número total de observações. O AIC condicional baseia-se na log-verossimilhança condicional aos efeitos aleatórios. Realizamos um estudo de simulação para observar o comportamento destes critérios frente a diversos cenários, concluindo que o AIC (marginal ou condicional) e o BIC apresentaram frequência de seleção do modelo correto elevada mesmo para tamanho amostral reduzido (n = 10), desde que a quantidade de observações por indivíduo seja elevada (m 13). Além disso, quanto mais correlacionados os dados, são necessários tanto tamanho amostral quanto número de observações por indivíduo maiores (n 30 e m 16, respectivamente) para detecção do modelo correto. Consideramos dois exemplos em que ilustramos a aplicação do AIC marginal e do AIC condicional. Mostramos que a seleção de modelos por intermédio dos critérios AIC e BIC é compatível com a análise de resíduos associada.

Year

2020

Creators

Rodrigo Marques da Cruz

Modelos black-litterman e GARCH ortogonal para uma carteira de títulos do tesouro nacional

Uma grande dificuldade da gestão financeira é conseguir associar métodos quantitativos às formas tradicionais de gestão, em um único arranjo. O estilo tradicional de gestão tende a não crer, na devida medida, que métodos quantitativos sejam capazes de captar toda sua visão e experiência, ao passo que analistas quantitativos tendem a subestimar a importância do enfoque tradicional, gerando flagrante desarmonia e ineficiência na análise de risco. Um modelo que se propõe a diminuir a distância entre essas visões é o modelo Black-Litterman. Mais especificamente, propõe-se a diminuir os problemas enfrentados na aplicação da teoria moderna de carteiras e, em particular, os decorrentes da aplicação do modelo de Markowitz. O modelo de Markowitz constitui a base da teoria de carteiras há mais de meio século, desde a publicação do artigo Portfolio Selection [Mar52], entretanto, apesar do papel de destaque da abordagem média-variância para o meio acadêmico, várias dificuldades aparecem quando se tenta utilizá-lo na prática, e talvez, por esta razão, seu impacto no mundo dos investimentos tem sido bastante limitado. Apesar das desvantagens na utilização do modelo de média-variância de Markowitz, a idéia de maximizar o retorno, para um dado nível de risco é tão atraente para investidores, que a busca por modelos com melhor comportamento continuou e é neste contexto que o modelo Black-Litterman surgiu. Em 1992, Fischer Black e Robert Litterman publicam o artigo Portfolio Optimization [Bla92], fazendo considerações sobre o papel de pouco destaque da alocação quantitativa de ativos, e lançam o modelo conhecido por Black-Litterman. Uma grande diferença entre o modelo Black-Litterman e um modelo média-variância tradicional é que, enquanto o segundo gera pesos em uma carteira a partir de um processo de otimização, o modelo Black-Litterman parte de uma carteira de mercado em equilíbrio de longo prazo (CAPM). Outro ponto de destaque do modelo é ser capaz de fornecer uma maneira clara para que investidores possam expressar suas visões de curto prazo e, mais importante, fornece uma estrutura para combinar de forma consistente a informação do equilíbrio de longo prazo (priori) com a visão do investidor (curto prazo), gerando um conjunto de retornos esperados, a partir do qual os pesos em cada ativo são fornecidos. Para a escolha do método de estimação dos parâmetros, levou-se em consideração o fato de que matrizes de grande dimensão têm um papel importante na avaliação de investimentos, uma vez que o risco de uma carteira é fundamentalmente determinado pela matriz de covariância de seus ativos. Levou-se também em consideração que seria desejável utilizar um modelo flexível ao aumento do número de ativos. Um modelo capaz de cumprir este papel é o GARCH ortogonal, pois este pode gerar matrizes de covariâncias do modelo original a partir de algumas poucas volatilidades univariadas, sendo, portanto, um método computacionalmente bastante simples. De fato, as variâncias e correlações são transformações de duas ou três variâncias de fatores ortogonais obtidas pela estimação GARCH. Os fatores ortogonais são obtidos por componentes principais. A decomposição da variância do sistema em fatores de risco permite quantificar a variabilidade que cada fator de risco traz, o que é de grande relevância, pois o gestor de risco poderá direcionar mais facilmente sua atenção para os fatores mais relevantes. Ressalta-se também que a ideia central da ortogonalização é utilizar um espaço reduzido de componentes. Neste modelo de dimensão reduzida, suficientes fatores de risco serão considerados, assim, os demais movimentos, ou seja, aqueles não capturados por estes fatores, serão considerados ruídos insignificantes para este sistema. Não obstante, a precisão, ao desconsiderar algumas componentes, irá depender de o número de componentes principais ser suficiente para explicar grande parte da variação do sistema. Logo, o método funcionará melhor quando a análise de componentes principais funcionar melhor, ou seja, em estruturas a termo e outros sistemas altamente correlacionados. Cabe mencionar que o GARCH ortogonal continua igualmente útil e viável quando pretende-se gerar matriz de covariâncias de fatores de risco distintos, isto é, tanto dos altamente correlacionados, quanto daqueles pouco correlacionados. Neste caso, basta realizar a análise de componentes principais em grupos correlacionados. Feito isto, obtêm-se as matrizes de covariâncias utilizando a estimação GARCH. Em seguida faz-se a combinação de todas as matrizes de covariâncias, gerando a matriz de covariâncias do sistema original. A estimação GARCH foi escolhida pois esta é capaz de captar os principais fatos estilizados que caracterizam séries temporais financeiras. Entende-se por fatos estilizados padrões estatísticos observados empiricamente, que, acredita-se serem comuns a um grande número de séries temporais. Séries financeiras com suficiente alta frequência (observações intraday e diárias) costumam apresentar tais características. Este modelo foi utilizado para a estimação dos retornos e, com isso, obtivemos todas as estimativas para que, com o modelo B-L, pudéssemos gerar uma carteira ótima em um instante de tempo inicial. Em seguida, faremos previsões, obtendo carteiras para as semanas seguintes. Por fim, mostraremos que a associação do modelo B-L e da estimação GARCH ortogonal pode gerar resultados bastante satisfatórios e, ao mesmo tempo, manter o modelo simples e gerar resultados coerentes com a intuição. Este estudo se dará sobre retornos de títulos de renda fixa, mais especificamente, títulos emitidos pelo Tesouro Nacional no mercado brasileiro. Tanto a escolha do modelo B-L, quanto a escolha por utilizar uma carteira de títulos emitidos pelo Tesouro Nacional tiveram como motivação o objetivo de aproximar ferramentas estatísticas de aplicações em finanças, em particular, títulos públicos federais emitidos em mercado, que têm se tornado cada vez mais familiares aos investidores pessoas físicas, sobretudo através do programa Tesouro Direto. Ao fazê-lo, espera-se que este estudo traga informações úteis tanto para investidores, quanto para gestores de dívida, uma vez que o modelo média-variância presta-se tanto àqueles que adquirem títulos, buscando, portanto, maximizar retorno para um dado nível de risco, quanto para aqueles que emitem títulos, e que, portanto, buscam reduzir seus custos de emissão a níveis prudenciais de risco.

Year

2012

Creators

Roberto Beier Lobarinhas

Análise de variância utilizando ondaletas

Análise de Variância no contexto de séries temporais possui a inconveniência da presença de correlação entre as observações. Nessa dissertação, foram estudados métodos de análise de sinais, mais precisamente análise de Fourier e análise de ondaletas (Wavelets), que são ferramentas capazes de transformar o sinal original em uma nova entidade matemática descorrelacionada que possui domínio diferente do original, possibilitando a aplicação da análise de variância sem violar a hipótese de independência dessa metodologia. A diferença mais relevante entre as técnicas é que a análise de Fourier é própria para sinais estacionários, enquanto a análise de ondaletas é robusta a sinais não estacionários pelo fato de sua transformada possuir aspecto local. Na comparação dos resultados por meio de dados simulados, ambas as técnicas convergiram para um mesmo resultado. Para aplicação em dados, reais foram utilizadas medidas de Pico de Fluxo Expiratório (PFE) ao longo do tempo de crianças e adolescentes com condição asmática, ou não, e expostas ao fumo domiciliar, ou não. Na aplicação da ANOVA dois fatores, ambas as metodologias convergiram no teste de interação, mas ocorreram algumas divergências nos testes dos fatores isoladamente.

Year

2020

Creators

Deyvid Toledo Santiago de Almeida