Repositório RCAAP

\"Regressão beta\"

Muitos estudos em diferentes áreas examinam como um conjunto de variáveis influencia algum tipo de percentagem, proporção ou frações. Modelos de regressão lineares não são satisfatórios para modelar tais dados. Uma classe de modelos de regressão beta que em muitos aspectos é semelhante aos modelos lineares generalizados foi proposto por Ferrari e Cribari--Neto~(2004). A resposta média é relacionada com um predictor linear por uma função de ligação e o predictor linear envolve covariáveis e parâmetros de regressão desconhecidos. O modelo também é indexado por um parâmetro de precisão. Smithson e Verkuilen,(2005), entre outros, consideram o modelo de regressão beta em que esse parâmetro varia ao longo das observações. Nesta tese foram desenvolvidas técnicas de diagnóstico para os modelos regressão beta com dispersão constante e com dispersão variável, sendo que o método e influência local (Cook,~1986) mostrou-se decisivo, inclusive no sentido de identificar dispersão variável nos dados. Adicionalmente, avaliamos através de estudos de simulação o desempenho de estimadores de máxima verossimilhança para o modelo de regressão beta com dispersão variável, as conseqüências de estimar o modelo supondo dispersão constante quando de fato ela é variável e de testes assintóticos para testar a hipótese de dispersão constante. Finalmente, utilizando um esquema de bootstrap (Davison e Hinkley,1997), desenvolvemos um procedimento de obtenção de limites de predição para o modelo de regressão com dispersão constante. Ilustramos a teoria desenvolvida com várias aplicações a dados reais.

Ano

2007

Creators

Patricia Leone Espinheira Ospina

Inferência bayesiana em modelos de dinâmica de populações biológicas com termo de perturbação assimétrico

Neste trabalho de tese, estudamos o modelo de crescimento logístico de populações biológicas utilizando a abordagem de espaço de estados. Os estados não observados são as biomassas anuais, a equação de observação é linear e a equação de estado é não linear. As distribuições de probabilidade utilizadas para os termos de erro de observação aditivos são: Normal, t-student, Skew-normal e Skew-t. As distribuições Log-normal, Log-t, Log-skew-normal e Log-skew-t são consideradas para os erros de observação multiplicativos. A inferência nos modelos é realizada considerando-se métodos Bayesianos e as distribuições a posterior de interesse são aproximadas utilizando-se algoritmos MCMC e a aproximação de Laplace. Apresentamos duas aplicações, a primeira referente a pesca de camarão marinho na costa do Chile, na qual a variável observável é o rendimento médio anual de pesca (captura por unidade de esforço média). Na segunda é considerada a pesca de lagostim vermelho na costa de Chile, na qual além do rendimento médio anual da pesca, observa-se as estimativas anuais de biomassa vulnerável, obtidas através de estudos de área varrida. Para o primeiro conjunto de dados, os modelos com erros de observação multiplicativos têm melhor performance, particularmente os modelos Log-skew-normal e Log-skew-t. Considerando estes resultados, no segundo caso utilizamos somente erros multiplicativos e a distribuição a posteriori preditiva mostra que cada variável observável parece ter sua própria família de distribuição de probabilidades. Além disso, os resultados também revelam uma crescente complexidade do modelo ao incorporar a classe mais geral de distribuições assimétricas.

Ano

2016

Creators

Carlos Patricio Montenegro Silva

Modelos de regressão para dados censurados sob distribuições simétricas

Este trabalho tem como objetivo principal apresentar uma abordagem clássica e Bayesiana dos modelos lineares com observações censuradas, que é uma nova área de pesquisa com grandes possibilidades de aplicações. Aqui, substituimos o uso convencional da distribuição normal para os erros por uma família de distribuições mais flexíveis, o que nos permite lidar de forma mais adequada com observações censuradas na presença de outliers. Esta família é obtida através de um mecanismo de fácil construção e possui como casos especiais as distribuições t de Student, Pearson tipo VII, slash, normal contaminada e, obviamente, a normal. Para o caso de respostas correlacionadas e censuradas propomos um modelo de regressão linear robusto baseado na distribuição t de Student, desenvolvendo um algoritmo tipo EM que depende dos dois primeiros momentos da distribuição t de Student truncada.

Ano

2014

Creators

Aldo William Medina Garay

Novos modelos estatísticos de resposta limitada para dados de compreensão leitora com estruturas dependentes

No campo da modelagem, na aplicação prática encontramos conjuntos de dados os quais apre- sentam relações que dependem do instrumento de medição ou das unidades da análise localizadas no espaço as mesmas que possuem características comúns com outras unidades ao redor delas. Simultaneamente, as variáveis de resposta têm a característica de estar restrita no intervalo unitário. Ambas situações, a dependência e a restrição do soporte nas variáveis respostas, presentes na realidade, são abordadas de forma conjunta na presente tese. As relações de dependência geradas pelo instrumento de medição, como o caso das provas de Compreensão leitora são abordadas com a inclusão de efeitos aleatórios, os quais conseguem modelar relaçoes para estruturas específicas geradas pelo instrumento de medição. As relações geradas na análise de unidades com localização espacial incluem também um efeito aleatório, sui generis, com a intenção de modelar tais relações no contexto dos modelos de regressão. Ademais, o suporte das variáveis são modelados considerando distribuições com suporte no intervalo (0,1) como é o caso das distribuições Beta, Simplex ou Kumaraswamy. Estas propriedades específicas dos conjuntos de dados analizados têm o propósito de sugerir um modelo geral o qual abrange as relações de dependência e respostas limitadas de forma conjunta com a intenção de apresentar no presente trabalho modelos adequados com a realidade, a qual é evidenciada nos conjuntos de dados de Compreensão Leitora analizados no presente trabalho, para atingir o objetivo de obter estimativas realistas.

Ano

2020

Creators

Sandra Elizabeth Flores Ari

Avaliação de métodos de imputação na variável Receita das empresas da Pesquisa Anual de Comércio - PAC-IBGE

O presente trabalho utiliza as informações da Pesquisa Anual do Comércio - PAC, uma das quatro pesquisas econômicas estruturais do IBGE, para avaliar o Modelo de Imputação atual da pesquisa comparando-o com outros modelos disponíveis na literatura. Foi feito um recorte da base da PAC-IBGE dos anos de 2014 e 2015 e foram testados vinte modelos de imputação. Na PAC, tem sido observado um aumento do impacto das não-respostas nas estimativas de seus totais. Isto deriva da alta assimetria das variáveis econômicas em conjunto com o pequeno número de empresas de alguns estratos, somados ainda ao aumento populacional de algumas atividades econômicas - e, por consequência, dos pesos amostrais - e ainda do elevado número de mortes (fechamento) de empresas pequenas. Tais problemas apresentados geram a necessidade de se estudar alternativas de tratamento para essas empresas não-respondentes. Os modelos foram analisados selecionando algumas empresas aleatoriamente e assumindo que elas não tivessem respondido à pesquisa. Posteriormente, essas empresas foram submetidas aos modelos de imputação selecionados e os resultados foram avaliados utilizando Erro Quadrático Médio (EQM) e Variação Percentual (VP) dos totais estimados contra o real. Foi escolhida a variável de RECEITA para ser usada nos testes. Os modelos utilizados podem ser agrupados em quatro grupos: de médias de respondentes; através de uma regressão com uso de variáveis auxiliares de cadastro; média dos respondentes mais próximos através de uma função distância; e através de uma regressão dos respondentes mais próximos com uso de uma função distância. Ao final das análises, verificou-se que apesar de alguns modelos também terem tido bons desempenhos, não foi observado um fator relevante que indique a troca do modelo atual de imputação utilizado na PAC-IBGE.

Ano

2019

Creators

João Carlos Silva Rodrigues

A distribuição Kumaraswamy normal: propriedades, modelos de regressão linear e diagnóstico

No presente trabalho, são estudadas propriedades de uma distribuição pertencente à classe de distribuições Kumaraswamy generalizadas, denominada Kumaraswamy normal, formulada a partir da distribuição Kumaraswamy e da distribuição normal. Algumas propriedades estudadas são: expansão da função densidade de probabilidade em série de potências, função geradora de momentos, momentos, função quantílica, entropia de Shannon e de Rényi e estatísticas de ordem. São construídos dois modelos de regressão lineares do tipo localização-escala para a distribuição Kumaraswamy normal, um para dados sem censura e o outro com a presença de observações censuradas. Os parâmetros dos modelos são estimados pelo método de máxima verossimilhança e algumas medidas de diagnóstico, como influência global, influência local e resíduos são desenvolvidos. Para cada modelo de regressão é realizada uma aplicação a um conjunto de dados reais.

Ano

2019

Creators

Elizabete Cardoso Machado

Modelos de regressão beta com erro nas variáveis

Neste trabalho de tese propomos um modelo de regressão beta com erros de medida. Esta proposta é uma área inexplorada em modelos não lineares na presença de erros de medição. Abordamos metodologias de estimação, como máxima verossimilhança aproximada, máxima pseudo-verossimilhança aproximada e calibração da regressão. O método de máxima verossimilhança aproximada determina as estimativas maximizando diretamente o logaritmo da função de verossimilhança. O método de máxima pseudo-verossimilhança aproximada é utilizado quando a inferência em um determinado modelo envolve apenas alguns mas não todos os parâmetros. Nesse sentido, dizemos que o modelo apresenta parâmetros de interesse como também de perturbação. Quando substituímos a verdadeira covariável (variável não observada) por uma estimativa da esperança condicional da variável não observada dada a observada, o método é conhecido como calibração da regressão. Comparamos as metodologias de estimação mediante um estudo de simulação de Monte Carlo. Este estudo de simulação evidenciou que os métodos de máxima verossimilhança aproximada e máxima pseudo-verossimilhança aproximada tiveram melhor desempenho frente aos métodos de calibração da regressão e naïve (ingênuo). Utilizamos a linguagem de programação Ox (Doornik, 2011) como suporte computacional. Encontramos a distribuição assintótica dos estimadores, com o objetivo de calcular intervalos de confiança e testar hipóteses, tal como propõem Carroll et. al.(2006, Seção A.6.6), Guolo (2011) e Gong e Samaniego (1981). Ademais, são utilizadas as estatísticas da razão de verossimilhanças e gradiente para testar hipóteses. Num estudo de simulação realizado, avaliamos o desempenho dos testes da razão de verossimilhanças e gradiente. Desenvolvemos técnicas de diagnóstico para o modelo de regressão beta com erros de medida. Propomos o resíduo ponderado padronizado tal como definem Espinheira (2008) com o objetivo de verificar as suposições assumidas ao modelo e detectar pontos aberrantes. Medidas de influência global, tais como a distância de Cook generalizada e o afastamento da verossimilhança, são utilizadas para detectar pontos influentes. Além disso, utilizamos a técnica de influência local conformal sob três esquemas de perturbação (ponderação de casos, perturbação da variável resposta e perturbação da covariável com e sem erros de medida). Aplicamos nossos resultados a dois conjuntos de dados reais para exemplificar a teoria desenvolvida. Finalmente, apresentamos algumas conclusões e possíveis trabalhos futuros.

Ano

2012

Creators

Jalmar Manuel Farfan Carrasco

Transformações em modelos de séries temporais

Cordeiro e Andrade (2009) incorporam a ideia de variável resposta transformada ao modelo GARMA, autorregressivo e de médias móveis generalizado, introduzido por Benjamin et al. (2003), desenvolvendo assim, o modelo TGARMA, autorregressivo e de médias móveis generalizado transformado. O objetivo do presente trabalho é desenvolver o modelo TGARMA introduzido por Cordeiro e Andrade (2009) para distribuições condicionais simétricas contínuas com e sem heteroscedasticidade e uma possível função não linear para os parâmetros de regressão. Ao longo desta tese derivamos um processo iterativo para estimar os parâmetros desses modelos por máxima verossimilhança. Nós produzimos uma fórmula simples para estimar o parâmetro que define a transformação da variável resposta para uma subclasse de modelos. Fornecemos os momentos para a variável dependente original. Para o modelo homoscedástico, discutimos inferência de alguns parâmetros, propomos uma análise de diagnóstico e a definição de um resíduo padronizado. Finalmente, para ilustrar a teoria desenvolvida, tanto no caso homoscedástico quanto no caso heteroscedástico, utilizamos conjuntos de dados reais e avaliamos os resultados desenvolvidos por meio de estudos de simulação.

Ano

2012

Creators

Amanda dos Santos Gomes

Estratégias para tratamento de variáveis com dados faltantes durante o desenvolvimento de modelos preditivos

Modelos preditivos têm sido cada vez mais utilizados pelo mercado a fim de auxiliarem as empresas na mitigação de riscos, expansão de carteiras, retenção de clientes, prevenção a fraudes, entre outros objetivos. Entretanto, durante o desenvolvimento destes modelos é comum existirem, dentre as variáveis preditivas, algumas que possuem dados não preenchidos (missings), sendo necessário assim adotar algum procedimento para tratamento destas variáveis. Dado este cenário, este estudo tem o objetivo de discutir metodologias de tratamento de dados faltantes em modelos preditivos, incentivando o uso de algumas delas já conhecidas pelo meio acadêmico, só que não utilizadas pelo mercado. Para isso, este trabalho descreve sete metodologias. Todas elas foram submetidas a uma aplicação empírica utilizando uma base de dados referente ao desenvolvimento de um modelo de Credit Score. Sobre esta base foram desenvolvidos sete modelos (um para cada metodologia descrita) e seus resultados foram avaliados e comparados através de índices de desempenho amplamente utilizados pelo mercado (KS, Gini, ROC e Curva de Aprovação). Nesta aplicação, as técnicas que apresentaram melhor desempenho foram a que tratam os dados faltantes como uma categoria à parte (técnica já utilizada pelo mercado) e a metodologia que consiste em agrupar os dados faltantes na categoria conceitualmente mais semelhante. Já a que apresentou o pior desempenho foi a metodologia que simplesmente não utiliza a variável com dados faltantes, outro procedimento comumente visto no mercado.

Ano

2012

Creators

Fernando Assunção

Modelos multivariados binários com funções de ligação assimétricas

Conjuntos de dados com respostas multivariadas aparecem frequentemente em pesquisas em que os dados são provenientes de questionários. Exemplos mais comuns são pesquisas de opinião, mais especificamente, pesquisas de marketing em que a preferência do consumidor em potencial é avaliado: pelo produto, marca, preço, praça, promoção e etc. Um tipo pesquisa de opinião que ganha grande destaque no Brasil de dois em dois anos são as pesquisas eleitorais de intenção de votos. Nós introduzimos nesta tese uma classe de modelos de regressão multivariados com funções de ligação assimétricas para o ajuste de conjuntos de dados com respostas multivariadas binárias. As funções de ligação consideradas são bastante flexíveis e robustas, contemplando funções de ligação simétricas como casos particulares. Devido a complexidade do modelo, nós discutimos a sua identificabilidade. A abordagem Bayesiana foi considerada e alguns algoritmos de Monte Carlo via Cadeia de Markov (MCMC) foram desenvolvidos. Nós descrevemos algumas ferramentas de seleção de modelos, os quais incluem o Critério de Informação da Deviance (DIC), a Pseudo-Verossimilhança Marginal e o Pseudo-Fator de Bayes. Adicionalmente, um estudo de simulação foi desenvolvido com dois objetivos; i) verificar a qualidade dos algoritmos desenvolvidos e ii) verificar a importância da escolha da função de ligação . No final da tese uma aplicação em um conjunto de dados real é considerada com o objetivo de ilustrar as metodologias e técnicas apresentadas.

Ano

2012

Creators

Rafael Braz Azevedo Farias

Aplicações do approximate Bayesian computation a controle de qualidade

Neste trabalho apresentaremos dois problemas do contexto de controle estatístico da qualidade: monitoramento \"on-line\'\' de qualidade e environmental stress screening, analisados pela óptica bayesiana. Apresentaremos os problemas dos modelos bayesianos relativos a sua aplicação e, os reanalisamos com o auxílio do ABC o que nos fornece resultados de uma maneira mais rápida, e assim possibilita análises diferenciadas e a previsão novas observações.

Ano

2015

Creators

Thiago Feitosa Campos

Simulação perfeita da distribuição normal multivariada truncada

No presente trabalho apresentamos o algoritmo de simulacão perfeita CFTP, proposto em Propp & Wilson (1996). Seguindo o trabalho de Philippe & Robert (2003) implementamos o CFTP gerando amostras da distribuicão normal bivariada truncada no quadrante positivo. O algoritmo proposto e comparado com o amostrador de Gibbs e o método de rejeição. Finalmente, apresentamos sugestões para a implementação do CFTP para gerar amostras da distribuição normal truncada em dimensões maiores que dois e a geração de amostras em conjuntos diferente do quadrante positivo.

Ano

2010

Creators

Thiago Feitosa Campos

Sistemas de partículas interagentes aplicados a dinâmicas sociais: modelos de confiança limitada

Aplicações de processos estocásticos a dinâmicas sociais constituem tema de grande relevância nos últimos anos. Especialmente desafiadores são os modelos de opinião com confiança limitada dada a sua falta de linearidade. Com isso, simulações e resultados numéricos possuem elevada importância. Neste trabalho, focamos em dois dos principais modelos de confiança limitada, nomeadamente os modelos de Hegselmann-Krause e de Deffuant-Weisbuch. Em ambos os casos, e necessário que a diferença de opiniões entre dois dados agentes seja menor que o limite de confiança, parâmetro do modelo. Porém, enquanto no modelo de Hegselmann-Krause a interação a cada etapa se dá entre todos os agentes vizinhos entre si, no modelo de Deffuant-Weisbuch a interação ocorre entre apenas dois agentes por vez. Apresentamos aqui uma revisão da literatura associada ao tema, incluindo resultados numéricos e analíticos sobre o comportamento de ambos os modelos, principalmente no tocante a convergência e condições em que se estabelecem o consenso ou a fragmentação de opiniões.

Ano

2016

Creators

Ivan Costa Bernardo

Teoremas fundamentais para o caminho mais curto entre duas sequências

Dans ce travail, nous étudions les propriétés de le chemin le plus court entre deux sequences, et en présente trois principaux résultats: Le premier est le comportement asymptotique de le chemin le plus court comme une fonction linéaire de la taille de les cylindres. Le deuxième est un principe de grandes déviations pour cette quantitée. Et le troisième est de la convergence en distribution d\'une version re-mise à l\'échelle de cette variable aleatorie.

Ano

2015

Creators

Rodrigo Lambert

Diagnóstico no modelo de regressão logística ordinal

Os modelos de regressão logística ordinais são usados para descrever a relação entre uma variável resposta categórica ordinal e uma ou mais variáveis explanatórias. Uma vez ajustado o modelo de regressão, se faz necessário verificar a qualidade do ajuste do modelo. As estatísticas qui-quadrado de Pearson e da razão de verossimilhanças não são adequadas para acessar a qualidade do ajuste do modelo de regressão logística ordinal quando variáveis contínuas estão presentes no modelo. Para este caso, foram propostos os testes de Lipsitz, a versão ordinal do teste de Hosmer-Lemeshow e os testes qui-quadrado e razão de verossimilhanças de Pulkistenis-Robinson. Nesta dissertação é feita uma revisão das técnicas de diagnóstico disponíveis para os Modelos logito cumulativo, Modelos logito categorias adjacentes e Modelos logito razão contínua, bem como uma aplicação a fim de investigar a relação entre a perda auditiva, o equilíbrio e aspectos emocionais nos idosos.

Ano

2019

Creators

Marina Calais de Freitas Moura

Propriedades assintóticas e estimadores consistentes para a probabilidade de clustering

Considere um processo estocástico X_m em tempo discreto definido sobre o alfabeto finito A. Seja x_0^k-1 uma palavra fixa sobre A^k. No estudo das propriedades estatísticas na teoria de recorrência de Poincaré, é clássico o estudo do tempo decorrente até que a sequência fixa x_0^k-1 seja encontrada em uma realização do processo. Tipicamente, esta é uma quantidade exponencialmente grande com relação ao comprimento da palavra. Contrariamente, o primeiro tempo de retorno possível para uma sequência dada está definido como sendo o mínimo entre os tempos de entrada de todas as sequências que começam com a própria palavra e é uma quantidade tipicamente pequena, da ordem do tamanho da palavra. Neste trabalho estudamos o comportamento da probabilidade deste primeiro retorno possível de uma palavra x_0^k-1 dado que o processo começa com ela mesma. Esta quantidade mede a intensidade de que, uma vez observado um conjunto alvo, possam ser observados agrupamentos ou clusters. Provamos que, sob certas condições, a taxa de decaimento exponencial desta probabilidade converge para a entropia para quase toda a sequência quando k diverge. Apresentamos também um estimador desta probabilidade para árvores de contexto e mostramos sua consistência.

Ano

2014

Creators

Mariana Pereira de Melo

Passeios aleatórios em redes finitas e infinitas de filas

Um conjunto de modelos compostos de redes de filas em grades finitas servindo como ambientes aleatorios para um ou mais passeios aleatorios, que por sua vez podem afetar o comportamento das filas, e desenvolvido. Duas formas de interacao entre os passeios aleatorios sao consideradas. Para cada modelo, e provado que o processo Markoviano correspondente e recorrente positivo e reversivel. As equacoes de balanceamento detalhado sao analisadas para obter a forma funcional da medida invariante de cada modelo. Em todos os modelos analisados neste trabalho, a medida invariante em uma grade finita tem forma produto. Modelos de redes de filas como ambientes para multiplos passeios aleatorios sao estendidos a grades infinitas. Para cada modelo estendido, sao especificadas as condicoes para a existencia do processo estocastico na grade infinita. Alem disso, e provado que existe uma unica medida invariante na rede infinita cuja projecao em uma subgrade finita e dada pela medida correspondente de uma rede finita. Finalmente, e provado que essa medida invariante na rede infinita e reversivel.

Ano

2017

Creators

Mark Andrew Gannon

Generalizações e teoremas limites para modelos estocásticos de rumores

Os modelos de Daley-Kendall e Maki-Thompson são os dois modelos estocásticos para difusão de rumores mais citados até o momento. Em ambos, uma população finita fechada e totalmente misturada é subdividida em três classes de indivíduos denominados ignorantes, informantes e contidos. Depois de um rumor ser introduzido na população, difunde-se através desta seguindo determinadas regras que dependem da classe à qual a pessoa que sabe do rumor pertence. Tanto a proporção final de indivíduos que nunca chegam a conhecer o rumor quanto o tempo que este demora em ser difundido são variáveis de interesse para os modelos propostos. As técnicas encontradas na literatura para estudar modelos de rumores são o princípio de difusão de constantes arbitrárias; argumentos de martingais; o método de funções geradoras e a análise de versões determinísticas do processo. Neste trabalho apresentamos uma alternativa para essas técnicas baseando-nos na teoria de cadeias de Markov \"density dependent\'\'. O uso desta nova abordagem nos permite apresentar resultados assintóticos para um modelo geral que tem como casos particulares os famosos modelos de Daley-Kendall e Maki-Thompson, além de variações de modelos de rumores apresentados na literatura recentemente.

Ano

2010

Creators

Pablo Martin Rodriguez

Fully Bayesian modeling for fMRI group analysis

Functional magnetic resonance imaging or functional MRI (fMRI) is a non-invasive way to assess brain activity by detecting changes associated with blood flow. In this thesis, we propose a fully Bayesian procedure to analyze fMRI data for individual and group stages. For the individual stage, we use a Matrix-Variate Dynamic Linear Model (MDLM), where the temporal dependence is modeled through the state parameters and the spatial dependence is modeled only locally, taking the nearest neighbors of each voxel location. For the group stage, we take advantage of the posterior distribution of the state parameters obtained at the individual stage and create a new posterior distribution that represents the updated beliefs for the group analysis. Since the posterior distribution for the state parameters is indexed by the time t, we propose three options for algorithms that allow on-line estimated curves for the state parameters to be drawn and posterior probabilities to be computed in order to assess brain activation for both individual and group stages. We illustrate our method through two practical examples and offer an assessment using real resting-state data to compute empirical false-positive brain activation rates. Finally, we make available the R package BayesDLMfMRI to perform task-based fMRI data analysis for individual and group stages using the method proposed in this thesis.

Ano

2019

Creators

Johnatan Cardona Jiménez

Seleção de modelos para segmentação de sequências simbólicas usando máxima verossimilhança penalizada

O problema de segmentação de sequências tem o objetivo de particionar uma sequência ou um conjunto delas em um número finito de segmentos distintos tão homogêneos quanto possível. Neste trabalho consideramos o problema de segmentação de um conjunto de sequências aleatórias, com valores em um alfabeto $\\mathcal$ finito, em um número finito de blocos independentes. Supomos ainda que temos $m$ sequências independentes de tamanho $n$, construídas pela concatenação de $s$ segmentos de comprimento $l^{*}_j$, sendo que cada bloco é obtido a partir da distribuição $\\p _j$ em $\\mathcal^{l^{*}_j}, \\; j=1,\\cdots, s$. Além disso denotamos os verdadeiros pontos de corte pelo vetor ${{\\bf k}}^{*}=(k^{*}_1,\\cdots,k^{*}_)$, com $k^{*}_i=\\sum _{j=1}^l^{*}_j$, $i=1,\\cdots, s-1$, esses pontos representam a mudança de segmento. Propomos usar o critério da máxima verossimilhança penalizada para inferir simultaneamente o número de pontos de corte e a posição de cada um desses pontos. Também apresentamos um algoritmo para segmentação de sequências e realizamos algumas simulações para mostrar seu funcionamento e sua velocidade de convergência. Nosso principal resultado é a demonstração da consistência forte do estimador dos pontos de corte quando o $m$ tende ao infinito.

Ano

2013

Creators

Bruno Monte de Castro