Repositório RCAAP
Burn-in e política de manutenção
O burn-in é um método utilizado para prevenir falhas precoces de um objeto (sistema ou componente, melhorando sua qualidade. Em geral, um procedimento de burn-in continua até assegurarmos uma confiabilidade máxima para um tempo de funcionamento prefixado ou minimizarmos o número médio de falhas durante um paríodo prefixado de funcionamento. Foram analisadas as políticas de manutenção por idade e por bloco de objetos reparáveis que tenham sobrevivido a um teste de burn-in. Consideramos reparos completos (no caso de política de manutenção por idade) e reparos mínimos (no caso de política de manutenção por bloco) e minimizamos o custo de uma tal política sobre tais objetos colocados em operação. Em ambas as situações, minimizamos uma estrutura de custo total que inclui o custo do procedimento de burn-in e o custo da política de manutenção
2004
Perseverando da Trindade Garcia Filho
Medidas de ajuste de modelos de equações estruturais
A modelagem de equações estruturais permite especificar como variáveis não observáveis (conhecidas como variáveis latentes) podem ser mensuradas através de variáveis observáveis utilizando equações de mensuração. Ela também permite analisar várias relações de dependência entre variáveis que são intercorrelacionadas utilizando equações estruturais. Esta modelagem é uma extensão das técnicas de análise de regressão multivarida e análise fatorial e está sendo muito utilizada em diversas áreas, tais como: educação, marketing, psicologia, saúde, entre outras. Na estatística, pode ser utilizada na estimação de modelos multivariados como regressão, análise fatorial confirmatória, análise de caminho, entre outros. Neste trabalho, apresenta-se os principais tipos de modelos existentes nessa modelagem, os métodos de estimação para alguns casos típicos de modelos e as medidas de ajuste mais usuais para verificação da qualidade de ajuste dos modelos. Também apresentamos uma aplicação a um exemplo real sobre agricultores familiares modernos de Salto, através do qual tentamos explicitar melhor o uso das medidas de ajuste para esta modelagem.
2004
Tatiana Terabayashi Melhado
Estacionariedade em séries temporais com quebras estruturais
Um dos principais problemas na análise de séries temporais é testar se uma determinada série é estacionária ou não. Séries estacionárias são, grosso modo, séries que mantêm o mesmo comportamento ao longo do tempo. A teoria e várias técnicas de análise já estão bem estabelecidas para essas séries. A análise de séries não-estacionárias, por sua vez, é mais complexa e não existe uma aborgadem geral. Os testes de raiz unitária são os mais utilizados para se testar um tipo específico de não estacionariedade, denominada tendência estocástica ou passeio aleatório. Este trabalho pretende explorar uma abordagem alternativa desenvolvida no contexto de modelos de componentes não-observáveis. São os chamados testes de estacionariedade, que diferem dos testes de raiz unitária pela inversão da hipótese nula. Os testes de estacionariedade vêm apresentando generalizações recentes, possibilitando a aplicação a uma gama mais ampla de séries: com tendência, com sazonalidade e com quebras estruturais. Nessa linha, pretende-se então revisar os principais conceitos relacionados e aplicar esses testes de estacionariedade a séries econômicas brasileiras.
Refinamentos para testes de hipóteses em modelos de regressão lineares e não-lineares heteroscedásticos
Nesta tese tratamos de refinamentos para testes de hipóteses em modelos de regressão lineares e não-lineares heteroscedásticos. Na primeira parte da tese, obtemos uma correção de Bartlett para um teste de heteroscedasticidade baseado em verossimilhança modificada proposta por COX e Reid (1987) no modelo de regressão normal linear considerando que o parâmetro que define a estrutura de heteroscedasticidade é possivelmente multidimensional. Na segunda parte, estendemos esses resultados para a classe dos modelos não-lineares da família exponencial com parâmetros de dipersão que não são constantes para todas as observações. Finalmente, na terceira parte da tese, desenvolvemos novos ajustes para estatísticas da razão de verossimilhanças nesta classse de modelos, desta vez com base nos trabalhos de Skovgaard (1996, 2001). Os resultados assim obtidos são bem gerais e produzem, como caso particular, ajustes para o teste da razão de verossimilhanças de heteroscedasticidade. Desenvolvemos estudos de simulação de Monte Carlo para avaliar e comparar numericamente os desempenhos dos testes em amostras finitas.
2004
Audrey Helen Mariz de Aquino Cysneiros
Seleção de estruturas de covariância para dados com medidas repetidas
Propomos um conjunto de técnicas gráficas e analíticas para o diagnóstico da matriz de covariâncias intra-unidades amostrais em estudos com medidas repetidas. Essas técnicas compreendem a análise das matrizes de covariâncias e correlações amostrais, dos gráficos de dispersão múltipla, dos gráficos de perfis médios e de perfis individuais, dos gráficos de perfis das linhas das matrizes de correlações amostrais em função da defasagem e do variograma amostral das observações padronizadas. A aplicação dessas técnicas é ilustrada por meio de exemplos práticos.
2004
Francisco Marcelo Monteiro da Rocha
Um modelo de regressão beta: teoria e aplicações
Esta dissertação compreende o estudo de um modelo de regressão adequado para situações em que a variável resposta é medida de forma contínua no intervalo unitário como, por exemplo, dados de taxas ou proporções. O trabalho foi baseado no artigo de Ferrari e Cribari-Neto (2004) que propõe um modelo de regressão em que a resposta tem distribuição beta utilizando uma parametrização da lei beta que é indexada pela média e um parâmetro de dispersão. Nossa contribuição está, primeiramente, na avaliação, via simulação, da qualidade das aproximações utilizadas nas inferências sobre os parâmetros em amostras finitas. Em particular, avaliamos o viés do estimador de máxima verossimilhança, a proximidade de sua distribuição à distribuição normal de referência, a distorção do tamanho dos testes de razão de verossimilhanças, escore e Wald e a qualidade da aproximação das distribuições das estatísticas dos testes por uma distribuição qui-quadrado adequada. Desenvolvemos também uma análise e discussão de duas novas aplicações do modelo de regressão beta a conjuntos de dados reais.
2004
Marcos Santos de Oliveira
Pontos de alavanca em regressão
O objetivo principal deste trabalho é apresentar alguns resultados relacionados com pontos de alavanca em modelos de regressão. A idéia básica por trás do conceito de pontos de alavanca é avaliar a influência de cada observação sobre o próprio valor predito. Discutimos no trabalho o cálculo de pontos de alavanca em modelos normais lineares e não-lineares e em seguida em modelos não-lineares de família exponencial, tendo essa última classe como caso particular os modelos lineares generalizados. Exemplos ilustratuvos são apresentados ao longo do texto. Mostramos também que pontos de alavanca são em geral influentes nas estimativas dos parâmetros da regressão e podem ser úteis na detecção de valores da variável resposta para os quais é mais incerto fazer previsão.
Análise de covariância com um fator e erro de medida na covariável
Neste trabalho estudamos o modelo de análise de covariância com um fator e erro de medida na covariável. Apresentamos estimadores de máxima verossimilhança para os parâmetros de interesse e testes para a hipótese de inexistência de efeito de tratamento nos modelos normais funcional e estrutural. Para contonar o problema de não identificabilidade do modelo estrutural ou de não existência de estimadores de máxima verossimilhança no modelo funcional, supomos que a razão entre as variâncias dos erros é conhecida. Desenvolvemos também diversos estudos de simulação para avaliar algumas propriedades dos estimadores propostos e o desempenho dos testes de hipótese apresentados.
2004
Flávio Guardiano de Souza
Um estudo dos modelos polinomiais com erros nas variáveis na função de verossimilhança corrigida e escore corrigido
Neste trabalhao, estudamos os modelos polinomiais com erros nas variáveis considerando as metodológicas da função de verossimilhnça corrigida desenvolvida por Nakamura (1990) e a função escore corrigido desenvolvida por Bolfarine e Gimenez (1997). Exibimos os casos quando o modelo com erros nas variáveis tem um erro aditivo, assim quando este erro é multiplicativo, além disso consideramos os dois possíveis supostos, isto é, quando o modelo funcional é estrutural, logo fazemos uma generalização para modelos multivariados, considerando neste caso os modelos de calibração comparativa. Nos casos onde a função de verossimilhança corrigida exista num modelo aditivo, será considerada um estudo de Influência Local. Consideramos exemplos de Simulação de Monte Carlo e exemplos concretos para cada situação.
2004
Arturo Alejandro Zavala Zavala
Amostragem por linhas transectas e pontos transectos: uma comparação dos estimadores da densidade populacional
Nos estudos de Ecologia freqüentemente é necessário estimar a densidade (D) de populações biológicas (animais ou plantas), definida como o número de elementos por unidade de área. Entre outros, a densidade é considerada como um parâmetro importante em pesquisas sobre a extinção da espécie e também para entidades governamentais que controlam a derrubada de árvores e caça e pesca de animais. Neste trabalho são apresentados estimadores da densidade populacional nos métodos amostrais linhas transectas e pontos transectos. A análise de dados obtidos por esses métodos de amostragem é ilustrada em dados de uma população com distribuição espacial uniforme, gerados via simulação e é apresentada uma comparação entre os estimadores sob os dois métodos.
2004
Diana Milena Galvis Soto
Fenômenos críticos em sistemas de partículas interagentes e suas aplicações na modelagem de mercados financeiros
Apresentamos um modelo estocástico de agentes interagentes que permite investigar a formação de preço em mercados financeiros coo sendo um resultado de dois fatores: a interação social entre agentes e a heterogeneidade de suas crenças individuais. Nós mostramos que nosso modelo exibe transição de fase. Para encontrar as propriedades desta transição, importante para a aplicação, nós analisamos certos sistemas dinâmicos. Tanto a existência de transição de fase quanto os sistemas dinâmicos que emergem deste estudo tornam o modelo interessante do ponto de vista de um estudo matemático. O modelo também é atraente do ponto de vista de aplicação, pois explica a formação de bolhas especulativas e crashes, assim como a multiplicidade de preços de equilíbrio em mercados financeiros.
2004
Fernando Pigeard de Almeida Prado
Modelagem do coeficiente kappa ponderado
O coeficiente kappa ponderado é uma medida muito utilizada para avaliar o grau de concordância entre examinadores. Desenvolvida a partir do coeficiente kappa, ela é indicada para a análise de avaliações feitas em escala ordinal. Supondo que o grau de concordância dos examinadores possa variar com as características de cada unidade amostral ou até mesmo dos próprios examinadores, foi proposta uma modelagem do coeficiente kappa ponderado, que admite a inclusão de covariáveis. O modelo proposto, assim como os modelos lineares generalizados, utiliza funções de ligação para modelar as probabilidades de classificação de cada juiz e posteriormente o coeficiente kappa ponderado. A estimação do modelo é feita a partir de equações de estimação generalizadas. Este texto apresenta a teoria da modelagem do coeficiente kappa ponderado, bem como macros em S e SAS para a estimação dos modelos. Apresenta também uma aplicação com dados reais.
2004
Rogério Ruscitto do Prado
Ajustes para a estatística da razão de verossimilhanças sinalizada em modelos normais não lineares
A estatística da razão de verossimilhanças sinalizada (R) tem, assintoticamente, distribuição normal padrão com um erro de ordem O ('n POT -1/2'). Em amostras pequenas ou de tamanho moderado, a aproximação normal para a distribuição de R pode ser bem imprecisa. Diversos ajustes para esta estatística são apresentados na literatura, entre os quais, destacamos a estatística da razão de verossimilhanças sinalizada modificada ('R POR. *') proposta por Barndorff-Nielsen (1986, 1991), a estatística 'R POT. * IND. 0' proposta por DiCiccio e Martin (1993) para o caso em que os parâmetros são ortogonais, a estatística 'R BARRA POT. *' baseada em covariâncias proposta por Skovgaard (1996), a estatística 'R POT. *' baseada em covariâncias empíricas proposta por Severini (1999) e, finalmente, a estatística 'R POT. *' baseada numa estatística aproximadamente ancilar proposta por Fraser, Reid e Wu (1999). Nessa dissertação obtivemos estas estatísticas para os modelos de regressão normais lineares e não lineares e, através de um estudo de simulação, fizemos uma comparação dos desempenhos nas diversas estatísticas consideradas. Por fim, aplicamos os resultados teóricos a dados reais.
Evidência em testes de hipótese:: alguns casos relacionados à distribuição binomial
Os testes de hipóteses representam uma ferramenta básica para a verificação de teorias científicas. Em diferentes áreas, a partir dos dados coletados, os pesquisadores queremavaliar se sua hipótese de trabalho está sendo estatisticamente corroborada ou refutada. Buscam uma medida da evidência que os resultados lhes trazem. Neste trabalho, procuramos discutir os métodos padrão para os testes de hipóteses com foco principal na questão da evidência. Estudamos a utilização direta da razão de verossimilhanças para alguns problemas comuns relacionados à distribuição binomial. Quanto à controvertida questão das hipóteses precisas, analisamos as medidas de evidência tradicionais e consideramos a utilização da nova metodologia de teste denominada FBST. Nesse sentido, comparamos as diferentes medidas em testes para proporção, teste de homogeneidade e teste de independência.
2004
José Marcelo Biagioni Baroni
Simulação perfeita de processos de nascimento e morte espaciais
Apresentamos um método que permite enumerar subconjuntos de contornos de Peierls (também denominados animals) no modelo de Ising ferromagnético em baixas temperaturas em uma rede quadrada. Um amostrador exato para os contornos de Peierls é apresentado. Apresentamos também um algoritmo dinêmico, baseado no MCMC, para amostrar tais objetos. Como aplicação, consideramos a medida de Gibbs expressa em termos dos contronos para simular pela primeira vez o modelo de Ising em baixas temperaturas, de acordo com o 'Backward Forward Algorithm', proposto recentemente por Ferrari, Fernández and Garcia [3]. Este algoritmo permite obter amostras perfeitas em janelas finitas de medidas em volume infinito e é válido para medidas absolutamente contínuas em relação a um processo de Poisson. Um modo alternativo de simular este processo no contexto do BFA também é apresentado.
2004
Marcos Antonio da Cunha Santos
Reamostragem ponderada em blocos para cadeias de Markov
Dada uma seqüência de realizações de uma cadeia de Markov em tempo discreto e espaço de estados finito, estimamos a distribução de probabilidade amostral das tansições dos estados e da medida invariante usando o método de reamostragem. Discutilos alguns métodos exitentes na literatura e propomos dois novos métodos de reamostragem com o objetivo de reduzir o esforço computacional e garantir a redução da variância. Para tanto, consideramos algumas recentes idéias no contexto de classificação, tais como o Adaboost, na estimação desta distribuição. Alguns resultados numéricos ilustram e nos fornecem evidências para os métodos propostos.
Análise estatística de expressão gência por SAGE (Serial Analysis of Gene Expression)
No presente trabalho fizemos uma revisão bibliográfica sobre os principais métodos estatísticos utilizados atualmente para a análise de dados de expressão gênica obtidos pela técnica de Biologia Molecular conhecida como SAGE - Serial Analysis of Gene Expression, ou Análise Serial de Expressão Gênica. Além de dar o panorama do estado-da-arte na área, apresentamos dois métodos originais desenvolvidos neste Projeto de Mestrado: SAGEci, para construção de intervalos de credibilidade para razões de expressão, e SAGEbetaBIN, para incorporação da variabilidade biológica intrínseca às bibliotecas na identificação de genes diferencialmente expressos por meio de misturas
2004
Ricardo Zorzetto Nicoliello Vêncio
Modelos de filas com desistências
O objetivo deste trabalho é estudar possíveis melhoras no atendimento de usuários em um sistema de filas, através de informações disponibilizadas aos clientes. Em geral, na visão dos usuários, a qualidade do atendimento est,a fortemente ligada ao tempo necessário à conclusão do serviço. Entretanto, nem sempre é possível atender prontamente a todas as solicitações. Nesse caso, uma possível contribuição à satisfação do cliente seria informá-lo, no instante de sua chegada, sobre a previsão de tempo de espera até que seja devidamente atendido. A partir dessa informação, o usuário pode concluir ser melhor desistir de esperar e sair do sistema. Buscando modelar esses sistemas de atendimento, estuda-se um modelo de filas com disistências. O modelo considera três peculiaridades: impedimento (blocking), recusa (balking) e abandono (reneging), além das características usuais de uma fila. Apresenta-se a estrutura matemática envolvida e, através de simulação, avalia-se o comportamento do sistema sujeito a perturbações. O interesse concentra-se nos efeitos das diferentes características da tolerância dos usuários nas medidas de performance.
Curvas de referência não linearizáveis baseadas em dados longitudinais.
Intervalos de referência são usados para detectar a ocorência de valores extremos e/ou inesperados na mensuração de certas características biométricas e sua especificação é feita pela estimação de percentis. Este trabalho considera a construção de intervalos de referência baseados em dados longitudinais em situações nas quais a relação entre a característica de interesse e a variável explicativa não é linear. Nestas situações, os intervalos de referência são determinados pela estimação de curvas de referência que podem ser calculadas como funções dos parâmetros de um modelo não linear hierárquico.
2004
Alexandre Ryuzo Shinzato
Regressão com erros de medida e pontos de mudança utilizando metodologia bayesiana.
O objetivo principal dese estudo foi analisar os modelos de regressão linear estrutural Normal e t-Student com erros nas variáveis, com mudança abrupta em um ou mais parâmetros após o k-ésimo ponto desconhecido (ponto de mudança) de uma seqüência finita de observações, utilizando métodos bayesianos de análise de dados. A análise inferencial envolveu o problema de detectar a existência de mudança nos parâmetros, estimar o ponto de mudança k e os demais parâmetros, e também fazer a análise preditiva. O modelo Normal com erros de medida e sem pontos de mudança foi analisado sob diferentes escolhas de distribuição à priori incluindo também prioris impróprias. Foram demonstrados teoremas que estabelecem condições para a existência das distribuiçòes posterioris nos modelos Normal e t-Student com erros deoendentes (com e sem ponto de mudança) sob algumas escolhas específicas de prioris impróprias. Alguns algoritmos do tipo MCMC ('Markov Chain Monte Carlo') foram utilizados com o objetivo de amostrar das posterioris, como os algoritmos de 'Gibbs', 'Grouped Gibbs', 'Modified and Collapsed Gibbs' e 'Metrópolis-Hastings em Gibbs'. Foi feita uma análise de sensibilidade a variações nos valores dos seguintes hiperparâmetros: razão das variâncias residuais (nos modelos identificáveis) e o número de graus de liberdade da distribuição t (quando este é assumido conhecido). A qualidade do ajuste dos modelos foi avaliada utilizando resíduos bayesianos de validação cruzada
2004
Daisy Gomes de Souza Tu