Teoria
Teste de Dickey-Fuller Robusto Baseado nos Ranks Para Séries Temporais com Observações Atípicas
Este trabalho investiga a probabilidade de rejeitar a hipótese nula, H_0: I(1), quando o teste de Dickey-Fuller (DF) é aplicado em processos autorregressivos (AR) na presença de outliers aditivos. Em particular, o teste de Dickey-Fuller, baseado nos postos (ranks), é sugerido como metodologia alternativa para testar raízes unitárias em séries temporais com outliers do tipo aditivo. Os resultados empíricos e teóricos dão suporte do uso da metodologia proposta para aplicação prática. A série do número de moscas, analisadas em Wei (1994), é considerada neste estudo para explicar o uso do teste proposto.
Modelo Dinâmicos Para Dados Agregados
Com base na abordagem bayesiana de Modelos Dinâmicos, séries de tempo de dados composicionais são modeladas para análises de previsão e de comportamento. Por se tratar de dados convertidos para a escala de proporções relativas a uma série agregada, os modelos são construídos utilizando-se de transformações razão-log e distribuição Logística-Normal, nos casos em que se assume a normalidade dos dados. Para casos mais gerais, os modelos baseiam-se na classe dos Modelos Lineares Dinâmicos Generalizados (MLDG), e em dados com distribuição Beta, e tais desenvolvimentos consistem em contribuições inéditas na área de modelos dinâmicos.
Modelos para Dados de Contagem com Estrutura Temporal
Neste estudo, discutimos a aplicação de modelos da classe dos modelos lineares dinâmicos generalizados (MLDG) e o modelo Poisson autoregressivo (PAR) na modelagem de séries temporais de contagens. Entre os modelos discutidos, consideramos modelos de sobredispersão, modelos com estrutura sazonal e modelos de mistura para dados de contagem inflacionados de zeros. Nosso interesse é verificar as vantagens e desvantagens entre as diferentes modelagens e que informações cada uma destas pode revelar a respeito do processo sob estudo. Todo o procedimento de inferência é feito sob o enfoque bayesiano, isto é, atribuímos uma distribuição a priori para os parâmetros de interesse de cada modelo a fim de obter a distribuição a posteriori, que, em nosso caso, não é conhecida. Métodos de Monte Carlo via cadeias de Markov (MCMC na sigla em inglês) são utilizados para obter amostras desta distribuição. Em modelos dinâmicos, obter amostras da distribuição a posteriori dos parâmetros de interesse exige certa cautela. Há diferentes propostas na literatura sugerindo diferentes maneiras de se obter amostras destes parâmetros. Entre as mais recentes está o CUBS (do inglês Conjugate Updating Backward Sampling), proposto por Ravines (2007). Neste trabalho, também temos interesse em discutir esta metodologia aplicada na estimação de parâmetros de modelos dinâmicos para séries temporais de contagens e investigar o seu desempenho.
Aproximações Determinísticas para Distribuições a Posteriori Marginais
Um dos grandes desafios em estatística Bayesiana é obter, quando não há solução analítica disponível, aproximações para distribuições a posteriori marginais de forma precisa e eficiente. Nessa dissertação é feita uma revisão na literatura de métodos determinísticos para este fim em um contexto geral, e mostra-se que ainda há modelos de importância atual que são melhor estimados ao utilizar estes métodos em vez dos baseados em simulação. O método Integrated Nested Laplace Approximations (INLA), aplicado na importante classe de modelos que envolvem Campos Aleatórios Markovianos Gaussianos (CAMG), é descrito e, através de exemplificação, uma discussão qualitativa sobre o método é apresentada. Foi proposta a utilização do INLA para realização de inferência em modelos dinâmicos Bayesianos para processos pontuais espaço-temporais ao invés da abordagem usual que utiliza Markov Chain Monte Carlo (MCMC). Por fim, é apresentada uma importante extensão do INLA, onde a dependência entre o conjunto de dados e o campo latente, da forma como apresentada na descrição do INLA, é generalizada.
Teste de completa aleatoriedade espacial baseado em medidas de distância e ângulo
A execução de testes de completa aleatoriedade espacial para análise de padrões pontuais localizados em uma região planar é importante em diversas áreas do conhecimento, tais como, a ecologia e a epidemiologia. Inicialmente, os trabalhos que tratavam desse tema foram desenvolvidos através do chamado Método de Distância visto, por exemplo, em Holgate(1965) e Besag e Gleaves(1973). Nessa metodologia, as unidades amostrais são pontos arbitrários selecionados na região em estudo e a inferência estatística é baseada na distância entre cada ponto e os eventos observados mais próximos a ele. Já em Assunção(1994) e Assunção e Reis(2000), introduziu-se uma abordagem diferente, o Método de Ângulo. Nesse caso, a informação utilizada é o ângulo formado entre os vetores que ligam o ponto arbitrário aos seus primeiro e segundo eventos mais próximos. Os testes pertencentes ao Método de Ângulo apresentam um poder menor que aqueles classificados no Método de Distância, embora sejam mais práticos em campo. Este trabalho teve o objetivo de unir simultaneamente as medidas já propostas na literatura, distância e ângulo, em novos testes de hipóteses para completa aleatoriedade espacial. A proposta resultou em testes mais poderosos que os demais considerados no estudo.
Análise dos Polimorsmos do Gene HSP70.1 em Três Espécies
Este trabalho foi realizado com o objetivo de conhecer as caractar
ísticas associadas a similaridade e ao grau de polimorsmo presente
em três espécies de animais, Bois taurus, Ovis ares e Capra irca com
base no gene HSP70.1 que é um dos responsáveis pelo surgimento da
mastite. A partir do alinhamento das sequêncaias genéticas foi poss
ível comparar as três espéciae em estudo bem como quanticar os
polimosrsmos existentes.
Estimação em processos com longa dependência sazonais na presença de outliers
Frequentemente são encontradas em séries temporais observações que são discordantes comparadas às restantes. Algumas se devem a erros grosseiros de medição, outras podem ser resultantes de influências externas, tais como greves, alterações súbitas na estrutura de mercado, entre outras. Como resultado destas influências externas surgem observações discordantes que são classificadas como outliers.
Neste trabalho, apresentamos os modelos de contaminação por mistura e estimação dos parâmetros dos processos SARFIMA(0,d,0)x(0,D,0)s através de amostras geradas por processos contaminados, isto é, séries temporais contaminadas.
Um modelo estatístico para precificação de opções européias utilizando simulação
Neste trabalho propomos um modelo de mercado através de uma discretização aleatória do movimento browniano proposta por Leão e Ohashi (2009). Com este modelo, vamos desenvolver uma metodologia para precicar opções européias e comparar as soluções encontradas com o modelo tradicional de Black e Scholes.
Tamanho Amostral Ótimo em Testes de Hipóteses Precisas
Definição de tamanho de amostra é um assunto de grande interesse para a teoria estatística até mesmo como forma de avaliar a viabilidade de execução de um experimento. Essa avaliação é chamada de análise pré posteriori pela teoria Bayesiana, pois costuma ser realizada antes da obtenção dos dados e, nesse caso, tem como objetivo minimizar o custo de amostragem bem como a perda pela tomada dessa decisão. O objetivo desse trabalho é propor um método para determinar o $n$ ótimo, tamanho de amostra, minimizando uma função de perda relacionada ao problema de testar hipóteses precisas.
Avaliação do Poder de Alguns Testes de Homogeneidade das Variâncias
Na prática, recomenda-se avaliar a suposição de homogeneidade de variâncias priori a análise de variância usual. Entretanto, em muitas áreas de aplicações, não somente priori a análise de variância, é importante avaliar a homogeneidade de variâncias por si só. Deste modo, este trabalho teve como objetivo avaliar a hipótese de homogeneidade das variâncias, via simulação Monte Carlo com o intuito de estimar o poder dos testes: Levene, Bartlett, Fligner-Killeen e de Hartley.