Métodos Bayesianos

Modelo Dinâmicos Para Dados Agregados

Autor(es) e Instituição: 
Leandro Tavares Correia - UnB
Cibele Queiroz da Silva - UnB (Orientador)
Helio dos Santos Migon - UFRJ (Orientador)
Apresentador: 
Leandro Tavares Correia - UnB

Com base na abordagem bayesiana de Modelos Dinâmicos, séries de tempo de dados composicionais são modeladas para análises de previsão e de comportamento. Por se tratar de dados convertidos para a escala de proporções relativas a uma série agregada, os modelos são construídos utilizando-se de transformações razão-log e distribuição Logística-Normal, nos casos em que se assume a normalidade dos dados. Para casos mais gerais, os modelos baseiam-se na classe dos Modelos Lineares Dinâmicos Generalizados (MLDG), e em dados com distribuição Beta, e tais desenvolvimentos consistem em contribuições inéditas na área de modelos dinâmicos.

Modelos para Dados de Contagem com Estrutura Temporal

Autor(es) e Instituição: 
João Batista de Morais Pereira - UFRJ
Alexandra Mello Schmidt - UFRJ (Orientador)
Helio dos Santos Migon - UFRJ (Co-orientador)
Apresentador: 
João Batista de Morais Pereira - UFRJ

Neste estudo, discutimos a aplicação de modelos da classe dos modelos lineares dinâmicos generalizados (MLDG) e o modelo Poisson autoregressivo (PAR) na modelagem de séries temporais de contagens. Entre os modelos discutidos, consideramos modelos de sobredispersão, modelos com estrutura sazonal e modelos de mistura para dados de contagem inflacionados de zeros. Nosso interesse é verificar as vantagens e desvantagens entre as diferentes modelagens e que informações cada uma destas pode revelar a respeito do processo sob estudo. Todo o procedimento de inferência é feito sob o enfoque bayesiano, isto é, atribuímos uma distribuição a priori para os parâmetros de interesse de cada modelo a fim de obter a distribuição a posteriori, que, em nosso caso, não é conhecida. Métodos de Monte Carlo via cadeias de Markov (MCMC na sigla em inglês) são utilizados para obter amostras desta distribuição. Em modelos dinâmicos, obter amostras da distribuição a posteriori dos parâmetros de interesse exige certa cautela. Há diferentes propostas na literatura sugerindo diferentes maneiras de se obter amostras destes parâmetros. Entre as mais recentes está o CUBS (do inglês Conjugate Updating Backward Sampling), proposto por Ravines (2007). Neste trabalho, também temos interesse em discutir esta metodologia aplicada na estimação de parâmetros de modelos dinâmicos para séries temporais de contagens e investigar o seu desempenho.

Aproximações Determinísticas para Distribuições a Posteriori Marginais

Autor(es) e Instituição: 
Thiago Guerrera Martins - UFRJ
Dani Gamerman - UFRJ (Orientador)
Apresentador: 
Thiago Guerrera Martins - UFRJ

Um dos grandes desafios em estatística Bayesiana é obter, quando não há solução analítica disponível, aproximações para distribuições a posteriori marginais de forma precisa e eficiente. Nessa dissertação é feita uma revisão na literatura de métodos determinísticos para este fim em um contexto geral, e mostra-se que ainda há modelos de importância atual que são melhor estimados ao utilizar estes métodos em vez dos baseados em simulação. O método Integrated Nested Laplace Approximations (INLA), aplicado na importante classe de modelos que envolvem Campos Aleatórios Markovianos Gaussianos (CAMG), é descrito e, através de exemplificação, uma discussão qualitativa sobre o método é apresentada. Foi proposta a utilização do INLA para realização de inferência em modelos dinâmicos Bayesianos para processos pontuais espaço-temporais ao invés da abordagem usual que utiliza Markov Chain Monte Carlo (MCMC). Por fim, é apresentada uma importante extensão do INLA, onde a dependência entre o conjunto de dados e o campo latente, da forma como apresentada na descrição do INLA, é generalizada.

Redes Bayesianas: uma introdução aplicada a credit soring

Autor(es) e Instituição: 
Anderson Luiz Ara-Souza - UFSCar
Francisco Louzada Neto - UFSCar (Orientador)
Apresentador: 
Anderson Luiz Ara-Souza - UFSCar

A Inteligência Artificial, segundo Tafner et al. (1995), é uma área catalisadora do desejo humano de reproduzir inteligência em mecanismos não-biológicos; constitui-se em um conjunto de técnicas de programação para resolver problemas. Ela procura imitar as formas de resolução de problemas do mesmo modo que o homem o faz. Além disso, a Inteligência Artificial é uma área interdisciplinar dentro das Ciências Exatas, sendo explorada com maior intensidade pelas áreas de Ciências da Computação e Engenharia Elétrica, com o auxílio de metodologia e pensamento estatístico. Segundo Mitchel, citado por Rezende (2004, p.93), entre os métodos estatísticos, destaca-se o aprendizado Bayesiano, que utiliza um modelo probabilístico baseado no conhecimento prévio do problema, o qual é combinado com exemplos de treinamento para determinar a probabilidade final de uma hipótese. Assim, as Redes Bayesianas são uma abordagem interpretativa e analítica para o raciocínio probabilista e tem sido utilizada recentemente em diversas áreas como, por exemplo, estimação de risco operacional, diagnóstico médico, credit scoring, projeto de jogos computacionais, imputação de dados, entre outras. Desta forma, a técnica de Redes Bayesianas é um método de modelagem e de decisão, sendo alternativo às técnicas comumente utilizadas como, por exemplo, Regressão Logística e Análise Discriminante. Esse trabalho de conclusão de curso, desenvolvido de julho a dezembro de 2008, tem a finalidade de apresentar de forma clara e objetiva fundamentos básicos da técnica de Redes Bayesianas, realizar sua aplicação em exemplos, alguns deles envolvendo dados reais, e apresentar os resultados de um estudo de simulação que compara a capacidade preditiva das Redes Bayesianas com um procedimento padrão, comumente utilizado na modelagem de dados com respostas dicotômicas.

Abordagem Bayesiana para modelos estocásticos com heterocedasticidade para os retornos IBovespa

Autor(es) e Instituição: 
Sandra Cristina de Oliveira - UNESP
Marinho Gomes de Andrade - ICMC-USP
Apresentador: 
Sandra Cristina de Oliveira

Neste trabalho comparamos as estimativas Bayesianas obtidas para os parâmetros de processos da família ARCH considerando distribuição normal e t de student para a distribuição condicional da série de retornos. Adotamos ainda distribuição a priori não-informativa e consideramos uma reparametrização dos modelos estudados para mapear o espaço dos parâmetros no espaço real. Os sumários a posteriori foram obtidos por meio dos métodos de simulação de Monte Carlo em Cadeias de Markov (MCMC). Com a reparametrização adotada, reduzimos a taxa de rejeição do algoritmo de simulação MCMC, acelerando o processo de convergência deste. A metodologia foi avaliada considerando uma série de retornos IBovespa. Para selecionar o modelo que apresentou melhor ajuste aos dados, utilizamos o Critério da Densidade Preditiva Ordenada.

Trabalho completo: 

Evaluating Spatio-temporal models for crop yield forecasting using INLA: implications to pricing area yield crop insurance contracts

Autor(es) e Instituição: 
Ramiro Ruiz-Cárdenas, Universidade Federal de Minas Gerais
Elias Teixeira Krainski, Universidade Federal do Paraná
Apresentador: 
Ramiro Ruiz-Cárdenas

In an area yield crop insurance farmers collect an indemnity whenever the county average yield falls beneath a yield guarantee, regardless of the farmers actual yields. The pricing methodology for this kind of insurance requires the estimation of the expected crop yield at the county level. This can be done in a hierarchical Bayesian framework via spatio-temporal modelling of areal crop yield data. Inference in this kind of models is typically based on Markov chain
Monte Carlo methods. However, these methods suffer from several problems: Computational time is long, parameter samples can be highly correlated and estimates may have a large Monte Carlo error. Additionally, a huge number of models with different components resulting from the combination of regional effects, time trends and time-space interactions, as well as of several covariates entering in the models in different ways, need to be fitted and compared in order to identify the more suitable one to be used in the calculation
of the premium rates of the areal crop yield insurance contract. This task becomes very time consuming when the number of areas increases.

A recent alternative to MCMC methods to perform inference in latent Gaussian
models are the integrated nested Laplace approximations (INLA). In this paper, using the INLA approach, was possible to fit and compare in an efficient way several spatio-temporal crop yield models in order to identify the most suitable ones to calculate the premium rate of an areal crop yield insurance contract for maize in Paraná state (Brazil). Further we propose an extension of the INLA approach that enable the application of the same methodology using a complex dynamic spatio-temporal model for areal data within reasonable computational time and in a user friendly way with INLA.

Small area estimation using skew-normal models

Autor(es) e Instituição: 
Valmária Rocha da Silva
Fernando Antônio da Silva Moura
Apresentador: 
Valmária Rocha da Silva

The main aim of this work is to propose two important connected extensions of the Fay and Heriot (1979) area level small area estimation model that might be of practical and theoretical interests. The first extension allows for the sampling error to be non-symmetrically distributed. This is important for the case that the sample sizes in the areas are not large enough to rely on the Central Limit Theorem. We deal with this by assuming that the sample error is skew-normal distributed. The second extension proposes to jointly model the direct survey estimator and its respective variance estimator. Proceeding in this way, we manage to take into account all sources of uncertainties. We applied our proposed model to a real data set and compare with the usual Fay-Heriot model under the assumptions of the unknown sampling variance. We also carried out a simulation study to evaluate frequentist properties of our proposed model. As it expected, our evaluation studies show that our proposed model are more efficient for producing small are prediction under skew data.

Tamanho Amostral Ótimo em Testes de Hipóteses Precisas

Autor(es) e Instituição: 
Patrícia Viana da Silva
Victor Fossaluza
Carlos Alberto de Bragança Pereira
Apresentador: 
Patrícia Viana da Silva

Definição de tamanho de amostra é um assunto de grande interesse para a teoria estatística até mesmo como forma de avaliar a viabilidade de execução de um experimento. Essa avaliação é chamada de análise pré posteriori pela teoria Bayesiana, pois costuma ser realizada antes da obtenção dos dados e, nesse caso, tem como objetivo minimizar o custo de amostragem bem como a perda pela tomada dessa decisão. O objetivo desse trabalho é propor um método para determinar o $n$ ótimo, tamanho de amostra, minimizando uma função de perda relacionada ao problema de testar hipóteses precisas.

Resumo estendido: 

Análise Espaço-Temporal de Efeito de Fogos Florestais em Portugal

Autor(es) e Instituição: 
Inês Dias, Departamento de Matemática da Universidade de Évora e CIMA, Portugal
Giovani Loiola da Silva, Dep. Matemática - IST, Universidade Técnica de Lisboa e CEAUL, Portugal
Apresentador: 
Inês Dias

Na última década, os incêndios florestais tornaram-se uma das catástrofes naturais mais graves em Portugal. O elevado número de ocorrências e a sua severidade provocam grande devastação levando a elevados prejuízos, quer económicos quer ambientais, e colocando em risco bens, populações e a subsistência da própria floresta. Neste trabalho apresentam-se modelos hierárquicos bayesianos para analisar dados espaço-temporais relativos à proporção de área ardida em Portugal continental por concelho ao longo das últimas três décadas. Distribuições mistas foram usadas para modelar conjuntamente a proporção de área ardida e a existência de concelhos sem área ardida em determinados anos. Na obtenção de estimativas a posteriori dos parâmetros de interesse, usaram-se métodos de Monte Carlo via cadeias de Markov (MCMC).

Resumo estendido: 

Processos de Poisson não-homogêneo, estimando o número excessos de ozônio, para um limiar, na Cidade do México

Autor(es) e Instituição: 
Lorena Vicini- UNICAMP
Luiz Koodi Hotta - UNICAMP
Jorge Achcar - USP
Eliane Rodrigues - Universidad Nacional Autonoma de Mexico
Apresentador: 
Lorena Vicini

Neste trabalho, busca-se modelar o número acumulado de vezes em que um padrão de ar é violado por determinado poluente, num determinado intervalo de tempo. Para atingir este objetivo é proposto o modelo de Poisson não-homogêneo com uma função de valor médio m(t) e a taxa em que os eventos ocorrem é dada por λ(t), t ≥ 0. Essa taxa também depende de alguns parâmetros que precisam ser estimados. Duas formas de λ(t), t ≥ 0 são consideradas. Uma delas é da forma Exponencial e a outra é da forma Weibull. A estimação desses parâmetros é feita utilizando uma formulação Bayesiana baseada em métodos MCMC (Monte Carlo em Cadeias de Markov). Para as distribuições a priori dos parâmetros é realizada em duas fases. Na primeira fase, são consideradas as distribuições priori não-informativas. Usando as informações obtidas pela primeira fase, mais informativas são as distribuições a priori utilizadas na segunda fase. O desenvolvimento teórico é aplicado aos dados fornecidos pela rede de monitoração da Cidade do México. A função taxa que melhor se adapta aos dados varia de acordo com a região da cidade. Em alguns casos, o melhor ajuste é da forma Exponencial e em outros casos, o melhor ajuste é da forma Weibull.

Divulgar conteúdo