Métodos Bayesianos

Aproximações Determinísticas para Distribuições a Posteriori Marginais

Apresentador/Autor: 
Thiago Guerrera Martins
Resumo: 

Um dos grandes desafios em estatística Bayesiana é obter, quando não há solução analítica disponível, aproximações para distribuições a posteriori marginais de forma precisa e eficiente. Nessa dissertação é feita uma revisão na literatura de métodos determinísticos para este fim em um contexto geral, e mostra-se que ainda há modelos de importância atual que são melhor estimados ao utilizar estes métodos em vez dos baseados em simulação. O método Integrated Nested Laplace Approximations (INLA), aplicado na importante classe de modelos que envolvem Campos Aleatórios Markovianos Gaussianos (CAMG), é descrito e, através de exemplificação, uma discussão qualitativa sobre o método é apresentada. Foi proposta a utilização do INLA para realização de inferência em modelos dinâmicos Bayesianos para processos pontuais espaço-temporais ao invés da abordagem usual que utiliza Markov Chain Monte Carlo (MCMC). Por fim, é apresentada uma importante extensão do INLA, onde a dependência entre o conjunto de dados e o campo latente, da forma como apresentada na descrição do INLA, é generalizada.

BAYESIAN ANALYSIS IN A SPEEDED ITEM RESPONSE MODEL

Autor(es) e Instituição: 
Jorge Luis Bazan, Pontificia Universidad Católica del Perú
Luis Valdivieso, Pontificia Universidad Católica del Perú
Márcia Branco, Universidad de Sao Paulo, Brasil
Apresentador: 
Jorge Luis Bazán

We develop a Bayesian analysis of the model proposed by Goegebeur, de Boeck, Wollack and Cohen (2008) to work with speededness by considering a gradual process change IRT model. Prior specification and MCMC algorithm are discussed. Simulations studies are conducted to evaluate his performance to the recover the parameters by considering independence or dependence in examinee´s parameter or personal latent variables by using independent priors. A real-data example, EGRA test, is analyzed and show how the model can be used to identified personal latent variables associated with response in Speededness situations which is consistent with the results in the test.

NOVOS PROCEDIMENTOS BAYESIANOS PARA TESTE DE HIPÓTESES BASEADOS EM AGRUPAMENTOS DE PROBABILIDADES

Autor(es) e Instituição: 
Cristiano de Carvalho Santos
Rosangela Helena Loschi
Apresentador: 
Cristiano de Carvalho Santos

O Teste de Jeffreys e o Teste de Significância Bayesiano Completo (FBST), são procedimentos bayesianos usuais para testes de hipóteses. O FBST foi introduzido na literatura com o objetivo de evitar o paradoxo de Jeffreys-Lindley, que pode ocorrer ao utilizar o Teste de Jeffreys para testar hipóteses precisas. Estudos anteriores tem mostrado que estes procedimentos podem, eventualmente, conduzir a decisões diferentes. Neste trabalho propõe-se dois novos procedimentos para teste cuja idéia central é obter uma medida de evidência sobre a hipótese nula que assuma valores intermediários entre as duas medidas existentes. Os procedimentos propostos são baseados nos agrupamentos de probabilidades linear e logarítmico. Propomos também um critério para definir o ponto de corte de forma a tornar comparáveis os resultados obtidos com os procedimentos considerados. Para comparar os procedimentos bayesianos usuais e os propostos, foi realizado um estudo de simulação Monte Carlo em situações em que consideramos dados gerados com distribuição exponencial, em que testamos se o parâmetro da exponencial é igual a valor arbitrário, e dados gerados com distribuição normal assimétrica, no qual testamos se parâmetro de assimetria é igual zero. Apresentamos resultados obtidos em uma aplicação a dados reais de séries de retorno de quatro mercados importantes da América Latina (MERVAL, IBOVESPA, IPSA e IPyC). Nesse caso consideramos que os dados tem distribuição normal assimétrica padrão e testamos se o parâmetro de assimetria é zero, ou seja, testamos se os dados tem distribuição normal padrão.

Understanding Raynaud’s Phenomenon through a Hierarchical Model Based on Splines

Autor(es) e Instituição: 
Josiane da S. Cordeiro, Universidade federal do Rio de Janeiro
Alexandra M. Schmidt, Universidade federal do Rio de Janeiro
Luigi Ippoliti, University G. d' Annunzio
Apresentador: 
Josiane da S. Cordeiro

Raynaud's Phenomenon (RP) is a vasospastic disorder of some specific arteries, typically induced by cold exposure and emotional stress, causing discoloration of the fingers, toes, ears, and niples. RP can be classified as primary (PRP), with no identifiable underlying pathological disorder, and secondary which is frequently associated with systemic sclerosis (SS). Patients who are classified as primary RP might evolve to secondary RP.

Thermal infrared (IR) imaging is a technique providing the map of the superficial temperature of a given body by measuring the infrared energy emitted, providing important indirect information on circulation, thermal properties and thermoregulatory functionality of the cutaneous tissue. PRP, SS and healthy controls (HC) groups show different thermal recoveries in consequence of the same standardized functional stimulation. In this study patients from HC, PRP and SS groups underwent a standard cold challenge, and temperatures of the 10 fingers of each patient, before and after the cold stress, were recorded. Temperatures of each finger of each person were measured every 30 seconds, 2.5 minutes before the cold stress and 20 minutes after it, resulting on $T=46$ temperature measurements for each individual. We aim to estimate the mean temperature as a function of time for each finger of each patient.
We also aim to obtain an overall mean function for each patient. This will provide us with tools to understand better the temperature behaviour
of each patient from each group. For this, we propose a hierarchical model based on B-splines. Inference procedure is performed under the Bayesian paradigm, therefore we are able to clearly describe the uncertainty of our estimates.

COMPARAÇÃO DE MODELOS PARA A IDENTIFICAÇÃO DE UM PONTO DE MUDANÇA EM RETORNOS DE MERCADOS EMERGENTES

Autor(es) e Instituição: 
Vanessa Loureiro Silva (UFMG)
Rosangela Helena Loschi (UFMG)
Apresentador: 
Vanessa Loureiro Silva

Normalidade e estrutura regular ao longo do tempo podem ser fortes suposições para conjuntos de dados provindos de diversas áreas de aplicação. Na área financeira, por exemplo, sabe-se que mercados emergentes são mais suscetíveis ao cenário político do que mercados desenvolvidos. Nestes casos, as distribuições empíricas dos retornos desses mercados de valores freqüentemente exibem assimetria, bem como mudanças estruturais.
De trabalhos anteriores, observou-se que a classe de distribuições normais assimétricas, associada ou não à teoria de pontos de mudança, pode ser uma boa alternativa para a modelagem de retornos de mercados emergentes. Os modelos disponíveis na literatura identificam pontos de mudança, no máximo, no parâmetro de assimetria da distribuição dos retornos. Sabe-se, contudo, que os retornos também apresentam mudanças estruturais no valor médio e na volatilidade (medida através da variância).
Neste trabalho, propomos um modelo bayesiano mais flexível para os dados de retornos emergentes que os apresentados na literatura, baseado na distribuição normal assimétrica com um ponto de mudança, e comparamos todos os modelos, via medidas Bayesianas. Para os modelos com ponto de mudança, testa-se se realmente houve mudança nos parâmetros de interesse através do Teste de Significância Bayesiano Completo (FBST).

Resumo estendido: 

Um Modelo Econométrico Bayesiano Aplicado à Criminalidade

Autor(es) e Instituição: 
Flávio A. Ziegelmann, UFRGS
Marcelo Gazzano, Sul América Investimentos
Patrícia K. Ziegelmann, UFRGS
Apresentador: 
Flávio A. Ziegelmann

Neste trabalho utiliza-se um modelo espaço-temporal estudado em Rojas (2004), a saber, o modelo polinomial de 1ª ordem (com pequenas alterações em distribuições propostas no processo de estimação via Metrópolis-Hasting), para medir a interação social da criminalidade na região metropolitana de São Paulo. Simulações de Monte Carlo são realizadas para avaliar a capacidade de estimação do modelo em dois diferentes cenários (poucas e muitas observações no tempo). Quanto aos resultados empíricos para os dados reais, estes indicam que a região metropolitana de São Paulo é um hot spot no estado, pois é encontrado um maior grau de interação social no índice de homicídio em relação aos índices de roubo e furto.

Modelos para Dados de Contagem com Estrutura Temporal

Apresentador/Autor: 
João Batista de Morais Pereira
Resumo: 

Neste estudo, discutimos a aplicação de modelos da classe dos modelos lineares dinâmicos generalizados (MLDG) e o modelo Poisson autoregressivo (PAR) na modelagem de séries temporais de contagens. Entre os modelos discutidos, consideramos modelos de sobredispersão, modelos com estrutura sazonal e modelos de mistura para dados de contagem inflacionados de zeros. Nosso interesse é verificar as vantagens e desvantagens entre as diferentes modelagens e que informações cada uma destas pode revelar a respeito do processo sob estudo. Todo o procedimento de inferência é feito sob o enfoque bayesiano, isto é, atribuímos uma distribuição a priori para os parâmetros de interesse de cada modelo a fim de obter a distribuição a posteriori, que, em nosso caso, não é conhecida. Métodos de Monte Carlo via cadeias de Markov (MCMC na sigla em inglês) são utilizados para obter amostras desta distribuição. Em modelos dinâmicos, obter amostras da distribuição a posteriori dos parâmetros de interesse exige certa cautela. Há diferentes propostas na literatura sugerindo diferentes maneiras de se obter amostras destes parâmetros. Entre as mais recentes está o CUBS (do inglês Conjugate Updating Backward Sampling), proposto por Ravines (2007). Neste trabalho, também temos interesse em discutir esta metodologia aplicada na estimação de parâmetros de modelos dinâmicos para séries temporais de contagens e investigar o seu desempenho.

Modelagem Bayesiana para os excessos de internações hospitalares diárias devido à pneumonia na cidade de São Paulo

Autor(es) e Instituição: 
Mayara Piani Luna da Silva Sicchieri / FMRP - USP
Jorge Alberto Achcar / FMRP - USP
Apresentador: 
Mayara Piani Luna da Silva Sicchieri

Neste trabalho, introduzimos novos modelos estatísticos para analisar dados de contagem de internações diárias devido à pneumonia na rede pública de hospitais da cidade de São Paulo no período de 01/01/2002 à 31/12/2005. Para analisar esses dados, consideramos a modelagem dos tempos entre excessos de internações diárias causadas por pneumonia assumindo uma distribuição exponencial e diferentes estruturas para a função de risco. As inferências para esses modelos são obtidas sob o paradigma Bayesiano e usando métodos de simulação MCMC (Monte Carlo em Cadeias de Markov) com o auxílio do WinBugs. Também obtemos inferências Bayesianas para pontos de mudança da contagem diária de internações hospitalares devido à pneumonia.

Resumo estendido: 

Modelos Compartimentais Determinísticos e Estocásticos: Modelagem de Epidemias

Autor(es) e Instituição: 
Márcio Augusto Diniz
Luiz Koodi Hotta
Apresentador: 
Márcio Augusto Diniz

A modelagem matemática de epidemias é de grande importância para os estudos epidemiológicos por possibilitar um melhor entendimento do desenvolvimento de epidemias e a busca por medidas eficientes de prevenção ou erradicação da doença. Este projeto teve por objetivo estudar a utilização de modelos epidemiológicos SEIR na modelagem de doenças de transmissão direta. O modelo SEIR consiste em um sistema de equações integro-diferenciais que considera uma população fechada sendo dividida em quatros compartimentos: Suscetíveis, Expostos, Infectantes, Recuperados. Um modelo do tipo SEIR foi aplicado a epidemia de Febre Hemorrágica Ebola que ocorreu no Congo no ano de 1995. Neste projeto, tanto a abordagem determinística como a estocástica foram consideradas, sendo obtidos os estimadores de Mínimos Quadrados e Bayesiano pelo métodos MCMC. Através do modelo é possível ter uma melhor compreensão da epidemia, por exemplo, considerar o efeito das medidas de controle no tamanho da epidemia.

Estimação de Modelos SEIR Estocásticos com Dados Incompletos

Autor(es) e Instituição: 
Márcio Augusto Diniz - Unicamp
Jorge Alberto Achcar - USP
Luiz Koodi Hotta - Unicamp
Apresentador: 
Márcio Augusto Diniz

A modelagem matemática de epidemias apresenta grande relevância para a área de epidemiologia por possibilitar uma melhor compreensão do desenvolvimento da doença na população e permitir analisar o impacto de medidas de controle e erradicação.
Há duas abordagens utilizadas no processo de modelagem matemática, a saber: estocástica e determinística. As duas abordagens comumente baseiam-se na estruturação de uma população fechada em compartimentos denominados Suscetíveis, Expostos, Infectantes e Removidos sendo que este último compartimento considera indivíduos recuperados e mortos. Os modelos criados a partir de tal estrutura são denominados modelos compartimentais SEIR . A utilização de tais modelos é notável devido a sua flexibilidade para se ajustar a diversas epidemias e a estrutura dos dados.
Além disso, a utilização de métodos bayesianos permite lidar com a ausência completa ou parcial dos dados que é um problema recorrente no contexto epidemiológico.
Este trabalho discuti e modifica algumas suposições do modelo estocástico SEIR encontrado em Lekone e Finkenstädt (2006) que é aplicado aos dados parcialmente observados da epidemia de Febre Hemorrágica Ebola ocorrida no Congo em 1995 através de métodos bayesianos.

Resumo estendido: 
Divulgar conteúdo