Teoria

Estudo de Monte Carlo para o Estimador de Hurst em Processos Obtidos da Equação de Langevin

Autor(es) e Instituição: 
Elton Goncalves Teixeira - UFRGS
Silvia R.C. Lopes - UFRGS
Apresentador: 
Elton Gonçalves Teixeira

Apresentamos, neste trabalho, um estudo de simulações de Monte
Carlo para a estimação semi-paramétrica da função memória presente
em processos estocásticos oriundos da equação de Langevin
generalizada. Esse estudo é apresentado para a situação em que a
função memória é uma delta de Dirac e o processo de ruído é
Gaussiano com média zero e variância um.
O objetivo é estimar o parâmetro do processo através da
estatística R/S(n), introduzida por H.E. Hurst. O desempenho
deste estimador é analisado através de seu vicío, desvio padrão e
erro quadrático médio para diferentes tamanhos amostrais e
diferentes números de replicações, quando o valor inicial do
processo é zero.
Palavras-chave: Equação de Langevin Generalizada; Função Memória; Processo Gaussiano; Estimação Semi-paramétrica; Estimador de Hurst.

Resumo estendido: 

A regra dos três números para o cálculo de uma medida de correlação robusta

Autor(es) e Instituição: 
Gustavo H. Esteves, Departamento de Estatística - Centro de Ciências e Tecnologia - Universidade Estadual da Paraíba
Diana Maia, Departamento de Estatística - Centro de Ciências e Tecnologia - Universidade Estadual da Paraíba
Apresentador: 
Gustavo H. Esteves

Um dos problemas mais comuns na Estatística é o cálculo de uma medida de correlação robusta, isto é, uma medida que não seja influenciada por pontos discrepantes (outliers) presentes no conjunto de dados. Neste trabalho é apresentado um método, baseado na técnica de leave one out da teoria de discriminadores lineares, que ataca este problema e define uma regra, chamada aqui de regra dos três números, que usa a informação do mínimo, da média (ou mediana) e do máximo entre n valores de correlação linear de Pearson, onde n é o número de observações da amostra, para estimar um valor de correlação robusto.

Resumo estendido: 

Inovações Estáveis em Processos ARFIMA

Autor(es) e Instituição: 
Gennaro Anesi - UFRGS
Sílvia R.C. Lopes - UFRGS
Apresentador: 
Gennaro Anesi

Neste trabalho é apresentado um estudo sobre os processos ARFIMA(p,d,q) com decaimento hiperbólico da função de autocorrelação. Foram analisadas séries temporais com inovações estáveis, isto é, distribuições caracterizadas pela presença de caudas pesadas. O objetivo principal é verificar a consistência de diversos estimadores utilizados para o parâmetro de diferenciação do processo e para o parâmetro de estabilidade das distribuições estáveis.

Comparação do Método de Análise de dados Estatístico Tradicional com o Método Bootstrap

Autor(es) e Instituição: 
Vagner Inácio de Oliveira; Dr. Luis Aparecido Milan
Universidade Federal de São Carlos - UFSCar
Apresentador: 
Vagner Inácio de Oliveira

Uma indústria de alimentos aplicou o método estatístico denominado Evolutionary Operation (EVOP), para a melhoria da qualidade do processo de produção de leite em pó, coletou dados antes e depois desta implementação e fez análises para verificar possíveis mudanças. Este trabalho pretende verificar se a análise feita com o método bootstrap é similar a feita com o método EVOP, com os mesmos dados de antes e após a implementação do EVOP.

Resumo estendido: 

Agrupamentos de Séries Temporais Via Quase U-Estatísticas

Autor(es) e Instituição: 
Marcio Valk - UNICAMP
Aluísio de Souza Pinheiro - UNICAMP
Apresentador: 
Marcio Valk

Pinheiro et al. (2009) introduz uma classe de U-estatísticas generalizadas, tendo como casos particulares, medidas de diversidade adequadas e as incorpora em uma convencional MANOVA ou modelos de grupo-divergentes para dados de alta dimensionalidade, com ênfase em dados categóricos. Esta abordagem baseia-se na formulação geral de ``Hamming distance type functionals'' cujas contrapartes amostrais são U-estatísticas generalizadas. É demonstrado que a estatística de teste, utilizada para testar a homogeneidade de grupos, é assintoticamente normal. Neste trabalho, adaptamos os resultados de pinheiro et al. (2009) para séries temporais. Demonstramos que a estatística de teste é assintoticamente normal para uma classe de séries temporais e uma classe de núcleos e propomos uma metodologia de agrupamento de séries temporais.

SIMULAÇÃO ESTOCÁSTICA DA ESTRUTURA A TERMO DE JUROS E EVIDÊNCIA SOBRE O CONTEÚDO INFORMACIONAL DA ETTJ NO BRASIL

Autor(es) e Instituição: 
Daiane Rodrigues dos Santos e Marco Aurélio dos Santos Sanfins
Universidade Federal do Espirito Santo e Universidade Federal Fluminense
Apresentador: 
Daiane Rodrigues Santos

Recentemente a modelagem da evolução de estruturas a termo de taxas de juros tem merecido várias contribuições na literatura. Em um número importante destes trabalhos busca-se a estimação de componentes, tipicamente aditivas, responsáveis por características bem definidas das curvas de juros. O trabalho mais conhecido neste tópico é possivelmente o artigo de LITTERMAN, R. E SCHEINKMAN, J. (1991), onde é utilizada a técnica de Componentes Principais. Neste artigo, de uma maneira exploratória, os autores identificam três componentes capazes de explicar algo em torno de 98% da variabilidade das
taxas implícitas a papéis de varias maturidades no mercado americano. A maior importância da decomposição obtida foi a possibilidade de interpretaçãodos movimentos que ocorrem das taxas de juros. Com efeito, LITTERMAN, R. E SCHEINKMAN, J. (1991) identificam as três componentes obtidas como sendo responsáveis, respectivamente e em ordem de importância, por movimentos no nível, na inclinação e na curvatura da curva de juros.

Como subproduto os autores fornecem estratégias de imunização de carteiras contra riscos referentes a movimentos associados a cada uma das componentes identificadas. Com dados do mercado domestico BARCINSKI, A. (2002) e VARGA, G. (2001) apresentam conclusões similares à aquelas obtidas em LITTERMAN, R. E SCHEINKMAN, J. (1991).

A análise de componentes principais é essencialmente técnica de análise exploratória de dados visando a redução de dimensionalidade. Seu mais correto uso consiste em indicar estruturas passíveis de serem modeladas estatisticamente em processos similares àqueles estudados. Neste sentido VIEIRA NETO, C.A. (2001), desenvolve um modelo para a evolução da estrutura a termo de taxas de juros impondo forma analítica para as trêscomponentes identificadas em LITTERMAN, R. E SCHEINKMAN, J. (1991), além de propor formas analíticas para uma quarta componente.

Mediante a estimação da estrutura a termo de juros pelo modelo de SIEGEL C. N.(1987) utilizando técnicas de Simulated Annealing, introduzida por KIRKPATRICK, S., GELATT, C.D. Jr. and VECCHI, M.P. (1983), podemos então empregar o resultado na previsão da dinâmica econômica brasileira. Alguns trabalhos feitos com dados brasileiros foram realizados por LIMA, A. (2002), ROSSI, José W. (1996) e SHOUSHA, S.(2006), trabalhos similares também foram feitos utilizando dados de países como Europa e Estados Unidos, os trabalhos de BERARD, A.(2009), DEWACHTER, H., LYRO,M.and MAES, K (2006) e MONDHER, c.., KAMOUN, S.(2007), ambos os trabalhos são relacionados a relevância do conteúdo
informacional na curva de juros para diferentes variáveis macroeconômicas, adicionalmente, instrumento de política monetária, crescimento passado e inflação.

Resumo estendido: 

A compound class of Weibull and power series distributions

Autor(es) e Instituição: 
Alice L. Morais - Universidade Federal de Sergipe
Wagner Barreto-Souza - Universidade de São Paulo
Apresentador: 
Alice L. Morais

In this paper we introduce the class Weibull power series (WPS) of distribu- tions which is obtained by compounding Weibull and power series distributions, where compounding procedure follows same way that was previously carried out by Adamidis and Loukas (1998). This new class of distributions has as particular case the two-parameter class exponential power series (EPS) of distributions, which was introduced recently by Chahkandi and Ganjali (2009). Like EPS distributions, our class contains several distributions which have been introduced and studied such as: exponential geometric (Adamidis and Loukas, 1998), exponential Poisson (Kus, 2007) and exponential logarithmic (Tahmasbi and Rezaei, 2008) distribu- tions. Moreover, the hazard function of our class may take increasing, decreasing, upside down bathtub forms, among others, while hazard function of a EPS distri- bution is only decreasing. We obtain several properties of the WPS distributions such as moments, order statistics, estimation by maximum likelihood and infer- ence for large sample. Furthermore, EM algorithm is also used to determine the maximum likelihood estimates of the parameters and we discuss maximum entropy characterizations under suitable constraints. Special distributions are studied in some details. Applications to real data sets are given to show the exibility and potentiality of the proposed class of distributions.

Inovações no sistema de pareamento de domicílios e pessoas para a Pesquisa de Avaliação da Cobertura da Coleta do Censo 2010

Autor(es) e Instituição: 
Andréa Diniz da Silva - IBGE
Álvaro de Moraes Frota - IBGE
Flavia Pinto da Silva - IBGE
Otavio Sant’Ana Martins Romeo - IBGE
Thiago Silva Soares - IBGE
Apresentador: 
Andréa Diniz da Silva

Em um país de dimensões continentais como o Brasil, com relativa complexidade na disposição dos domicílios nos logradouros e, sobretudo, com reais dificuldades de acesso a determinadas localidades, a realização de um Censo está sujeita a diferentes tipos de erros que podem resultar em falha de cobertura da coleta. Considerando a necessidade de se medir a qualidade da cobertura da operação censitária, a Pesquisa de Avaliação da Cobertura da Coleta - PA é parte integrante do Censo brasileiro desde 1970. A Pesquisa é realizada por amostragem e compreende uma segunda coleta em setores probabilisticamente selecionados em cada uma das unidades da Federação. As informações provenientes de ambas as coletas são confrontadas e utilizadas na estimação das taxas de cobertura da coleta do Censo. Até o ano de 2000, o confronto das informações coletadas pelo Censo com aquelas coletadas na PA era feito comparando-se os questionários de ambas as coletas. O desenvolvimento de métodos computacionais para a realização do pareamento possibilita o uso de técnicas de Record Linkage no confronto das informações provenientes do Censo e da PA. A automatização do sistema de pareamento gera ganho de qualidade em relação ao pareamento não-automático pois permite o estabelecimento de critérios objetivos e padronizados, além de não estar sujeita à perda de qualidade inerente aos processos baseados em ações repetitivas. Este trabalho apresenta o sistema de pareamento automático da PA 2010 e seus aspectos metodológicos, os quais se fundamentam nos autores mais relevantes na bibliografia como: Jaro, Winkler, Fellegi e Sunter, Gill etc. Além disso, serão apresentados os softwares que estão sendo testados para a implementação das diferentes etapas do processo de pareamento.

Modelos Bayesianos de Espaço de Estados Não-Gaussianos

Autor(es) e Instituição: 
Camila Maria Casquilho Resende - DME/UFRJ
Dani Gamerman - DME/UFRJ
Apresentador: 
Camila Maria Casquilho Resende

A análise de séries temporais de observações não-Gaussianas é de grande aplicabilidade em diversas áreas do conhecimento. Em se tratando de séries de contagem, por exemplo, a utilização de modelos dinâmicos tem sido cada vez mais presente na literatura estatística. Este trabalho apresenta formas de modelagem de séries dessa natureza baseadas em modelos dinâmicos não-Gaussianos. Em particular, considera-se a possibilidade de inclusão de um coeficiente autorregressivo na evolução dos parâmetros de estado. Com o objetivo de descrever as incertezas inerentes ao processo de estudo, a inferência será realizada sobre o paradigma bayesiano. Serão explorados métodos de aproximação, como filtro de partículas e a aproximação de Laplace. Esta última forma foi descrita em detalhes em Rue et al. (2009). Essas metodologias são uma alternativa aos métodos de simulação estocástica que são comumente visto em trabalhos sob a abordagem bayesiana, como é o caso do método de Monte Carlo via Cadeias de Markov.

Resumo estendido: 

Modelos dinâmicos Bayesianos para dados de painel usando distâncias econômicas

Autor(es) e Instituição: 
Larissa de Carvalho Alves (DME-UFRJ)
Esther Salazar (SAMSI)
Hélio S. Migon (DME - UFRJ)
Apresentador: 
Larissa de Carvalho Alves

Neste trabalho apresentamos um modelo econométrico espaço-temporal
para dados de painel, onde os elementos correspondem a agentes
econômicos. A dependência espacial entre agentes é caracterizada
por funções de distâncias econômicas que são incorporadas tanto na
estrutura de média como na estrutura de covariância do modelo.

Partimos de modelos de regressão simples e motivamos a utilização
de modelos econométricos espaciais, distâncias entre agentes e
adicionalmente, para acomodar possíveis outliers,
introduzimos um modelo de regressão t-Student. Temos como objetivo
incorporar relações entre setores da economia que são dadas por
suas similaridades e além disso fazer a estimação dos modelos
lançando mão de uma abordagem completamente Bayesiana. Vamos
utilizar o modelo proposto e suas variações, para modelar dois
conjunto de dados. Na primeira aplicação estudamos a produção
mensal dos movimentos comuns entre vinte setores industriais dos
EUA. A segunda aplicação refere-se à setores da economia
brasileira, na qual as observações são dadas por índices de
crescimento do Produto Interno Bruto.

Palavras-chave: Econometria espacial; Distâncias econômicas;
Inferência bayesiana; Modelos dinâmicos; Métodos MCMC

Resumo estendido: 
Divulgar conteúdo