Probabilidade e Processos Estocásticos

Object Pattern Analysis

Autor(es) e Instituição: 
João Marcelo Brazão Protázio
Nayara Negrão Pereira
Apresentador: 
Nayara Negrão Pereira

In plant ecology, each individual plant is mapped as a point with the
Cartesian coordinates (x,y) representing the center of their
stems. But, depending on the dimensions of the individuals in relation to the
scale that we want to analyze, this transformation can cause problems. To
analyze the spatial configuration of individuals (trees, coral, etc...) using
traditional statistical spatial methods like Ripley K-function (Ripley 1977), each individual within the study site is represented as a point. Problem can arise due to the loss of information during the transformation.
The limitations of this procedure which considers a three dimensional plant
individual as a point, affect the interpretation of results obtained via
standart spatial methods, which can not correspond to what is really
happening at the study site.
the main objective of this paper is to provide a suitable method to perform
spatial analysis of individuals, considering these individuals as a circular
objects, rather than points. The idea behind the method is to approximate
each individual as a circle and to perform the spatial analysis considering
these individuals as circular objects.

Trabalho completo: 

Probabilidade de Ruína com eventos espaciais

Autor(es) e Instituição: 
Aline Martines Piroutek
Renato Martins Assunção
Apresentador: 
Aline Martines Piroutek

Os modelos clássicos de risco em seguros baseiam-se em independência entre a ocorrência dos sinistros e entre os valores de indenização dos mesmos. No entanto, em eventos associados com fenômenos naturais, a suposição torna-se inválida e inadequada. Nesse artigo, estudamos alguns modelos alternativos para a aproximação da probabilidade de ruína quando os sinistros possuem localização geográfica. Nosso objetivo é verificar o impacto do grau de correlação espacial dos sinistros na probabilidade de ruína. Em particular, queremos avaliar o erro cometido no cálculo da probabilidade de ruína quando ignoramos a correlação espacial desses eventos.

GEV Long-Short Strategy: uma nova modalidade quantitativa

Autor(es) e Instituição: 
DANILO SOARES MONTE-MOR / UFES
MARCO AURÉLIO DOS SANTOS SANFINS / UFF
Apresentador: 
DANILO SOARES MONTE-MOR

As estratégias long-short compreendem a manutenção simultânea de compra e venda de ações e de derivativos, ambos susceptíveiseis a apreciação ou depreciação, e têm o objetivo de obter retornos adicionais, superiores aos custos de oportunidade e independentes ao movimento do mercado. Uma vez que a modelagem de séries financeiras requer análises que envolvam distribuições com caudas pesadas, não é mais possível a simples
suposição conveniente de normalidade, o que faz com que a teoria clássica sustentada principalmente pela distribuição normal não tenha aplicabilidade pertinente. O principal objetivo deste trabalho é utilizar a
Teoria de Valores Extremos para se estabelecer uma nova modalidade quantitativa de Long-Short, de modo
que os fundos tenham a capacidade de gerar ganhos positivos ao proverem retornos não necessariamente
correlacionados com classes de ativos tradicionais, com concomitante redução dos riscos de investimento.

Resumo estendido: 

Distribuição Skew Normal: Aproximações, Generalizações e Aplicações

Autor(es) e Instituição: 
Murilo Coutinho Silva
Pushpa Narayan Rathie
Apresentador: 
Murilo Coutinho Silva

Esse trabalho trata sobre distribuições assimétricas advindas da distribuição Normal, além de formas gerais para qualquer distribuição. Utilizando-se de fórmulas de assimetrização como a de Azzalini (1986) e a de Fernández e Steel (1998) compomos distribuições assimétricas para a Normal. Esse trabalho propõe também generalizações para as fórmulas de assimetrização. Além disso, nesse artigo utilizaremos uma aproximação da distribuição Normal por uma distribuição inversível, proposta em "On a new Invertible Generalized Logistic Distribution Approximation to Normal Distribution" de Pushpa N. Rathie e Prabhata K. Swamee para aproximar a distribuição Skew-Normal em expressões bem definidas. Neste trabalho muitas propriedades são desenvolvidas para todas as generalizações propostas como médias, variâncias, geratrizes de momentos, estimadores, entropias, etc... Além de toda a teoria desenvolvida neste trabalho, algumas aplicações com dados reais também estão presentes.

Algorithms for estimation of variable length Markov Chains and applications

Autor(es) e Instituição: 
David Henriques da Matta / Universidade Federal de Goiás
Apresentador: 
David Henriques da Matta

There are many studies in the field of linguistics where the interest is to analyze the differences between Brazilian Portuguese and European Portuguese (henceforth BP and EP respectively). Both the BP on EP, have the same words set in their structure (lexicon). However, these languages have different syntaxes and different prosodies. The key point of this process of differentiation, is related to the question of finding
estimation methods. To better understand this theoretical context, we discuss here some basic concepts of variable length Markov chains, as well as a simulation study to find evidence whether to use BIC or AIC as the selection criteria of models to tune the pruning constant of the algorithm Context (Rissanen (1983); Buhlman and Wyner (1999)).

Resumo estendido: 

Comparação de assinaturas de amostras em Árvores Probabilísticas de Contexto

Autor(es) e Instituição: 
Diego Leal, UFMG
Marina Lobato, UFMG
Denise Duarte, UFMG
Apresentador: 
Denise Duarte

Em Galves, Galves, Garcia e Leonardi (2009) é introduzido o
critério do menor maximizador (smallest maximizer criterion) para
estimar uma Árvore Probabilística de Contexto (PCT). Este critério seleciona a árvore na classe das campeãs estimadas pelo BIC, para cada valor da constante de
penalização do modelo. Este algoritmo é chamado de G3L.

Dada uma amostra X_1,...,X_n, C_x é uma sequencia de
constantes de penalização que caracteriza esta amostra no seguinte
sentido:
1.Em amostras da mesma PCT, as sequencias de constantes de penalização geradas pelo G3L não diferem muito umas das
outras.
2.Em amostras de duas árvores diferentes as sequencias de constantes de penalização geradas pelo G3L são diferentes.

Estamos propondo um teste bootstrap, baseado na assinatura da
amostra, para decidir se duas amostras foram geradas a partir da
mesma árvore de contexto probabilística ou não.

Resumo estendido: 

Uma teoria limite não-padrão para cadeias de Markov

Autor(es) e Instituição: 
Bernardo Borba de Andrade, Univ de Brasilia
Charles James Geyer, Univ of Minnesota
Apresentador: 
Bernardo Borba de Andrade

Neste trabalho apresentamos uma proposta de teoria não-padrão para o estudo de cadeias de Markov. A motivação é substituir as ferramentas clássicas de teoria da medida e análise funcional com o uso rigoroso de infinitésimos, seguindo a proposta de Nelson (1987), e com isso desenvolver uma teoria limite igualmente abrangente, porém mais simples, que a clássica. Nesta teoria não-padrão não existe o substancial hiato entre os processos com espaços de estado discretos e os com espaços gerais.

Trabalho completo: 

O ENSINO SOBRE A CONCEPÇÃO FREQUENTISTA DE PROBABILIDADE ESTRUTURADO NA SIMULAÇÃO COMPUTACIONAL

Autor(es) e Instituição: 
João Vitor Teodoro - ESALQ/USP
José Marcos Lopes - FEIS/UNESP
Gerson Barreto Mourão - ESALQ/USP
Apresentador: 
João Vitor Teodoro

O texto trata sobre uma implementação computacional, que pode ser utilizada como ferramenta no ensino de probabilidade frequentista, fazendo uma simulação é possível estabelecer relação entre prática e teoria, melhorando o entendimento sobre a ocorrência natural dos eventos.

PADRONIZAÇÃO DE MODELOS TEÓRICOS DE PROBABILIDADE PARA SISMOS DIÁRIOS NO MUNICIPIO DE JOÃO CÂMARA/RN

Autor(es) e Instituição: 
Raimundo Nonato Castro da Silva-UFAC
Paulo Sergio Lúcio-UFRN
Francisco Márcio Barboza-UFAC
Manoel Domingos Filho-UFAC
Antonio Carlos Fonseca Pontes-UFAC
Antonio Carlos Fonseca Pontes Junior-UFAC
Altemir da Silva Braga-UFAC
joão Roberto Façanha de Almeida-UFC
Apresentador: 
Raimundo Nonato Castro da Silva

No presente trabalho, foi feito um ajuste da Distribuição Generalizada de Pareto (GPD) para uma seqüência de sismos intraplacas, que ocorreu no município de João Câmara, NE do Brasil o qual foi monitorada continuamente durante dois anos (1987 e 1988). Esses dados foram utilizados para avaliar a ocorrência de eventos extremos na região. A fim de estimar os parâmetros da GPD, foram utilizados os seguintes métodos: máxima verossimilhança (MLE), máxima verossimilhança penalizada (MPLE), métodos dos momentos (moments), Pickands (Pickands), momentos ponderados pela probabilidade (viesado-PWMB e não-viesado-PWMU), divergência média da densidade (MDPD), melhor qualidade do ajuste (MGF), mediana (MED) e o método da máxima entropia (POME). Onde o método da máxima verossimilhança e o da máxima entropia foram os mais eficientes. Com esse ajuste, verificou-se que os sismos com maginitude de 1,5º deve ocorrer num período de retorno estimado de aproximadamente dez dias, por outro lado um sismo de 2,5º estima-se que ocorra a cada 500 dias, já o sismo histórico aquele que está no imaginário popular ocorrido em novembro de 1986, é pouco provável, pois o seu período de retorno é para 300 anos.

Resumo estendido: 

Curvas de Crescimento com estrutura de dependência em modelos de resposta ao item

Autor(es) e Instituição: 
Adriana Moraes de Carvalho
Heliton Ribeiro Tavares
Apresentador: 
Adriana Moraes de Carvalho

Neste trabalho são propostos modelos para representar o comportamento das habilidades médias de um mesmo grupo de indivíduos acompanhados ao longo do tempo (estudo longitudinal), através da estimação dos parâmetros de Curvas de Crescimento, tais como: Linear, Quadrática, Logística e Gompertz. Como a estrutura longitudinal induz uma dependência entre os resultados nas várias condições de avaliação, propomos estruturas de covariância para modelar tal dependência. Consideramos conhecidos os parâmetros dos itens envolvidos no estudo. Uma aplicação é feita a dados resultantes da Pesquisa ''Avaliação do desempenho: Fatores Associados" do projeto Fundescola, aplicada a alunos de 4a. a 8a. série do Ensino Fundamental, no período de 1999 a 2003. Para este estudo, no qual a dependência entre as pro ciências médias diminue com o tempo, a estrutura Auto-Regressiva de Ordem 1, em conjunto com a curva de crescimento logística, foi a que melhor ajustou os dados, tendo como de nidor o Critério AIC (Akaike's Infromation Criterion).

Resumo estendido: 
Divulgar conteúdo