Probabilidade e Processos Estocásticos
Object Pattern Analysis
In plant ecology, each individual plant is mapped as a point with the
Cartesian coordinates (x,y) representing the center of their
stems. But, depending on the dimensions of the individuals in relation to the
scale that we want to analyze, this transformation can cause problems. To
analyze the spatial configuration of individuals (trees, coral, etc...) using
traditional statistical spatial methods like Ripley K-function (Ripley 1977), each individual within the study site is represented as a point. Problem can arise due to the loss of information during the transformation.
The limitations of this procedure which considers a three dimensional plant
individual as a point, affect the interpretation of results obtained via
standart spatial methods, which can not correspond to what is really
happening at the study site.
the main objective of this paper is to provide a suitable method to perform
spatial analysis of individuals, considering these individuals as a circular
objects, rather than points. The idea behind the method is to approximate
each individual as a circle and to perform the spatial analysis considering
these individuals as circular objects.
Probabilidade de Ruína com eventos espaciais
Os modelos clássicos de risco em seguros baseiam-se em independência entre a ocorrência dos sinistros e entre os valores de indenização dos mesmos. No entanto, em eventos associados com fenômenos naturais, a suposição torna-se inválida e inadequada. Nesse artigo, estudamos alguns modelos alternativos para a aproximação da probabilidade de ruína quando os sinistros possuem localização geográfica. Nosso objetivo é verificar o impacto do grau de correlação espacial dos sinistros na probabilidade de ruína. Em particular, queremos avaliar o erro cometido no cálculo da probabilidade de ruína quando ignoramos a correlação espacial desses eventos.
GEV Long-Short Strategy: uma nova modalidade quantitativa
As estratégias long-short compreendem a manutenção simultânea de compra e venda de ações e de derivativos, ambos susceptíveiseis a apreciação ou depreciação, e têm o objetivo de obter retornos adicionais, superiores aos custos de oportunidade e independentes ao movimento do mercado. Uma vez que a modelagem de séries financeiras requer análises que envolvam distribuições com caudas pesadas, não é mais possível a simples
suposição conveniente de normalidade, o que faz com que a teoria clássica sustentada principalmente pela distribuição normal não tenha aplicabilidade pertinente. O principal objetivo deste trabalho é utilizar a
Teoria de Valores Extremos para se estabelecer uma nova modalidade quantitativa de Long-Short, de modo
que os fundos tenham a capacidade de gerar ganhos positivos ao proverem retornos não necessariamente
correlacionados com classes de ativos tradicionais, com concomitante redução dos riscos de investimento.
Distribuição Skew Normal: Aproximações, Generalizações e Aplicações
Esse trabalho trata sobre distribuições assimétricas advindas da distribuição Normal, além de formas gerais para qualquer distribuição. Utilizando-se de fórmulas de assimetrização como a de Azzalini (1986) e a de Fernández e Steel (1998) compomos distribuições assimétricas para a Normal. Esse trabalho propõe também generalizações para as fórmulas de assimetrização. Além disso, nesse artigo utilizaremos uma aproximação da distribuição Normal por uma distribuição inversível, proposta em "On a new Invertible Generalized Logistic Distribution Approximation to Normal Distribution" de Pushpa N. Rathie e Prabhata K. Swamee para aproximar a distribuição Skew-Normal em expressões bem definidas. Neste trabalho muitas propriedades são desenvolvidas para todas as generalizações propostas como médias, variâncias, geratrizes de momentos, estimadores, entropias, etc... Além de toda a teoria desenvolvida neste trabalho, algumas aplicações com dados reais também estão presentes.
Algorithms for estimation of variable length Markov Chains and applications
There are many studies in the field of linguistics where the interest is to analyze the differences between Brazilian Portuguese and European Portuguese (henceforth BP and EP respectively). Both the BP on EP, have the same words set in their structure (lexicon). However, these languages have different syntaxes and different prosodies. The key point of this process of differentiation, is related to the question of finding
estimation methods. To better understand this theoretical context, we discuss here some basic concepts of variable length Markov chains, as well as a simulation study to find evidence whether to use BIC or AIC as the selection criteria of models to tune the pruning constant of the algorithm Context (Rissanen (1983); Buhlman and Wyner (1999)).
Comparação de assinaturas de amostras em Árvores Probabilísticas de Contexto
Em Galves, Galves, Garcia e Leonardi (2009) é introduzido o
critério do menor maximizador (smallest maximizer criterion) para
estimar uma Árvore Probabilística de Contexto (PCT). Este critério seleciona a árvore na classe das campeãs estimadas pelo BIC, para cada valor da constante de
penalização do modelo. Este algoritmo é chamado de G3L.
Dada uma amostra X_1,...,X_n, C_x é uma sequencia de
constantes de penalização que caracteriza esta amostra no seguinte
sentido:
1.Em amostras da mesma PCT, as sequencias de constantes de penalização geradas pelo G3L não diferem muito umas das
outras.
2.Em amostras de duas árvores diferentes as sequencias de constantes de penalização geradas pelo G3L são diferentes.
Estamos propondo um teste bootstrap, baseado na assinatura da
amostra, para decidir se duas amostras foram geradas a partir da
mesma árvore de contexto probabilística ou não.
Uma teoria limite não-padrão para cadeias de Markov
Neste trabalho apresentamos uma proposta de teoria não-padrão para o estudo de cadeias de Markov. A motivação é substituir as ferramentas clássicas de teoria da medida e análise funcional com o uso rigoroso de infinitésimos, seguindo a proposta de Nelson (1987), e com isso desenvolver uma teoria limite igualmente abrangente, porém mais simples, que a clássica. Nesta teoria não-padrão não existe o substancial hiato entre os processos com espaços de estado discretos e os com espaços gerais.
O ENSINO SOBRE A CONCEPÇÃO FREQUENTISTA DE PROBABILIDADE ESTRUTURADO NA SIMULAÇÃO COMPUTACIONAL
O texto trata sobre uma implementação computacional, que pode ser utilizada como ferramenta no ensino de probabilidade frequentista, fazendo uma simulação é possível estabelecer relação entre prática e teoria, melhorando o entendimento sobre a ocorrência natural dos eventos.
PADRONIZAÇÃO DE MODELOS TEÓRICOS DE PROBABILIDADE PARA SISMOS DIÁRIOS NO MUNICIPIO DE JOÃO CÂMARA/RN
No presente trabalho, foi feito um ajuste da Distribuição Generalizada de Pareto (GPD) para uma seqüência de sismos intraplacas, que ocorreu no município de João Câmara, NE do Brasil o qual foi monitorada continuamente durante dois anos (1987 e 1988). Esses dados foram utilizados para avaliar a ocorrência de eventos extremos na região. A fim de estimar os parâmetros da GPD, foram utilizados os seguintes métodos: máxima verossimilhança (MLE), máxima verossimilhança penalizada (MPLE), métodos dos momentos (moments), Pickands (Pickands), momentos ponderados pela probabilidade (viesado-PWMB e não-viesado-PWMU), divergência média da densidade (MDPD), melhor qualidade do ajuste (MGF), mediana (MED) e o método da máxima entropia (POME). Onde o método da máxima verossimilhança e o da máxima entropia foram os mais eficientes. Com esse ajuste, verificou-se que os sismos com maginitude de 1,5º deve ocorrer num período de retorno estimado de aproximadamente dez dias, por outro lado um sismo de 2,5º estima-se que ocorra a cada 500 dias, já o sismo histórico aquele que está no imaginário popular ocorrido em novembro de 1986, é pouco provável, pois o seu período de retorno é para 300 anos.
Curvas de Crescimento com estrutura de dependência em modelos de resposta ao item
Neste trabalho são propostos modelos para representar o comportamento das habilidades médias de um mesmo grupo de indivíduos acompanhados ao longo do tempo (estudo longitudinal), através da estimação dos parâmetros de Curvas de Crescimento, tais como: Linear, Quadrática, Logística e Gompertz. Como a estrutura longitudinal induz uma dependência entre os resultados nas várias condições de avaliação, propomos estruturas de covariância para modelar tal dependência. Consideramos conhecidos os parâmetros dos itens envolvidos no estudo. Uma aplicação é feita a dados resultantes da Pesquisa ''Avaliação do desempenho: Fatores Associados" do projeto Fundescola, aplicada a alunos de 4a. a 8a. série do Ensino Fundamental, no período de 1999 a 2003. Para este estudo, no qual a dependência entre as prociências médias diminue com o tempo, a estrutura Auto-Regressiva de Ordem 1, em conjunto com a curva de crescimento logística, foi a que melhor ajustou os dados, tendo como denidor o Critério AIC (Akaike's Infromation Criterion).