Ciências Exatas e da Terra
Understanding Raynaud’s Phenomenon through a Hierarchical Model Based on Splines
Raynaud's Phenomenon (RP) is a vasospastic disorder of some specific arteries, typically induced by cold exposure and emotional stress, causing discoloration of the fingers, toes, ears, and niples. RP can be classified as primary (PRP), with no identifiable underlying pathological disorder, and secondary which is frequently associated with systemic sclerosis (SS). Patients who are classified as primary RP might evolve to secondary RP.
Thermal infrared (IR) imaging is a technique providing the map of the superficial temperature of a given body by measuring the infrared energy emitted, providing important indirect information on circulation, thermal properties and thermoregulatory functionality of the cutaneous tissue. PRP, SS and healthy controls (HC) groups show different thermal recoveries in consequence of the same standardized functional stimulation. In this study patients from HC, PRP and SS groups underwent a standard cold challenge, and temperatures of the 10 fingers of each patient, before and after the cold stress, were recorded. Temperatures of each finger of each person were measured every 30 seconds, 2.5 minutes before the cold stress and 20 minutes after it, resulting on $T=46$ temperature measurements for each individual. We aim to estimate the mean temperature as a function of time for each finger of each patient.
We also aim to obtain an overall mean function for each patient. This will provide us with tools to understand better the temperature behaviour
of each patient from each group. For this, we propose a hierarchical model based on B-splines. Inference procedure is performed under the Bayesian paradigm, therefore we are able to clearly describe the uncertainty of our estimates.
Medidas do Valor Preditivo de Modelos de Classificação Aplicados a Dados de Crédito
Para diminuir o risco de decisões errôneas na concessão de crédito a clientes, métodos estatísticos têm sido empregados para descrever a habilidade de modelos de classificação. A qualidade da previsão de um modelo de classificação pode ser avaliada a partir de medidas, como sensibilidade, especificidade, valores de predição positivo e negativo e acurácia, bem como através de coeficientes de correlação (Matthews e correlação aproximada) e medidas teóricas de informação (medida de informação mútua). Neste trabalho de iniciação científica, realizamos um estudo de simulação com o objetivo de comparar as técnicas estatísticas de regressão logística com seleção de amostra state-dependent e regressão logística usual (Hosmer & Lemeshow, 1989), por meio de tais medidas de desempenho. Também ilustramos os procedimentos apresentados em um conjunto de dados reais (dados financeiros extraídos de uma carteira de um banco).
Probabilidade de Ruína com eventos espaciais
Os modelos clássicos de risco em seguros baseiam-se em independência entre a ocorrência dos sinistros e entre os valores de indenização dos mesmos. No entanto, em eventos associados com fenômenos naturais, a suposição torna-se inválida e inadequada. Nesse artigo, estudamos alguns modelos alternativos para a aproximação da probabilidade de ruína quando os sinistros possuem localização geográfica. Nosso objetivo é verificar o impacto do grau de correlação espacial dos sinistros na probabilidade de ruína. Em particular, queremos avaliar o erro cometido no cálculo da probabilidade de ruína quando ignoramos a correlação espacial desses eventos.
COMPARAÇÃO DE MODELOS PARA A IDENTIFICAÇÃO DE UM PONTO DE MUDANÇA EM RETORNOS DE MERCADOS EMERGENTES
Normalidade e estrutura regular ao longo do tempo podem ser fortes suposições para conjuntos de dados provindos de diversas áreas de aplicação. Na área financeira, por exemplo, sabe-se que mercados emergentes são mais suscetíveis ao cenário político do que mercados desenvolvidos. Nestes casos, as distribuições empíricas dos retornos desses mercados de valores freqüentemente exibem assimetria, bem como mudanças estruturais.
De trabalhos anteriores, observou-se que a classe de distribuições normais assimétricas, associada ou não à teoria de pontos de mudança, pode ser uma boa alternativa para a modelagem de retornos de mercados emergentes. Os modelos disponíveis na literatura identificam pontos de mudança, no máximo, no parâmetro de assimetria da distribuição dos retornos. Sabe-se, contudo, que os retornos também apresentam mudanças estruturais no valor médio e na volatilidade (medida através da variância).
Neste trabalho, propomos um modelo bayesiano mais flexível para os dados de retornos emergentes que os apresentados na literatura, baseado na distribuição normal assimétrica com um ponto de mudança, e comparamos todos os modelos, via medidas Bayesianas. Para os modelos com ponto de mudança, testa-se se realmente houve mudança nos parâmetros de interesse através do Teste de Significância Bayesiano Completo (FBST).
ESTIMAÇÃO DE POPULAÇÕES USANDO IMAGENS DE SATÉLITE VIA MODELOS DE REGRESSÃO
O tamanho da população humana de uma região é uma característica dinâmica. Deste modo, surge a necessidade da estimação de populações em intervalos menorese utilizando metodologia mais barata e rápida do que um recenseamento populacional. Diante do desenvolvimento da área de Sensoriamento Remoto, uma alternativa para estimação de populações humanas é utilizar imagens de satélite em modelos de regressão. Neste trabalho, propomos estimar o tamanho populacional dos setores censitários urbanos do município de Belo Horizonte, em 2000, via imagens de satélite e via informações da contagem populacional de 1996, através de modelos (por pixels e por setor) mais sofisticados que possam explorar de maneira mais abrangente a riqueza dos dados das imagens de satélite e dos censos populacionais.
Modelo de Mistura Padrão com Fragilidade
Neste trabalho apresentamos o modelo de mistura padrão de Berkson & Gage (1952) com um termo de fragilidade. Esse modelo possui a vantagem em relação aos modelos de sobrevivência usuais, no sentido de incorporarem a heterogeneidade de duas subpopulações (susceptíveis e imunes) ao evento de interesse. Consideramos o modelo com um termo de fragilidade como uma alternativa para modelar dados de sobrevivência com longa duração. Nesse modelo, um efeito aleatório, denominado fragilidade, é introduzido na função de risco com o objetivo de controlar a heterogeneidade não observável das unidades em estudo, inclusive a dependência das unidades que partilham os mesmos fatores de risco. Fazendo o uso do pacote GAMLSS do R, consideramos dados reis para medir uma possível heterogeneidade entre os indivíduos. A metodologia também é ilustrada com dados artificiais, através do qual mostramos a probabilidade de cobertura dos parâmetros envolvidos em diferentes tamanhos de amostras. Discutimos também, o custo de estimar a proporção de curados na população quando um efeito aleatório é introduzido no modelo.
Modelo de Mistura Padrão Weibull Modificada Generalizada
Neste trabalho propomos o modelo de mistura padrão Weibull Modificada Generalizada (GMW), que é baseado no modelo de mistura padrão de Berkson & Gage (1952), assumindo que a função de sobrevivência base provém da distribuição (GMW). Essa distribuição é capaz de modelar taxas de falhas monótonas e também as não monótonas, o que são bem comuns em análise de sobrevivência. A distribuição (GMW) apresenta vários sub-modelos como, as distribuições, exponencial, Weibull, Weibull exponenciada, Weibull modificada, entre outras. O modelo proposto possui a vantagem em relação aos modelos de sobrevivência usuais, no sentido de incorporarem a heterogeneidade de duas subpopulações (imunes e susceptíveis) ao evento de interesse. Foi ajustado o modelo e seus sub-modelos a dados reais de sobrevivência, comparamos a curva paramétrica estimada com a curva de sobrevivência empírica dada por Kaplan-Meier. Pelos critérios AIC, BIC e a distância entre as curvas (medida através da norma euclidiana) selecionamos o melhor modelo. Para o conjunto de dados analisado, o parâmetro de cura foi altamente significativo, indicando que uma parcela da população foi curada.
Modelagem de Retornos Climatológicos via Modelos GARCH
Neste trabalho serão apresentados os aspectos teóricos e práticos de uma classe de modelos heteroscedásticos condicionais, mais conhecidos como modelos da família GARCH (generalized autoregressive conditional heteroscedasticity). A proposta é verificar se tais modelos, largamente utilizado em cenários financeiros, podem ser também utilizados no âmbito meteorológico, trazendo resultados satisfatórios, consistentes e representativos para previsões de volatilidade a curto prazo de variáveis que caracterizam o clima. Serão feitos dois enfoques de estimação: frequentista e bayesiano, apresentando suas aplicabilidades e verificando qual dentre as diferentes combinações de modelos melhor se ajusta à cada uma de seis séries de retornos de extremos climáticos fornecidas pelo Instituto Nacional de Meteorologia (INMET). Salienta-se aqui o forte uso de recursos computacionais na construção dos algoritmos necessários para a modelagem estatística, todos programados em R, devido à inexistência de ferramentas específicas em pacotes de tal linguagem. Palavras-chave: Autoregressive Conditional Heteroskedasticity, Generalized Autoregressive Conditional Heteroskedasticity, Extremos Climáticos, Inferência Bayesiana, métodos MCMC.
CÁLCULO DO RISCO DE INSOLVÊNCIA COM BASE NO DESCASAMENTO (RID)
De uma forma geral, o início da crise econômica de 2008 foi marcado pela situação de pânico instaurada em muitas instituições financeiras, dado o alto risco de insolvência em que foram submetidas. Mesmo com a injeção de grandes quantias monetárias, o risco de insolvência continuou em patamares elevados, uma vez que bilhões em ativos podres ainda continuavam nos livros dos bancos. Este trabalho tem por objetivo criar uma função com base no descasamento entre ativos e passivos que indique a valor presente o risco de insolvência em que determinada instituição está submetida. Isso será feito com o intuito de fornecer aos analistas de mercado uma nova ferramenta para análise e mensuração do risco de insolvência de instituições financeiras.
Comparações Múltiplas de Médias em Modelos Paramétricos Através de Contrastes Gerais, Restrições Lógicas e Correlações
A ANOVA, efeitos fixos, assume o modelo Y = X + , sendo X uma matriz n x p do delineamento, um vetor p x 1 de parâmetros e um vetor n x 1 de variáveis aleatórias geralmente assumidas ~ NIID(0, 2), para testar a hipótese H0: µ1 = µ2 = ... = µk = µ, contra a alternativa Ha: i ≠ j para algum par i ≠ j sendo µi a média de Y na i-ésima população ou grupo. A rejeição de H0 implica na necessidade de testar H1, H2, ..., Hs hipóteses num mesmo conjunto de dados, através de estatísticas de teste T1, T2, ..., Ts, ou seja, fazer comparações múltiplas. Vários procedimentos conhecidos como Tukey(1951), Duncan(1953, 1955), SNK(1939, 1952), REGWQ(1959,1960,1975), Bonferoni(1966), Scheffé(1953), etc., tem sido usados por muitos anos para este propósito. Alguns destes procedimentos não mantêm a taxa de erro experimental constante e outros têm baixo poder ou só são válidos para dados normais, com variância de Y homogênea nos grupos e, pelo menos parcialmente balanceados. Recentemente vem sendo desenvolvido o enfoque da aplicação de testes t múltiplos (Shaffer, 1986, Westfall & Young, 1993, Westfall, 1997), que usa a hipótese linear geral H0: C= em funções estimáveis, restrições lógica, covariâncias entre as funções e valores-p estimados por simulação e ajustados conforme o método de Bonferroni, aperfeiçoado. O objetivo do presente estudo foi comparar através de simulação, a performance dos procedimentos de comparações múltiplas de médias baseados em testes t múltiplos com o procedimento clássico de Tukey, considerando-se várias configurações de médias na hipótese alternativa, incluindo algumas hipóteses nulas parciais.