Ciências Exatas e da Terra
Modelo Weibull e Log-Logístico com Longa-Duração: Uma Aplicação a Dados Reais
Os modelos de análise de sobrevivência com longa duração acomodam a
heterogeneidade de duas populações (susceptíveis e imunes ao evento
de interesse). Para exemplificar a aplicabilidade de tais modelos a
grande bancos de dados da área de finanças, consideramos o modelo
proposto por \cite{berkson52}, assumindo as distribuições de
sobrevivência Weibull e log-logística para os tempos de duração.
Verificamos que, uma métrica simples como a medida de distância
entre curvas, é capaz de selecionar o modelo mais apropriado aos
dados na presença de longa-duração tanto para pequenas quanto para
grandes carteiras de clientes, mesmo na presença de censuras. Um
estudo de simulação foi proposto e será apresentado no decorrer da
pesquisa.
Small area estimation using skew-normal models
The main aim of this work is to propose two important connected extensions of the Fay and Heriot (1979) area level small area estimation model that might be of practical and theoretical interests. The first extension allows for the sampling error to be non-symmetrically distributed. This is important for the case that the sample sizes in the areas are not large enough to rely on the Central Limit Theorem. We deal with this by assuming that the sample error is skew-normal distributed. The second extension proposes to jointly model the direct survey estimator and its respective variance estimator. Proceeding in this way, we manage to take into account all sources of uncertainties. We applied our proposed model to a real data set and compare with the usual Fay-Heriot model under the assumptions of the unknown sampling variance. We also carried out a simulation study to evaluate frequentist properties of our proposed model. As it expected, our evaluation studies show that our proposed model are more efficient for producing small are prediction under skew data.
PLANOS EXPERIMENTAIS COM RESTRIÇÕES NA ALEATORIZAÇÃO ENVOLVENDO MISTURAS
Durante a fase de planejamento de um experimento, um dos grandes desafios é lidar com a limitação de recursos. Assim, planos completamente aleatorizados nem sempre representam uma alternativa viável de realizar um experimento. Naturalmente, planos experimentais com restrições na aleatorização, como os da classe Split-plot e Strip-plot tornam-se práticos e úteis. Neste trabalho, aborda-se restrições na aleatorização no contexto de experimentos
com misturas. O plano sugerido envolve misturas com restrição na aleatorização do tipo Strip-plot possuindo réplicas somento do ponto central dos componentes da misturas e das variáveis de processo. O objetivo é verificar a eficácia de métodos de estimação de parâmetros para este tipo de experimento. Serão observados o método do Erro Puro e da Máxima Verossimilhança Restrita. Ao final, discussões sobre os resultados obtidos e sugestões para novas investigações são dadas.
Monitoramento da Vochysia inundata Ducke por meio de Gráfico de Controle de Regressão Funcional
O gráfico de controle de regressão funcional é uma ferramenta do controle estatístico da qualidade, bastante útil, porém, pouco difundida para monitorar processos onde estes admitem erro na variável independente (X), geralmente, oriundos da não calibração de aparelhos, ou até mesmo de erro humano. Desta forma, o objetivo da utilização desta ferramenta estatística é monitorar o comportamento das características da qualidade que apresentem relação estatística, para este caso, diâmetro e volume da árvore Vochysia inundata Ducke. Para modelagem a partir da análise de regressão funcional, fez-se necessário a aplicação da transformação de Box-Cox, pois o modelo inicial viola o pressuposto de homocedasticidade. A partir do monitoramento das características da qualidade da árvore Vochysia inundata Ducke, observou-se por meio do gráfico de controle de regressão funcional que o processo deve ser investigado, pois nota-se a existência de pontos amostrais acima do limite superior de controle (LSC), ou seja, mostrando árvores com valores acima do esperado, sendo possivelmente altas e de diâmetro um pouco menor, o que torna inviável o corte comercial da árvore.
CONTROLE ON-LINE PARA O NÚMERO DE NÃO-CONFORMIDADES NO ITEM INSPECIONADO BASEADO EM UMA SEQÜÊNCIA DE INSPEÇÃO
O procedimento de controle on-line de processos por atributos, proposto por Taguchi et al. (1989), consiste em inspecionar um item a cada m produzidos para averiguar se o mesmo é ou não conforme. Caso o item inspecionado seja não-conforme, pára-se o processo para ajuste; Caso contrário, o processo continua. Ho et al. (2007) propuseram uma modelagem para o caso de contagem de número de não-conformidades no item inspecionado com modelagem via distribuição de Poisson e, neste trabalho, propomos uma extensão onde é incluída uma regra adicional de decisão para a parada do processo, baseada nas últimas h inspeções. Utilizando-se das propriedades de uma cadeia de Markov ergódica, foi obtida uma expressão do custo médio do sistema de controle, que pode ser minimizada por quatro parâmetros: Intervalo entre inspeções (m), limite de alarme (W), limite de controle (C) e o tamanho da seqüência dos valores na zona amarela (h).
Análise Espaço-Temporal de Efeito de Fogos Florestais em Portugal
Na última década, os incêndios florestais tornaram-se uma das catástrofes naturais mais graves em Portugal. O elevado número de ocorrências e a sua severidade provocam grande devastação levando a elevados prejuízos, quer económicos quer ambientais, e colocando em risco bens, populações e a subsistência da própria floresta. Neste trabalho apresentam-se modelos hierárquicos bayesianos para analisar dados espaço-temporais relativos à proporção de área ardida em Portugal continental por concelho ao longo das últimas três décadas. Distribuições mistas foram usadas para modelar conjuntamente a proporção de área ardida e a existência de concelhos sem área ardida em determinados anos. Na obtenção de estimativas a posteriori dos parâmetros de interesse, usaram-se métodos de Monte Carlo via cadeias de Markov (MCMC).
Estimation in Generalized Log-gamma Regression Model for Interval-censored Data
Interval-censored survival data, in which the event of interest is not observed exactly but it is only known to occur within some time interval, appear very frequently. In this study, we shall be concerned only with parametric forms, so a location-scale regression model based on the generalized log-gamma distribution is proposed for modeling interval-censored data. We also show that the model proposed with interval-censored data is interesting as it represents a parametric family of models that has, as special sub-models, other regression models which are broadly used in lifetime data analysis. Assuming interval-censored data, we consider a frequentist analysis, a Jackknife estimator and non-parametric bootstrap, for the parameters of the model.
Dinâmica Fractal de Séries Temporais de Poluentes Atmosféricos
A poluição nas grandes metrópoles é intensa, ocasionada principalmente pelo aumento da industrialização. Todas as cidades brasileiras passam por uma exposição diária de emissão de poluentes gasosos. Com o intuito de contribuir com o estudo de métodos estatísticos voltados para análise de dados sobre emissão de poluentes, este trabalho tem o objetivo de quanticar utilizando Detrended Fluctuation Analysis a correlação de longo alcance das séries temporais da emiss ão diária dos poluentes PM10, SO2, CO e NO2 na cidade de São Paulo no período de janeiro de 1997 à dezembro de 2000. A utilização do método DFA mostrou-se adequada à mensuração da correlação de longo alcance proporcianando uma melhor compreensão do fenômeno em estudo.
Processos de Poisson não-homogêneo, estimando o número excessos de ozônio, para um limiar, na Cidade do México
Neste trabalho, busca-se modelar o número acumulado de vezes em que um padrão de ar é violado por determinado poluente, num determinado intervalo de tempo. Para atingir este objetivo é proposto o modelo de Poisson não-homogêneo com uma função de valor médio m(t) e a taxa em que os eventos ocorrem é dada por λ(t), t ≥ 0. Essa taxa também depende de alguns parâmetros que precisam ser estimados. Duas formas de λ(t), t ≥ 0 são consideradas. Uma delas é da forma Exponencial e a outra é da forma Weibull. A estimação desses parâmetros é feita utilizando uma formulação Bayesiana baseada em métodos MCMC (Monte Carlo em Cadeias de Markov). Para as distribuições a priori dos parâmetros é realizada em duas fases. Na primeira fase, são consideradas as distribuições priori não-informativas. Usando as informações obtidas pela primeira fase, mais informativas são as distribuições a priori utilizadas na segunda fase. O desenvolvimento teórico é aplicado aos dados fornecidos pela rede de monitoração da Cidade do México. A função taxa que melhor se adapta aos dados varia de acordo com a região da cidade. Em alguns casos, o melhor ajuste é da forma Exponencial e em outros casos, o melhor ajuste é da forma Weibull.
MÉTODOS DE ESTIMAÇÃO DOS PARÂMETROS DA GEVD E DA GPD - UMA ANÁLISE COMPARATIVA.
Na teria de Valores Extremos, dizemos que, basicamente, duas distribuições tratam de pontos extremos, as quais são a Distribuição de Valores Extremos Generalizada (GEVD) e a Distribuição Generalizada de Pareto (GPD). Nosso trabalho visa esclarecer as 9 formas de estimação dos parâmetros da distribuição de valores extremos GPD, as quais são: Método da Máxima Verossimilhança, Método da Máxima Verossimilhança Penalizada, Método dos Momentos, Método de Pickands, Princípio da Máxima Entropia (POME), Método do Momento Ponderado pelas probabilidades: viesado e não-viesado (PWMB E PWMU), Método da divergência da média da Densidade, Método da Mediana, Método da Melhor Qualidade do Ajuste. Na segunda parte faremos por meio de simulação, usando o programa R e o banco de dados usado foi o de precipitação em Brasília de 1 de janeiro de 1961 até 29 de maio de 2009, dados diários, apresentar resultados quanto comparação entre os métodos de estimação dos parâmetros da GPD.