Ciências Exatas e da Terra

Modelo Weibull e Log-Logístico com Longa-Duração: Uma Aplicação a Dados Reais

Autor(es) e Instituição: 
Daniele Cristina Tita Granzotto - Universidade Estadual de Maringá - UEM
Francisco Louzada Neto - Universidade Federal de São Carlos - UFSCar
Gleici da Silva Castro Perdoná - Faculdade de Medicina de Ribeirão Preto - FMRP
Apresentador: 
Daniele Cristina Tita Granzotto

Os modelos de análise de sobrevivência com longa duração acomodam a
heterogeneidade de duas populações (susceptíveis e imunes ao evento
de interesse). Para exemplificar a aplicabilidade de tais modelos a
grande bancos de dados da área de finanças, consideramos o modelo
proposto por \cite{berkson52}, assumindo as distribuições de
sobrevivência Weibull e log-logística para os tempos de duração.
Verificamos que, uma métrica simples como a medida de distância
entre curvas, é capaz de selecionar o modelo mais apropriado aos
dados na presença de longa-duração tanto para pequenas quanto para
grandes carteiras de clientes, mesmo na presença de censuras. Um
estudo de simulação foi proposto e será apresentado no decorrer da
pesquisa.

Resumo estendido: 

Small area estimation using skew-normal models

Autor(es) e Instituição: 
Valmária Rocha da Silva
Fernando Antônio da Silva Moura
Apresentador: 
Valmária Rocha da Silva

The main aim of this work is to propose two important connected extensions of the Fay and Heriot (1979) area level small area estimation model that might be of practical and theoretical interests. The first extension allows for the sampling error to be non-symmetrically distributed. This is important for the case that the sample sizes in the areas are not large enough to rely on the Central Limit Theorem. We deal with this by assuming that the sample error is skew-normal distributed. The second extension proposes to jointly model the direct survey estimator and its respective variance estimator. Proceeding in this way, we manage to take into account all sources of uncertainties. We applied our proposed model to a real data set and compare with the usual Fay-Heriot model under the assumptions of the unknown sampling variance. We also carried out a simulation study to evaluate frequentist properties of our proposed model. As it expected, our evaluation studies show that our proposed model are more efficient for producing small are prediction under skew data.

PLANOS EXPERIMENTAIS COM RESTRIÇÕES NA ALEATORIZAÇÃO ENVOLVENDO MISTURAS

Autor(es) e Instituição: 
Silva, Allan Robert
Vivacqua, Carla Almeida
Daniel, Carlos Raphael Araújo
Apresentador: 
Silva, Allan Robert

Durante a fase de planejamento de um experimento, um dos grandes desafios é lidar com a limitação de recursos. Assim, planos completamente aleatorizados nem sempre representam uma alternativa viável de realizar um experimento. Naturalmente, planos experimentais com restrições na aleatorização, como os da classe Split-plot e Strip-plot tornam-se práticos e úteis. Neste trabalho, aborda-se restrições na aleatorização no contexto de experimentos
com misturas. O plano sugerido envolve misturas com restrição na aleatorização do tipo Strip-plot possuindo réplicas somento do ponto central dos componentes da misturas e das variáveis de processo. O objetivo é verificar a eficácia de métodos de estimação de parâmetros para este tipo de experimento. Serão observados o método do Erro Puro e da Máxima Verossimilhança Restrita. Ao final, discussões sobre os resultados obtidos e sugestões para novas investigações são dadas.

Resumo estendido: 

Monitoramento da Vochysia inundata Ducke por meio de Gráfico de Controle de Regressão Funcional

Autor(es) e Instituição: 
Marcello Neiva de Mello
Edson Marcos Leal Soares Ramos
Adrilayne dos Reis Araújo
Silvia dos Santos de Almeida
Wagner Rogério Ferreira Pinheiro
Apresentador: 
Wagner Rogério Ferreira Pinheiro

O gráfico de controle de regressão funcional é uma ferramenta do controle estatístico da qualidade, bastante útil, porém, pouco difundida para monitorar processos onde estes admitem erro na variável independente (X), geralmente, oriundos da não calibração de aparelhos, ou até mesmo de erro humano. Desta forma, o objetivo da utilização desta ferramenta estatística é monitorar o comportamento das características da qualidade que apresentem relação estatística, para este caso, diâmetro e volume da árvore Vochysia inundata Ducke. Para modelagem a partir da análise de regressão funcional, fez-se necessário a aplicação da transformação de Box-Cox, pois o modelo inicial viola o pressuposto de homocedasticidade. A partir do monitoramento das características da qualidade da árvore Vochysia inundata Ducke, observou-se por meio do gráfico de controle de regressão funcional que o processo deve ser investigado, pois nota-se a existência de pontos amostrais acima do limite superior de controle (LSC), ou seja, mostrando árvores com valores acima do esperado, sendo possivelmente altas e de diâmetro um pouco menor, o que torna inviável o corte comercial da árvore.

Resumo estendido: 

CONTROLE ON-LINE PARA O NÚMERO DE NÃO-CONFORMIDADES NO ITEM INSPECIONADO BASEADO EM UMA SEQÜÊNCIA DE INSPEÇÃO

Autor(es) e Instituição: 
André Luiz Sena da Rocha - PEP-UFRN
Pledson Guedes de Medeiros - DEST-UFRN
Linda Lee Ho - POLI-USP
Apresentador: 
André Luiz Sena da Rocha

O procedimento de controle on-line de processos por atributos, proposto por Taguchi et al. (1989), consiste em inspecionar um item a cada m produzidos para averiguar se o mesmo é ou não conforme. Caso o item inspecionado seja não-conforme, pára-se o processo para ajuste; Caso contrário, o processo continua. Ho et al. (2007) propuseram uma modelagem para o caso de contagem de número de não-conformidades no item inspecionado com modelagem via distribuição de Poisson e, neste trabalho, propomos uma extensão onde é incluída uma regra adicional de decisão para a parada do processo, baseada nas últimas h inspeções. Utilizando-se das propriedades de uma cadeia de Markov ergódica, foi obtida uma expressão do custo médio do sistema de controle, que pode ser minimizada por quatro parâmetros: Intervalo entre inspeções (m), limite de alarme (W), limite de controle (C) e o tamanho da seqüência dos valores na zona amarela (h).

Resumo estendido: 

Análise Espaço-Temporal de Efeito de Fogos Florestais em Portugal

Autor(es) e Instituição: 
Inês Dias, Departamento de Matemática da Universidade de Évora e CIMA, Portugal
Giovani Loiola da Silva, Dep. Matemática - IST, Universidade Técnica de Lisboa e CEAUL, Portugal
Apresentador: 
Inês Dias

Na última década, os incêndios florestais tornaram-se uma das catástrofes naturais mais graves em Portugal. O elevado número de ocorrências e a sua severidade provocam grande devastação levando a elevados prejuízos, quer económicos quer ambientais, e colocando em risco bens, populações e a subsistência da própria floresta. Neste trabalho apresentam-se modelos hierárquicos bayesianos para analisar dados espaço-temporais relativos à proporção de área ardida em Portugal continental por concelho ao longo das últimas três décadas. Distribuições mistas foram usadas para modelar conjuntamente a proporção de área ardida e a existência de concelhos sem área ardida em determinados anos. Na obtenção de estimativas a posteriori dos parâmetros de interesse, usaram-se métodos de Monte Carlo via cadeias de Markov (MCMC).

Resumo estendido: 

Estimation in Generalized Log-gamma Regression Model for Interval-censored Data

Autor(es) e Instituição: 
Elizabeth M. Hashimoto - ESALQ/USP
Edwin M. M. Ortega - ESALQ/USP
Gauss M. Cordeiro - UFRPE
Vicente G. Cancho - ICMC/USP
Apresentador: 
Elizabeth Mie Hashimoto

Interval-censored survival data, in which the event of interest is not observed exactly but it is only known to occur within some time interval, appear very frequently. In this study, we shall be concerned only with parametric forms, so a location-scale regression model based on the generalized log-gamma distribution is proposed for modeling interval-censored data. We also show that the model proposed with interval-censored data is interesting as it represents a parametric family of models that has, as special sub-models, other regression models which are broadly used in lifetime data analysis. Assuming interval-censored data, we consider a frequentist analysis, a Jackknife estimator and non-parametric bootstrap, for the parameters of the model.

Resumo estendido: 

Dinâmica Fractal de Séries Temporais de Poluentes Atmosféricos

Autor(es) e Instituição: 
Rita de Cássia de Lima Idalino - UFRPE
Jeremias da Silva Leão - UFPE
Danielle Loureiro Roges- UFRPE
José Rodrigo Santos Silva- UFRPE
Paulo Duarte Neto- UFRPE
Paulo Sérgio Lucio - UFRN
Tatijana Stosic - UFRPE
Apresentador: 
José Rodrigo Santos Silva

A poluição nas grandes metrópoles é intensa, ocasionada principalmente pelo aumento da industrialização. Todas as cidades brasileiras passam por uma exposição diária de emissão de poluentes gasosos. Com o intuito de contribuir com o estudo de métodos estatísticos voltados para análise de dados sobre emissão de poluentes, este trabalho tem o objetivo de quanticar utilizando Detrended Fluctuation Analysis a correlação de longo alcance das séries temporais da emiss ão diária dos poluentes PM10, SO2, CO e NO2 na cidade de São Paulo no período de janeiro de 1997 à dezembro de 2000. A utilização do método DFA mostrou-se adequada à mensuração da correlação de longo alcance proporcianando uma melhor compreensão do fenômeno em estudo.

Resumo estendido: 

Processos de Poisson não-homogêneo, estimando o número excessos de ozônio, para um limiar, na Cidade do México

Autor(es) e Instituição: 
Lorena Vicini- UNICAMP
Luiz Koodi Hotta - UNICAMP
Jorge Achcar - USP
Eliane Rodrigues - Universidad Nacional Autonoma de Mexico
Apresentador: 
Lorena Vicini

Neste trabalho, busca-se modelar o número acumulado de vezes em que um padrão de ar é violado por determinado poluente, num determinado intervalo de tempo. Para atingir este objetivo é proposto o modelo de Poisson não-homogêneo com uma função de valor médio m(t) e a taxa em que os eventos ocorrem é dada por λ(t), t ≥ 0. Essa taxa também depende de alguns parâmetros que precisam ser estimados. Duas formas de λ(t), t ≥ 0 são consideradas. Uma delas é da forma Exponencial e a outra é da forma Weibull. A estimação desses parâmetros é feita utilizando uma formulação Bayesiana baseada em métodos MCMC (Monte Carlo em Cadeias de Markov). Para as distribuições a priori dos parâmetros é realizada em duas fases. Na primeira fase, são consideradas as distribuições priori não-informativas. Usando as informações obtidas pela primeira fase, mais informativas são as distribuições a priori utilizadas na segunda fase. O desenvolvimento teórico é aplicado aos dados fornecidos pela rede de monitoração da Cidade do México. A função taxa que melhor se adapta aos dados varia de acordo com a região da cidade. Em alguns casos, o melhor ajuste é da forma Exponencial e em outros casos, o melhor ajuste é da forma Weibull.

MÉTODOS DE ESTIMAÇÃO DOS PARÂMETROS DA GEVD E DA GPD - UMA ANÁLISE COMPARATIVA.

Autor(es) e Instituição: 
KALINE JULIANA SILVA DO NASCIMENTO
PAULO SÉRGIO LUCIO
KELLY CRISTINA DA SILVA MATOS
MARIANA BARBOSA DA SILVA
Apresentador: 
KALINE JULIANA SILVA DO NASCIMENTO

Na teria de Valores Extremos, dizemos que, basicamente, duas distribuições tratam de pontos extremos, as quais são a Distribuição de Valores Extremos Generalizada (GEVD) e a Distribuição Generalizada de Pareto (GPD). Nosso trabalho visa esclarecer as 9 formas de estimação dos parâmetros da distribuição de valores extremos GPD, as quais são: Método da Máxima Verossimilhança, Método da Máxima Verossimilhança Penalizada, Método dos Momentos, Método de Pickands, Princípio da Máxima Entropia (POME), Método do Momento Ponderado pelas probabilidades: viesado e não-viesado (PWMB E PWMU), Método da divergência da média da Densidade, Método da Mediana, Método da Melhor Qualidade do Ajuste. Na segunda parte faremos por meio de simulação, usando o programa R e o banco de dados usado foi o de precipitação em Brasília de 1 de janeiro de 1961 até 29 de maio de 2009, dados diários, apresentar resultados quanto comparação entre os métodos de estimação dos parâmetros da GPD.

Resumo estendido: 
Divulgar conteúdo