Estatística Aplicada em Engenharia e Ciências Exatas
An Improved |S| Control Chart for Multivariate Process Variability Monitoring based on Cornish-Fisher Correction
This paper presents an improved version of the generalized variance |S| control chart for multivariate process dispersion monitoring, based on the Cornish-Fisher formula for non-normality correction of the usual normal based 3-sigma limits chart. The exact sample distribution of |S| doesn't have a simple known form for dimension p>2, and we show here that the information from its 3rd and 4th order moments or cumulants are sufficient for a satisfactory approximation. The performance of this corrected control chart is compared (in terms of false alarm risk) with the original normal based chart and the exact distribution based chart (for p=2 and p=3) where in the last case (p=3), the exact distribution is obtained by simulation methods. This study shows that the control limits corrections do remove the drawback of excess of false alarm associated with the traditional normal based |S| control chart. Finally, the proposed new chart is illustrated with a numerical example of application with real data.
Aplicação de Modelos Geoestatísticos para o índice de cone
This research aimed to study the spatial dependence of the penetration resistance
of soil maps and evaluate conditional probabilities, finding a threshold resistance to root
penetration and emergence of seeds. The geostatistical techniques are important tool for precision agriculture, because their use can cheapen the costs of monitoring soil compaction and simultaneously generate predictive maps of high quality.
Análise Não-Paramétrica de Dados Funcionais: Uma Aplicação à Quimiometria
Devido à grande evolução dos computadores tornou-se comum coletar dados de alta dimensão. A quimiometria, que é a aplicação de métodos estatísticos e matemáticos à dados de origem química, pode ser citada como exemplo, pois nestes casos os dados são espectros que geralmente são observados em vários comprimentos de onda. O problema de como combinar estes espectros de forma ótima com o objetivo de aproximar medidas de concentrações é um problema de calibração multivariada. Em geral, esta calibração é feita com técnicas de estatística multivariada, que por sua vez, apresentam sérias dificuldades em lidar com a alta dimensão dos dados. Neste trabalho propomos um modelo que considere as características funcionais intrínsecas deste tipo de problema, uma vez que as técnicas de estatística multivariada não consideram tais características.
Algumas das técnicas de estatística multivariada mais utilizadas são de regressão linear múltipla multivariada (MLR) e regressão por mínimos quadrados parciais (PLS). Estas técnicas resumem a informação da matriz de dados, seja por escolha de quem está modelando, seja por análise de componentes principais e isto pode ocasionar perda de informações importantes para as análises. Devido a estas dificuldades propomos um modelo que considera o dado como ele é, uma função, e não como um dado multivariado e propomos também um modelo funcional para a estrutura de covariância. Ambos os modelos propostos utilizam a análise de dados funcionais (ADF) e por isso não apresentam as dificuldades comuns dos métodos de estatística multivariada, uma vez que a alta dimensão dos dados não é tao restritiva quanto nas técnicas multivariadas.
Controle estatístico do processo de filtração da torta de filtro e análise da quantidade de açúcar perdido
Esta pesquisa teve o objetivo de analisar a qualidade do processo de filtros de tambor rotativo contínuo a vácuo em uma usina de açúcar e álcool e a quantidade de açúcar perdido nesse processo. O estudo baseou-se no controle estatístico de processo que é uma ferramenta utilizada em vários seguimentos, tendo uma maior aplicabilidade na indústria e com objetivo da redução sistemática da variabilidade nas características principais da qualidade de processos e produtos, uma vez que variabilidade em excesso resulta em desperdícios. A variável estudada para avaliar o processo de filtração foi a pol da torta sendo analisada em 55 amostras retiradas 6 por dia de filtração, nesses dados foram aplicadas as seguintes ferramentas de análise do processo: folha de verificação, gráfico de controle da média e índices de capacidade de processo. Concluiu-se que o processo de filtração da usina não tem capacidade de atender ás especificações propostas pela empresa ou seja não pode atingir a meta estabelecida. Pode-se ressaltar que no processo de filtração foram perdidos 0,71% de açúcar do total de torta de filtro processada.
Estudo Comparativo de Gráficos de Probabilidade Normal para Análise de Experimentos Fatoriais não Replicados
Os experimentos fatoriais 2^k são especialmente utilizados na experimentação industrial. Uma das razões de seu tão vasto uso é a redução de custos associada a tais experimentos. No entanto, sem replicação, não é possível obter uma estimativa direta da variabilidade do erro. Um método comum para se avaliar a significância dos efeitos é utilizar os gráficos normal ou semi-normal. A escolha entre estes dois gráficos parece ser uma questão subjetiva. Neste artigo, apresentaremos um estudo realizado para comparar estas duas técnicas gráficas. Pretendemos verificar em que situações um gráfico poderia ser melhor que o outro. Usamos simulações e estudos de caso para avaliar as habilidades de ambos os gráficos em identificar efeitos significativos, detectar valores discrepantes e identificar parcelas subdivididas inadvertidas em experimentos fatoriais 2^k não replicados. Mostramos que essas simulações podem prover orientações potencialmente úteis aos pesquisadores ao interpretarem os resultados de um experimento. Discutimos, também, as vantagens e limitações de cada procedimento.
UTILIZAÇÃO DE TÉCNICAS GEOESTATÍSTICA NA OTIMIZAÇÃO DE AMOSTRAGEM EM PARCELAS DE POVOAMENTOS DE TECTONA GRANDIS
UTILIZAÇÃO DE TÉCNICAS GEOESTATÍSTICA NA OTIMIZAÇÃO DE AMOSTRAGEM EM PARCELAS DE POVOAMENTOS DE TECTONA GRANDIS
Rogério Alves Santana¹
Nerilson Terra Santos²
¹Aluno – Departamento de Estatística – Universidade Federal de Viçosa
²Professor associado – Departamento de Estatística – Universidade Federal de Viçosa
Um dos fatores importantes para a eficiência de uma empresa florestal é poder predizer sua produção de madeira em cada área de manejo para a elaboração de planos de colheita. A otimização de custos associada a uma maior precisão da estimação na realização de um inventário florestal tem se tornado um fator fundamental nas decisões de empresas do ramo florestal. O presente trabalho tem por objetivo geral estimar o volume de madeira a partir de técnicas geoestatística e determinar a distância mínima de amostragem entre parcelas, otimizando assim o custo na amostragem. Especificamente pretende-se modelar continuidade espacial da característica dendométrica volume de Tectona Grandis. A seleção do modelo será realizada através de medidas de ajuste de modelo. O volume de madeira estimado por técnicas geoestatísticas será obtido através do método de interpolação krigagem de blocos.
“APLICAÇÃO DA TÉCNICA DE ANÁLISE DE DADOS ESPACIAIS DO TIPO ORIGEM-DESTINO APLICADOS A DADOS GEOREFERENCIADOS DE ACIDENTES DE TRÂNSITO OCORRIDOS EM NATAL/RN”
O presente estudo tem como principal foco a análise espacial pontual do tipo Origem-Destino aplicada a dados de acidentes de trânsito georeferenciados ocorridos na malha viária de Natal-RN no 2° trimestre do ano de 2008. Nesse estudo o “Destino” se refere à localização georeferenciada dos acidentes de trânsito e a “Origem” se refere a localização georeferenciada dos endereços dos veículos envolvidos nos acidentes da amostra analisada. O estudo teve o objetivo de Identificar na distribuição espacial dos acidentes ocorridos malha viária de Natal e do local dos dois endereços dos veículos envolvidos nos acidentes, regiões que poderiam apresentar formação de aglomerados de acidentes. Através da função M foi possível testar a hipótese de associação da distribuição dos processos pontuais de Origem e Destino. Foram utilizados os softwares ArcView e TerraView para a construção dos mapas temáticos da distribuição espacial georeferenciada dos acidentes e dos endereços dos veículos. Foi elaborado o algoritmo para estimar a função M com simulações dos valores de K1 e K2 referente aos acidentes e aos endereços. O resultado da aplicação desta função indicou que existe associação entre os padrões pontuais.
Comparação de Técnicas de Classificação utilizando a Distância de Mahalanobis amostral com técnicas de detecção de outliers
As técnicas de classificação que utilizam a distância de Mahalanobis amostral partem do princípio que as observações seguem uma distribuição normal p-variada, e associam uma área pequena da distribuição quando essa distância é grande. Portanto, se a distância de uma observação ao centro da distribuição é grande é indicativo de que essa observação não deve pertencer a esse grupo (ou população). O problema é definir limites para que essa distância seja considerada grande (ou pequena). O que é feito, em geral, é estabelecer um quantil da distribuição dessa distância e associar com a área (pequena) da distribuição. Gnanadesikan and Kettenring (1972), mostraram que a estatística b(xi)=(n/(n-1)2)di, tem distribuição beta[(p/2),(n-p-1)/2], onde di representa i-ésima distância de Mahalanobis amostral, sendo cada xi um vetor de observações e Sena-Jr (1997) mostrou que F(x0) = [(n-p)/(p(n-1))][(n/(n+1)]d0 tem distribuição F(p,n-p), onde d0 também representa a distância de Mahalanobis amostral da nova observação. A diferença entre as duas estatísticas está no fato que a b(.) calcula todas as distâncias, incluindo a que desejamos classificar, enquanto a F(.) calcula apenas a nova observação, isto é a b(.) inclui a nova observação no conjunto e observa se a sua distância é compatível com as demais, enquanto a F(.) verifica apenas uma única vez. Por outro lado técnicas de detecção de observações aberrantes ou de detecção de outliers, pode ser usada com alternativa a essa aproximação, já que a suposição de normalidade não pode ser violada na construção das distancia b(xi) e F(xi), embora algumas técnicas de detecção de outliers também inclua essa suposição.
ESTUDO E MODELAGEM DA DISTRIBUIÇÃO DO TEMPO DE ATENDIMENTO E DA FREQUÊNCIA DE CHEGADA DE VEÍCULOS EM UMA PRAÇA DE PEDÁGIO
Neste trabalho, procura-se modelar o tempo do atendimento e a freqüência das chegadas de veículos em uma praça de pedágio, encontrando a distribuição teórica mais adequada para cada caso. É feito também uma análise de alguns fatores intervenientes no tempo de atendimento Os dados utilizados foram coletados em uma praça de arrecadação de pedágio do estado do Rio Grande do Sul. As variáveis intervenientes no tempo de atendimento analisadas foram: dias típicos e atípicos, tipo de veículo atendido, forma de pagamento, existência ou não de fila, tempo de serviço (em meses) do arrecadador, horas trabalhadas do arrecadador e o sexo do arrecadador.
Modelo de Regressão para Estimar a Vida Útil da Lâmpada Halógena
Análise de modelos de regressão é uma técnica estatística para investigar e modelar a relação
entre variáveis. Aplicações de regressão são bastante utilizadas e ocorrem em diversos domínios, incluindo a engenharia, ciências físicas e químicas, ciências políticas e econômicas entre outras. A distribuição Gama é muito utilizada para descrever dados de contínuos e positivos. Em situações em que se tem uma variável resposta com dados de contínuos positivos deseja-se estudar a relação com variáveis explicativas, pode-se utilizar o modelo de regressão da família gama, que pertence à classe especial de modelos lineares generalizados. O trabalho proposto tem como objetivo ajustar um modelo de regressão que explique a vida útil de uma lâmpada através algumas características, tais como, potência, fluxo luminoso e outras características geométricas da mesma. Foram propostos inicialmente alguns modelos de regressão, assim foram feitas análises, investigações sobre a adequação de algumas suposições. Após esta investigação foi proposto um modelo, dado como ideal, com base nas suposições feitas pela modelagem.