Ciências Exatas e da Terra
O USO DA GEOESTATÍSTICA EM PROPRIEDADES DA MADEIRA
Este trabalho objetivou verificar a viabilidade do uso da Geoestatística no estudo dos padrões de variabilidade das propriedades da madeira (dureza, densidade aparente e umidade) em 4 peças de Hevea brasiliensis (seringueira). As dimensões das peças analisadas são de, aproximadamente, 120x12x2,5 cm, sendo que as três primeiras foram retiradas da posição externa e a última da parte interna da tora. As tábuas foram divididas em malhas regulares proporcionais às suas dimensões. A determinação da dureza da madeira foi realizada com base no método de Janka, com a carga sendo aplicada no centro de cada célula. Em seguida, foram produzidos corpos-de-prova de cada célula para a determinação da densidade aparente (12%) e umidade. Os dados obtidos foram submetidos à análise geoestatística, através de semivariogramas, verificação de dependência espacial e krigagem, mapas de isolinhas. As propriedades força e umidade apresentam-se estruturadas espacialmente, sendo o modelo esférico o que melhor se ajustou aos dados, diagnóstico feito pela validação cruzada. Já a densidade aparente não apresentou continuidade espacial.
Uma aplicação de Inteligência Computacional e Estatística Clássica na Previsão do Mercado de Seguros de Automóveis Brasileiro
O presente trabalho tem por objetivo comparar as técnicas estatísticas
clássicas de previsão e os métodos de inteligência computacional de Lógica Fuzzy e Redes Neurais. O estudo é realizado utilizando à soma de prêmios
diretos de seguros de automóvel de todas as seguradoras relacionadas na SUSEP no Brasil. A descrição das metodologias será feita de maneira breve com o objetivo de contextualizar o estudo. A comparação dos resultados
foi feita pela métrica MAPE, indicando qual metodologia obteve melhor
desempenho para o problema em questão.
Modelos de Intensidades Híbridos com Estresse Limiar e Termos de Fragilidade para Dados Univariados de Sobrevivência
Neste trabalho propomos uma extensão dos modelos de riscos híbridos com threshold stress (Tojeiro e Louzada-Neto, 2009), os quais generalizam os modelos de riscos proporcionais de Cox e os de taxa de falha acelerada, introduzindo na função de risco do modelo efeitos aleatórios, também conhecidos como termos de fragilidade, com o objetivo de captar uma possível dependência e heterogeneidade não observada em dados de sobrevivência. Em termos estatísticos, um modelo de fragilidade pode ser visto como um modelo de efeitos aleatórios para dados de eventos recorrentes no tempo, onde o efeito aleatório tem um efeito multiplicativo na função de risco base. Quando mais de um tempo de sobrevivência é observado para cada indivíduo e para os quais a suposição de dependência é válida, temos dados de sobrevivência multivariados. No caso univariado, onde cada indivíduo tem sua própria fragilidade, o efeito aleatório é introduzido para que se possa medir uma possível heterogeneidade, de modo que a influência de covariáveis não observadas, possa ser identificada. Propomos também um modo conveniente de se obter através do modelo proposto a função de risco e sobrevivência não condicionais a fragilidade, com parâmetros de estresse limiar e covariáveis e consequentemente a verossimilhança não-condicional, utilizando-se de ferramentas como a transformada de Laplace (Vaupel et al. 1979), de tal forma que garanta a identificabilidade paramétrica do modelo. Consideraremos dados de sobrevivência univariados, para descrever a influência de covariáveis não observadas (heterogeneidade), em um conjunto de dados de pacientes com câncer de mama do HC-FMRP USP. Através do Threshold Stress obtemos a dose de docetaxel a qual deve ser aplicada as pacientes em fase de quimioterapia. A metodologia também é ilustrada com um conjunto de dados artificiais, através do qual mostramos a probabilidade de cobertura dos parâmetros envolvidos em diferentes tamanhos de amostras.
R é confiável para estatística computacional?
Este trabalho avalia a precisão numérica da plataforma R em duas arquiteturas de processador (i386 e amd386), rodando sistemas operacionais Microsoft Windows 7, GNU/Linux Ubuntu 9.10 e MAC OS X Leopard (este último apenas em i386).
A avaliação consiste em calcular os valores da média, do desvio padrão, da correlação de primeira ordem e o estatístico F de ANOVA, empregando conjuntos de dados com comportamento conhecidamente problemático.
Os valores reportados por R são contrastados com outros certificados, e o número de dígitos significativos corretos é informado para cada situação.
Com excepção de uma situação onde R é incapaz de produzir resultados aceitáveis, esta plataforma se mostra precisa e portável, duas propriedades essenciais em estatística computacional.
PROCEDIMENTOS GRÁFICOS PARA IDENTIFICAÇÃO DE PONTOS INFLUENTES NO AJUSTE DE UM MODELO LOGISTICO
Friendly(200) propõe procediemntos gráficos específicos para diferentes procedimentos para análise de dados categóricos. Especificamente, Friendly propõe procedimentos gráficos para verificação da qualidade de ajuste e interpretação dos resultados de um modelo de regressão logística.O objetivo desse trabalho é o de apresentar alguns destes procedimentos gráficos, implementados no SAS (Statistical Software System), aplicando-os a dados apresentados por Colosimo (1995).
Melhoramento do resíduo de Wald em modelos lineares generalizados
A teoria dos modelos lineares generalizados é muito utilizada na estatística, para a modelagem de observações provenientes da distribuição Normal, mas, principalmente, na modelagem de observações cuja distribuição pertença à família exponencial de distribuições. Alguns exemplos são as distribuições binomial, gama, normal inversa, dentre outras. Ajustado um modelo, para verificar a adequação do ajuste, são aplicadas técnicas de diagnósticos e feita uma análise de resíduos. As propriedades dos resíduos para modelos lineares generalizados não são muito conhecidas e resultados assintóticos são o único recurso. Este trabalho teve como objetivo estudar as propriedades assintóticas do resíduo de Wald, e realizar correções para que sua distribuição se aproxime de uma distribuição normal padrão. Uma aplicação das correções para o resíduo de Wald foi feita para cinco conjuntos de dados. Em três conjuntos, a variável resposta apresentava-se na forma de contagem, e para a modelagem utilizou-se a distribuição de Poisson. Dois outros conjuntos são provenientes de delineamentos experimentais inteiramente casualizados, com variável resposta contínua e para a modelagem utilizou-se a distribuição normal. Um estudo de simulação foi conduzido, utilizando-se o método de Monte Carlo, e concluiu-se, que com as correções realizadas no resíduo de Wald, houve uma melhora significativa em sua distribuição, sendo que a versão melhorada do resíduo tem distribuição que aproxima mais de uma distribuição normal padrão.
AGRUPAMENTO DE DADOS DE MARCADORES MOLECULARES DOMINANTES UTILIZANDO O MÉTODO DE CLASSIFICAÇÃO DE PADRÕES SUPERVISIONADO
Os estudos de relações filogenéticas e de divergência genética têm sido uma das contribuições mais concretas de marcadores moleculares para a organização e melhoramento genético. O método de classificação de padrões pode ser utilizado neste tipo de estudo pois há o interesse em agrupar os indivíduos semelhantes.
Os marcadores moleculares fornecem informações sobre o material genético (DNA) dos indivíduos em estudo, com o emprego de métodos bioquímicos que identificam diferenças no DNA, revelando para uma dada região, uma marca ou uma banda que permite comparar os indivíduos em estudo quanto à sua presença ou ausência. Tais diferenças são codificadas na forma de uma matriz, cujas colunas identificam os genótipos. As linhas indicam as regiões do DNA onde foram avaliadas as diferenças nas características de interesse, sendo as bandas reveladas codificadas pelo número 1 e as não reveladas pelo número 0. Deste modo, os dados correspondem à uma matriz de zeros e uns.
O método de classificação de padrões pode ser utilizado visto que o interesse está em agrupar indivíduos em classes semelhantes. Este método pode ser supervisonado ou não supervisionado.
O objetivo deste trabalho é empregar o método de classificação de padrões supervisionado na classificação de diferentes linhagens de milho. Para tanto foram utilizados dados provenientes de uma análise com marcadores moleculares dominantes do tipo RAPD de 18 linhagens de milho provenientes de duas populações diferentes, BR-105 e BR-106.
Estudo de Dependência Espacial utilizando Análise de Dados de Área Aplicada na Mesorregião Metropolitana de Belo Horizonte por meio do Indicador Econômico PIB
Resumo: No presente trabalho buscou-se analisar a distribuição espacial do índice do produto interno bruto (IPIB) na mesorregião Metropolitana de Belo Horizonte (MMBH), no Estado de Minas Gerais, no ano de 2004, visando entender a dependência ou semelhança entre os municípios dessa mesorregião. Para avaliar essa dependência, utilizaram-se as técnicas de dados de área, dentre elas a média móvel local, o índice de Moran global, o índice de Moran local e o gráfico de espalhamento de Moran e Mapas (Box Map e Moran Map). Os resultados alcançados quanto ao padrão espacial pela média móvel local, permitiram observar clusters espaciais entre municípios e, também, redução da variância amostral. Um fato importante no estudo foi presença da autocorrelação espacial positiva em termos globais, pelo índice de Moran global e o teste de permutação aleatória, indicando que existe um certo grau de similaridade entre os municípios da mesorregião. Constatou-se, também, a presença de autocorrelação espacial em termos locais, pelo índice de Moran local, indicando também similaridade. Dessa, forma, o estudo foi eficiente na descrição espacial e na identificação de clusters tanto em termos globais quanto em termos locais indicando que existe similaridade entre os municípios estudadas por meio da variável IPIB dentro mesorregião estudada.
Reconstrução de sinais em Redes de Sensores sem Fios com técnicas de geoestatística
As Redes de Sensores sem Fios (RSsF) são conjuntos de dispositivos que obtêm amostras de fenômenos ambientais, sejam eles naturais (como, por exemplo, temperatura, pressão atmosférica, intensidade de iluminação, concentração de substâncias em cursos d’água) ou antrópicos (qualidade do ar em sinais de trânsito, pressão ao longo de um oleoduto). Esses dispositivos têm despertado muito interesse, tanto pelas suas potenciais aplicações quanto pelos desafios teóricos e tecnológicos que seu uso otimizado oferece. O objetivo deste trabalho trata da análise da reconstrução de sinais nessas redes, com base em técnicas de geoestatística. Analizam-se três processos de kriging: simples (três variantes), ordinário e bayesiano (duas variantes). Leva-se em consideração o processo de agrupamento dos nós sensores, com simulações sem agrupamento e com os sensores agrupados pelos algoritmos LEACH e SKATER. O algoritmo de kriging bayesiano apresenta os melhores resultados qualitativos na maioria dos casos, mas se torna inviável para sistemas que necessitem de respostas rápidas. Nesses casos, recomenda-se o algoritmo de kriging ordinário.
Autenticação Pessoal Baseada na Análise da Dinâmica da Digitação por Métodos Estatísticos
Este trabalho apresenta resultados de autenticação biométrica via Dinâmica da Digitação na Web, onde pretende-se identificar uma pessoa pelo seu ritmo habitual de digitar uma senha em um teclado convencional usando métodos estatísticos. Os resultados mostram que o uso da Dinâmica da Digitação é simples e eficiente para autenticação pessoal, obtendo melhores resultados usando quinze amostras por Modelo com taxas de falsa rejeição de 4,26% e de falsa aceitação de 1,80%. Estas taxas de erros são aceitáveis, visto que um usuário impostor que conheça a informação alvo de um usuário autêntico terá acesso às informações como: contas bancárias, cartões de créditos, e aplicações industriais, dentre outras.