Iniciação Científica

Análise do Comportamento Apresentado pelas Pressões Longitudinais Registradas a Jusante de Válvulas de Eclusas

Autor(es) e Instituição: 
Camila Cristina Lopes
Simone Maffini Cerezer
Marcelo Giulian Marques
Apresentador: 
Camila Cristina Lopes

Estudos de modelagem hidráulica permitem obter informações que subsidiam os processos de implantação e operação dos empreendimentos hidráulicos, de maneira a agilizar as decisões e permitir a criação de normas de dimensionamento seguras, minimizando os custos. Para isto é necessário que se tenha um conhecimento adequado dos processos físicos que condicionam os sistemas hidráulicos, o qual é atingido com o emprego de técnicas de medição e análise de informações adequadas. A complexidade das condições de contorno e das leis que regem os fenômenos envolvidos quando da implantação de estruturas hidráulicas faz com que os estudos devam ser executados baseados em dados obtidos em modelos reduzidos ou em protótipos, exigindo a utilização de técnicas modernas de medição e análise, de maneira a permitir a visualização do fenômeno e fornecer subsídios para uma generalização do mesmo. Desta forma, o objetivo deste trabalho consiste na análise da distribuição das pressões longitudinais registradas a jusante de comportas tipo Tainter invertida, tal qual utilizado nos sistemas de enchimento e esvaziamento de eclusas de navegação. Os resultados encontrados, considerando a abertura da comporta de 10% para diferentes vazões, a partir da análise da função de autocorrelação indicaram que as séries analisadas apresentaram um comportamento não aleatório ao longo do tempo, havendo, uma correlação temporal entre as observações de uma mesma série. A análise dos dados de pressão considerando outras aberturas da comporta permitirá concluir para quais condições de escoamento ocorrem às situações mais críticas de cavitação.

Resumo estendido: 

Ferramentas para Análise de Associação de Estudos de Varredura Genômica

Autor(es) e Instituição: 
Jessica Priscila Rivas dos Santos - Bolsista de Iniciação Científica - Cnpq/UFBA
Rosemeire L. Fiaccone - Departamento de Estatística - UFBA
Apresentador: 
Jéssica Priscila Rivas dos Santos

Estudos de varredura genômica têm sido importantes para um melhor entendimento da base genética de muitas doenças complexas uma vez que se baseiam no estudo simultâneo de vários polimorfismos sendo possível investigar a associação entre os mesmos e as referidas doenças. Além disso, vale ressaltar que esses estudos de associação entre fatores de risco genéticos e doenças têm ganhado destaque na literatura. Assim, a escolha de um modelo estatístico apropriado é parte inerente do mapeamento genético de doenças complexas em estudos com população humana. Logo, a idéia é explorar algumas ferramentas de análise estatística para associação com o propósito de adquirir competência no uso de softwares gratuitos em ambiente Windows, em particular PLINK e R. É bom lembrar que existem inúmeros programas (gratuito para download) com os mais diversos propósitos (ver por exemplo: http://linkage.rockefeller.edu/soft/list1.html). Historicamente, estudos de associação foram utilizados para examinar genes candidatos de interesse, escolhidos com base na hipótese de relevância biológica para a doença em estudo. Em particular, iremos nos concentrar nos estudos de associação de varredura genômica (GWAS genome-wide association study, em inglês). Segundo, Batista (2006), o conceito de associação pode representar desequilíbrio de ligação na distribuição da freqüência alélica dos locos ou representar um sinal de ligação entre um loco candidato na regulação de uma doença. Os estudos de varredura genômica completo (ou GWAS) exigem uma carga computacional muito grande para contemplar a natureza alto-dimensional dos dados. Portanto é indispensável conhecer as ferramentas estatísticas e os softwares disponíveis e adequados para cada situação.

Resumo estendido: 

Previsão para modelos ARFIMA(p,d,q) usando a metodologia Bootstrap

Autor(es) e Instituição: 
Gustavo de Carvalho Lana
Glaura C. Franco
Apresentador: 
Gustavo de Carvalho Lana

A metodologia apresentada neste trabalho é a aplicação do bootstrap para determinar intervalos de previsão para modelos ARFIMA. As técnicas padrões de construção de intervalos de previsão dependem da suposição de normalidade dos dados e não levam em consideração a incerteza associada com a estimação dos parâmetros. A metodologia bootstrap, como um método não paramétrico, pode superar estas dificuldades. Um bootstrap não paramétrico dos resíduos do modelo ARFIMA é utilizado para se ter acesso à distribuição empírica dos valores futuros e dois procedimentos bootstrap são utilizados para construir intervalos de previsão. Os intervalos são comparados através de um experimento de Monte Carlo ao intervalo assintótico nos casos de erros normais e não-normais. Os resultados mostram que os intervalos bootstrap possuem uma cobertura mais próxima à nominal do que o intervalo assintótico.

Comparação de Retas de Regressão em Dados de Microarray

Autor(es) e Instituição: 
Cleber Martins Xavier
Gustavo H. Esteves
Apresentador: 
Cleber Martins Xavier

No contexto da biologia molecular, a análise de dados de microarray tem sido usada extensivamente ao longo dos últimos anos. Esta técnica experimental possibilita o estudo dos níveis de expressão de milhares de genes simultaneamente para diferentes tipos de tecidos biológicos, e a análise de dados obtidos através desta técnica depende fortemente de modelos matemáticos e estatísticos adequados. Dentre estes métodos de análise destaca-se a construção de redes de relevância, através da comparação de valores de correlação ou informação mútua, para se estimar a associação funcional entre dois genes distintos. Este trabalho visa testar a utilização de modelos de regressão linear no lugar destas medidas de associação, com o intuito principal de aprimorar este método de análise para dados de microarray, bem implementar os avanços obtidos no software de programação estatística R.

Resumo estendido: 

MODELO FUZZY E MODELO DE REGRESSÃO LOGÍSTICA PARA TOMADA DE DECISÃO NA CLASSIFICAÇÃO DE OBESIDADE.

Autor(es) e Instituição: 
Diego Augusto Queijo
Liciana Vaz de Arruda Silveira
Lia Thieme Oikawa Zangirolani
Apresentador: 
Diego Augusto Queijo

Obesidade é comumente definida como um excesso de gordura corporal, porém diante da dificuldade em mensurar tal gordura diretamente, esta tem sido definida como um excesso de peso mais do que um excesso de gordura corporal, que tem como desdobramento a ocorrência de doenças associadas e/ou prejuízos à saúde do indivíduo. Atualmente, o excesso de massa corpórea é verificado por meio de um Índice de Massa Corpórea (IMC), que considera o quociente entre o peso corporal (kg) e a estatura elevada ao quadrado (m²). Indivíduos com sobrepeso apresentam IMC de 25 até 29,9 Kg/m², e com obesidade apresentam IMC de 30 Kg/m² ou mais, de acordo com a OMS. A identificação das causas da obesidade não é trivial e objetiva. Especialistas reconhecem que a obesidade é uma doença crônica, de difícil tratamento, denominada multifatorial, envolvendo em sua gênese diversos aspectos, entre eles: o consumo alimentar, aspectos ambientais, genéticos, psicossociais, entre outros. O objetivo deste trabalho foi modelar a presença de obesidade sobre o enfoque da teoria dos conjuntos Fuzzy, levando em conta a comparação de dois parâmetros: a porcentagem de gordura corporal e a relação cintura quadril, para tomada de decisão da classificação da obesidade.

Resumo estendido: 

Estratégias Exploratórias em Estudos Longitudinais

Autor(es) e Instituição: 
Ana Clara Paixão Campos, Iniciação Científica (Cnpq) – IM/UFBA
Leila Denise A.F. Amorim, Departamento de Estatística – IM/UFBA
Lia Terezinha L.Pde Moraes, Departamento de Estatística – IM/UFBA
Rosemeire L. Fiaccone, Departamento de Estatística – IM/UFBA
Ana Marlúcia Assis, Escola de Nutrição - UFBA
Apresentador: 
Ana Clara Paixão Campos

Estudos longitudinais são importantes, pois fornecem informações sobre as variações globais e individuais ao longo do tempo (Diggle at al, 2002), sendo também conhecidos como estudos de medidas repetidas, envolvendo situações nas quais a variável resposta é mensurada múltiplas vezes em cada unidade de análise. A análise exploratória para dados longitudinais compreende técnicas que permitem visualizar padrões nos dados. O objetivo deste trabalho é sumarizar técnicas gráficas para avaliação de padrões em estudos longitudinais, bem como estratégias para identificação da estrutura de covariância destes dados. Os métodos sumarizados são ilustrados através da análise de dados referentes a uma aplicação usando dados do Produto Interno Bruto (PIB) de 415 municípios baianos entre 1999 e 2007 (intervalo de tempo constante) e a uma segunda aplicação a respeito do crescimento infantil, mensurado por indicador antropométrico, avaliado em 312 crianças nascidas na maternidade em Mutuípe, na Bahia (intervalo de tempo não constante). Os resultados encontrados indicam que o perfil médio do Índice Produto Interno Bruto (Índice PIB) parece linear ao longo do tempo além de apresentar um ligeiro crescimento do índice dos municípios ao longo do tempo. Para o estudo do crescimento infantil em Mutuípe, os perfis individuais e médio não apresentam linearidade ao longo do tempo. O variograma obtido para exploração da estrutura de covariância indica a inexistência de erro de medição, bem como certa variabilidade nos dados indicando a necessidade da inclusão de um termo aleatório no modelo. Ressalta-se que as técnicas exploratórias para dados longitudinais são de extrema importância para a visualização de padrões nos dados e, portanto, devem ser utilizadas antes da formulação de qualquer modelo estatístico.

Pesquisa com financiamento da FAPESB (Termo Outorga n° APR 0434/2008)

Principais tipos de resíduos utilizados na análise de diagnóstico em MLG com aplicações para os modelos: Poisson, ZIP e ZINB.

Apresentador/Autor: 
Francisco William Pereira Marciano
Resumo: 

Neste trabalho será abordado uma aplicação do Modelo Poisson padrão e dos Modelos Inflacionados de Zeros para dados de contagem, Zero Inflated Poisson - ZIP e Zero Inflated Negative Binomial - ZINB, utilizando-se as técnicas dos MLG’s através de um conjunto de dados reais, onde algumas alterações foram implementadas no conjunto de dados a fim de aplicar os modelos supracitados. Após a realização dos ajustes uma análise de diagnóstico é discutida para verificar possíveis transgressões aos ajustes dos modelos considerados juntamente com a análise gráfica para verificar a adequabilidade dos modelos em questão em relação a variável de interesse no estudo, o número de abelhas que coletam polens no decorrer do dia.

Avaliar o método de Shannon e sua aplicação no processamento de imagens funcionais por ressonância magnética.

Autor(es) e Instituição: 
Alessandra Lima de Oliveira
Marcus Pinto da Costa da Rocha
Valcir João da Cunha Farias
Apresentador: 
Alessandra Lima de Oliveira

Este trabalho tem como objetivo avaliar as funcionalidades do método de Shannon e sua aplicação no processamento de imagens funcionais por ressonância magnética (FMRI), Já que, este método trabalha com análise de sinais, baseada em uma medida de informação dependente do tempo, já o Modelo Linear Geral (General Linear Model), em FMRI, modela as variações das séries temporais em termos da combinação linear de matrizes referência. A partir dessa abordagem, analisam-se os resultados desses métodos, no qual serão comparados, e verificar-se-á, dentre os quais, a importância de cada método (entropia de Shannon e GLM) no processo de FMRI, para ajudar na interpretação visual das imagens.

O Problema da Estimação no Modelo de Calibração Linear com Erro nas Variáveis

Autor(es) e Instituição: 
Cássio Pinho dos Reis
Silvia dos Santos de Almeida
Apresentador: 
Cássio Pinho dos Reis

A exigência de um melhor controle dos procedimentos de mensuração, quando se trata de produtos florestais tem se intensificado, levando pesquisadores a buscar novas técnicas para se obter melhores resultados. Quando se trata de medições de produtos florestais, é necessário o auxílio de instrumentos de medições, porém, comumente os erros de mensuração estão presentes quando se utilizam estes instrumentos. Desta forma, o objetivo deste trabalho é modelar características de árvores típicas da floresta amazônica, via modelos de calibração linear, comparando os estimadores para os modelos desenvolvidos a partir do erro quadrático médio. Para tanto, utilizam-se medidas do diâmetro da altura do peito (X) e do volume (Y) de árvores Quaruba, árvore típica da região amazônica e tem importância fundamental para a economia da região e para o manejo florestal. Durante a fase inicial da calibração, pôde-se verificar, que a presença de erros de medida, na variável independente (X), isto é, no diâmetro da altura do peito das árvores, influenciaram diretamente na precisão dos modelos obtidos. Na segunda etapa do processo de calibração, foram utilizados três estimadores: inverso com mínimos quadrados, clássico consistente e clássico com mínimos quadrados. O estimador inverso com mínimos quadrados apresentou o melhor desempenho que os outros estimadores.

Um alerta sobre o uso de amostras pequenas na regressão logística.

Apresentador: 
Rodrigo Coster

A regressão logística está cada dia mais presente nas pesquisas, porém, sabe-se que seus estimadores só possuem boas propriedades se o tamanho de amostra for grande. Entretanto, nem sempre o tamanho amostral utilizado nos estudos é o ideal. Uma regra de bolso para o tamanho amostral amplamente conhecida é de que se deve ter pelo menos dez eventos (sucessos ou fracassos, dependo do que for mais raro) para cada variável independente do modelo. Entretanto, o estudo de simulação a partir do qual esta regra foi elaborada, bem como todos os estudos de simulação encontrados em levantamento bibliográfico realizado, verificou o desempenho da regressão logística apenas para estimar os coeficientes do modelo e não as razões de chances. Através de um estudo simulado de três cenários, mostramos o quão perigoso é usar amostras pequenas para estimar a razão de chance, além de alternativas para o cálculo do tamanho de amostra mínimo para cada caso. Concluímos que as regras utilizadas levando em conta a estimação dos coeficientes não garantem boas propriedades na estimação das razões de chances. Em nossas simulações, encontramos vícios maiores na estimação da razão de chance do que do respectivo coeficiente do modelo. Também entre as conclusões, chamamos atenção para os casos de separação e destacamos que variáveis contínuas são preferíveis à variáveis categóricas.

Resumo estendido: 
Divulgar conteúdo