Teoria
Introdução à Ferramenta Teoria de Resposta ao Item – TRI
A Teoria de Resposta ao Item (TRI) é, conforme Andrade (2000), definida como o conjunto de modelos matemáticos construídos para representar a probabilidade de um indivíduo dar certa resposta a um item em determinado teste. Para isto, leva em consideração parâmetros do item e a habilidade do respondente. Apesar dos primeiros estudos direcionados à TRI datarem da década de 60 do século passado, esta área de atuação ainda é pouco divulgada no país. O objetivo deste trabalho é apresentar os elementos básicos principais da TRI à comunidade Estatística, com o intuito de disseminar as possibilidades desta ferramenta. A elaboração deste instrumento de informação utilizou como base artigos, apostilas, apresentações de trabalhos em congressos e encontros, além da consulta à literatura clássica e alguns instrumentos de avaliação educacional. A pesquisa demonstrou que avaliações com a TRI apresentam forte ganho de qualidade e são um incentivo aos alunos para dedicarem mais esforços à multidisciplinaridade dos conhecimentos do que somente à memorização de “dicas” e “macetes”. Entender e desenvolver linhas de raciocínio significa preparar indivíduos do início do século XXI com mais qualidade e assertividade. Ao final, sugere-se temas para a elaboração de trabalhos futuros.
Estimação de Processos Periódicos Autorregressivos: Uma Abordagem no Domínio da Frequência
Esta pesquisa apresenta uma metodologia de estimação, baseada no domínio da frequência, para processos periódicos autorregressivos. O estimador sugerido é o ponto do espaço paramétrico que maximiza a expressão assintótica da função de log-verossimilhança de processos estocásticos vetoriais. A expressão assintótica é avaliada através de algumas propriedades de matrizes block toeplitz. Ensaios de Monte Carlo foram realizados para comparar os vícios e os erros quadráticos médios do estimador proposto com os do método de estimação de Yule-Walker. O estudo empírico evidenciou que o método de estimação sugerido apresenta bom desempenho em termos de vício e erro quadrático médio. Como ilustração da metodologia proposta, a série da vazão média trimestral do rio Castelo-ES foi analisada.
Uniform noise autoregressive model estimation
In this work we present a methodology for the estimation of the coefficients of an autoregressive model where the random component is assumed to be uniform white noise. The uniform noise hypothesis makes MLE become equivalent to a simple consistency requirement on the possible values of the coefficients given the data. In the case of the autoregressive model of order one, X(t+1) = aX(t) + ε(t) with i.i.d. ε(t) ~ U[a;b]; the estimator of the coefficient a can be written down analytically. The performance of the estimator is assessed via simulation.
Estimação Bayesiana dos parâmetros da Teoria de Resposta ao Item
Este trabalho envolve o estudo de modelos de teoria de resposta ao item, de processos markovianos em estados contínuos e inferência bayesiana à estimação dos parâmetros da Teoria de Resposta ao Item (TRI).
Na literatura, há diversas formas de estimação dos parâmetros da TRI. O enfoque é dado à estimação bayesiana desses parâmetros, mais especificamente aos métodos bayesianos de estimação utilizando técnicas de Monte Carlo via Cadeias de Markov (MCMC). Serão utilizados algoritmos tradicionais, tais como o amostrador de Gibbs e o método de Metropolis-Hasting, a fim de simular uma amostra da distribuição a posteriori e assim obter as estimativas dos parâmetros de interesse.
Em geral, interessa-se estimar tanto os parâmetros de habilidades quanto os parâmetros dos itens. Porém, o objetivo é obter apenas estimativas dos parâmetros dos itens, e um enfoque maior será dado ao modelo de respostas binárias com dois parâmetros.
A Four-Parameter Generalized Logistic Distribution
For the first time, we introduce the beta generalized logistic distribution which is obtained by compounding the beta and generalized logistic distributions. The shape of the new distribution is quite flexible, specially the skewness and the tail weights, due to the two extra shape parameters. We obtain general expansions for the moments and quantile functions. The estimation of the parameters is investigated by maximum likelihood. Some related distributions are studied in detail. An application to a real data set is given to show the flexibility and potentiality of the new distribution.
Modelo Partição Produto com "Clusters'' Correlacionados
Identificar pontos de mudança é extremamente útil em diversas áreas de conhecimento, como por exemplo, economia, engenharia, hidrologia, medicina, meteorologia entre outras. Neste trabalho, esse problema será tratado do ponto de vista bayesiano, através de uma extensão do Modelo Partição Produto (MPP). Apesar do MPP ser amplamente utilizado na literatura para análise de dados sequenciais, em geral, é feita a suposição de que os parâmetros comuns que indexam as observações nos diferentes blocos ou "clusters" são independentes. Esta dissertação propõe um modelo tipo partição produto, o qual inova por assumir que estes parâmetros comuns são correlacionados. Esta correlação é introduzida no modelo através da distribuição a priori para tais parâmetros, baseada na idéia de processos de Markov. Especificamente, considerar-se-á a identificação de pontos de mudança na média da distribuição normal, cuja variância é considerada desconhecida, porém fixa ao longo do tempo. O modelo proposto é avaliado no contexto de dados sequenciais e os resultados obtidos são comparados com os resultados do MPP original Barry & Hartigan (1993), e a extensão do MPP proposta por Monteiro, Loschi & Assunção (2008).
Binary response state space models with Scale Mixture of Normal Links
Observation-driven state space models with scale mixture of normal links are presented for binary time series as a robust alternative to the usual normal setup which is commonly used in the literature. We develop an efficient Markov chain Monte Carlo (MCMC) estimation procedure for the proposed state space models. An application using the (aggregated) Tokyo rainfall data set (Knorr-Held, 1999) is analised.
A bootstrap estimator for the Student-t regression model
The Student-t regression model suffers from monotone likelihood. This means that the likelihood achieves its maximum value at infinite values of one or more of the parameters, in this case the unknown degrees of freedom. This leads to problems when one uses iterative algorithms to locate the solutions to the non-linear equations generated by the likelihood. Fonseca et al. (2008) deal with this problem by using the Jeffreys priors. We implement a bootstrap estimator which is based on resampling the data until samples without monotone likelihood are encountered. Results from this analysis will be presented .
TESTE FREQUENTISTA CONDICIONAL SOBRE O PARÂMETRO MÉDIA DE TEMPO DE VIDA DE Apis mellifera
Os testes de hipóteses frequentistas tradicionais apresentam probabilidades de erro independentes dos dados observados. Uma forma de contornar este problema é através de um teste de significância, utilizando o valor-p. Mas valores-p não são verdadeiras medidas de erros frequentistas. Uma solução frequentista é a metodologia denominada “teste frequentista condicional”. A idéia básica desse teste é particionar o espaço amostral utilizando uma função particionante H(x), e então desenvolver medidas frequentistas condicionais chamadas Probabilidade de Erro Condicional Tipo I (αx) e Tipo II (βx). Para aplicar a teoria do teste, utilizou-se um conjunto de dados obtido a partir de experimento com abelhas submetidas a diferentes temperaturas de confinamento. Assim, o objetivo deste trabalho foi testar as diferenças entre os tempos médios de vida de abelhas em diferentes temperaturas utilizando o teste de hipóteses frequentista condicional com partição de erros condicionais iguais. Concluiu-se que A utilização do teste foi adequada e pode-se tomar a decisão de rejeição ou aceitação das hipóteses com probabilidade de erro que dependiam dos dados.
Estimação de máxima verossimilhança do modelo de regressão Poisson Generalizado Inflacionado de Zeros
O modelo de regressão Poisson Generalizado foi proposto por Famoye et al. (2004) para ajustar dados em que a variância amostral é maior (ou menor) que a média amostral e o modelo de regressão Poisson Generalizado Inflacionado de zeros (ZIGP), abordado em
Famoye & Singh (2006) e Czado et al. (2007), foi proposto para ajustar dados com superdispersão (ou subdispersão) e inflacionados de zeros, ou seja dados com ocorrência
de zeros maior que o esperado no modelo Poisson Generalizado.
Como a distribuição ZIGP não pertence à família exponencial, o modelo de regressão não é um modelo linear generalizado (MLG). Portanto, os resultados assintóticos válidos para um MLG não se aplicam para a regressão ZIGP. Através de simulações vamos verificar que o estimador de máxima verossimilhança no modelo ZIGP é assintoticamente normal.