The traditional statistical methods used in classification are, basically, logistic regression and discriminant analysis.Recently, other methods have been used in applications, e.g., classification trees and neural networks. The traditional methodsare computationally cheap, but lack flexibility, while methods such as neural networks are flexible, but computationallyexpensive and complicated. The method presented in this work, boosting, combines simple base classifiers, increasing at eachstep the weights of the observations that were previously misclassified.This work presents the method of boosting, as well as two applications. One is on simulated data, and the other on real data. The real-data application consists of classifying clients of a retail store into previously defined groups, which define the clients' profiles. The results obtained with boosting in both applications are compared to the results of the traditional methods.
Os métodos estatísticos tradicionamente usados em classificação são, basicamente, regres\-são logística e análisediscriminante. Outros métodos que recentemente aparecem nas aplicações são árvores de classificação e redes neurais. Osmétodos tradicionais apresentam baixo custo computacional, mas são pouco flexíveis, enquanto os métodos como redes neurais são muito flexíveis, mas caros e com menor interpretabilidade. A metodologia apre\-sentada, \textit{Boosting}, é flexível, fácil de aplicar e tem um custo computacional baixo. \textit{Boosting} funciona combinando seqüencialmente classificadores simples, dando maior peso em cada passo às observações classificadas incorretamente no passo anterior.Este trabalho apresenta a metodologia \textit{boosting}, e mostra dois exemplos de sua aplicação : uma em dados simulados, e outra em dados reais. A aplicação em dados reais consiste em alocar clientes de uma loja de varejo em grupos que definem os perfis destes clientes. Os resultados obtidos com \textit{boosting} nas duas aplicações são comparados aos resultados dos métodos tradicionais.