Exportar este item: EndNote BibTex

Use este identificador para citar ou linkar para este item: http://tede2.pucrs.br/tede2/handle/tede/7854
Tipo do documento: Dissertação
Título: Classificação com algoritmo AdaBoost.M1 : o mito do limiar de erro de treinamento
Autor: Leães Neto, Antônio do Nascimento 
Primeiro orientador: Bordini, Rafael Heitor
Resumo: O crescimento acelerado dos repositórios de dados, nas diversas áreas de atuação, abre espaço para pesquisas na área da mineração de dados, em específico, com os métodos de classificação e de combinação de classificadores. O Boosting é um desses métodos, e combina os resultados de diversos classificadores com intuito de obter melhores resultados. O propósito central desta dissertação é responder a questão de pesquisa com a experimentação de alternativas para aumentar a eficácia e o desempenho do algoritmo AdaBoost.M1 que é a implementação frequentemente empregada pelo Boosting. Foi feito um estudo empírico levando em consideração aspectos estocásticos tentando lançar alguma luz sobre um parâmetro interno obscuro em que criadores do algoritmo e outros pesquisadores assumiram que o limiar de erro de treinamento deve ser correlacionado com o número de classes no conjunto de dados de destino e, logicamente, a maioria dos conjuntos de dados deve usar um valor de 0.5. Neste trabalho, apresentamos evidências empíricas de que isso não é um fato, mas provavelmente um mito originado pela aplicação da primeira definição do algoritmo. Para alcançar esse objetivo, foram propostas adaptações para o algoritmo, focando em encontrar uma sugestão melhor para definir esse limiar em um caso geral.
Abstract: The accelerated growth of data repositories, in the different areas of activity, opens space for research in the area of data mining, in particular, with the methods of classification and combination of classifiers. The Boosting method is one of them, which combines the results of several classifiers in order to obtain better results. The main purpose of this dissertation is the experimentation of alternatives to increase the effectiveness and performance of the algorithm AdaBoost.M1, which is the implementation often employed by the Boosting method. An empirical study was perfered taking into account stochastic aspects trying to shed some light on an obscure internal parameter, in which algorithm creators and other researchers assumed that the training error threshold should be correlated with the number of classes in the target data set and logically, most data sets should use a value of 0.5. In this paper, we present an empirical evidence that this is not a fact, but probably a myth originated by the mistaken application of the theoretical assumption of the joint effect. To achieve this goal, adaptations were proposed for the algorithm, focusing on finding a better suggestion to define this threshold in a general case.
Palavras-chave: Mineração de dados
Classificação
Combinação de classificadores
Boosting
AdaBoost.M1
Data Mining
Ensemble Methods
Classification
Área(s) do CNPq: CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO
Idioma: por
País: Brasil
Instituição: Pontifícia Universidade Católica do Rio Grande do Sul
Sigla da instituição: PUCRS
Departamento: Escola Politécnica
Programa: Programa de Pós-Graduação em Ciência da Computação
Tipo de acesso: Acesso Aberto
Restrição de acesso: Trabalho não apresenta restrição para publicação
URI: http://tede2.pucrs.br/tede2/handle/tede/7854
Data de defesa: 20-Nov-2017
Aparece nas coleções:Programa de Pós-Graduação em Ciência da Computação

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
Antônio_do_Nascimento_Leães_ Neto_Dis.pdfANTONIO_DO_NASCIMENTO_LEAES_NETO_DIS1,02 MBAdobe PDFThumbnail

Baixar/Abrir Pré-Visualizar


Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.