Exportar este item: EndNote BibTex

Use este identificador para citar ou linkar para este item: https://tede2.pucrs.br/tede2/handle/tede/9245
Registro completo de metadados
Campo DCValorIdioma
dc.creatorSilva, Mateus Lyra da-
dc.creator.Latteshttp://lattes.cnpq.br/8584495387617430por
dc.contributor.advisor1De Rose, César Augusto Fonticielha-
dc.contributor.advisor1Latteshttp://lattes.cnpq.br/6703453792017497por
dc.date.accessioned2020-08-28T14:36:04Z-
dc.date.issued2020-03-30-
dc.identifier.urihttp://tede2.pucrs.br/tede2/handle/tede/9245-
dc.description.resumoA representação de palavras por meio de vetores chamada de Word Embeddings (WE) vem recebendo grande atenção do campo de Processamento de Linguagem natural (NLP). Modelos WE são capazes de expressar similaridades sintáticas e semânticas, bem como relacionamentos e contextos de palavras em um determinado corpus. Apesar de as implementações mais populares de algoritmos de WE apresentarem baixa escalabilidade, existem novas abordagens que aplicam técnicas de High-Performance Computing (HPC). Nesta dissertação é apresentado um estudo interdisciplinar direcionado a utilização de recursos e aspectos de desempenho dos algoritmos de WE encontrados na literatura. Para melhorar a escalabilidade e usabilidade, o presente trabalho propõe uma integração para ambientes de execução locais e remotos, que contém um conjunto das versões mais otimizadas. Usando estas otimizações é possível alcançar um ganho de desempenho médio de 15x para multicores e 105x para multinodes comparado à versão original. Há também uma grande redução no consumo de memória comparado às versões mais populares em Python. Uma vez que o uso apropriado de ambientes de alta performance pode requerer conhecimento especializado de seus usuários, neste trabalho também é proposto um modelo de otimização de parâmetros que utiliza uma rede neural Multilayer Perceptron (MLP) e o algoritmo Simulated Annealing (SA) para sugerir conjuntos de parâmetros que considerem os recursos computacionais, o que pode ser um auxílio para usuários não especialistas no uso de ambientes computacionais de alto desempenho.por
dc.description.abstractThe representation of words by means of vectors, also called Word Embeddings (WE), has been receiving great attention from the Natural Language Processing (NLP) field. WE models are able to express syntactic and semantic similarities, as well as relationships and contexts of words within a given corpus. Although the most popular implementations of WE algorithms present low scalability, there are new approaches that apply High-Performance Computing (HPC) techniques. This is an opportunity for an analysis of the main differences among the existing implementations, based on performance and scalability metrics. In this Dissertation, we present an interdisciplinary study that addresses resource utilization and performance aspects of known WE algorithms found in the literature. To improve scalability and usability we propose an integration for local and remote execution environments that contains a set of the most optimized versions. Utilizing these optimizations it is possible to achieve an average performance gain of 15x for multicores and 105x for multinodes compared to the original version. There is also a big reduction in the memory footprint compared to the most popular Python versions. Since an appropriated use of HPC environments may require expert knowledge, we also propose a parameter tuning model utilizing an Multilayer Perceptron (MLP) neural network and Simulated Annealing (SA) algorithm to suggest the best parameter setup considering the computational resources, that may be an aid for non-expert users in the usage of HPC environments.eng
dc.description.provenanceSubmitted by PPG Ciência da Computação ([email protected]) on 2020-07-29T17:35:26Z No. of bitstreams: 1 Dissertacao_homolog.pdf: 8822751 bytes, checksum: f5bebcc4f366a19c4cec808bd2e531ff (MD5)eng
dc.description.provenanceApproved for entry into archive by Lucas Martins Kern ([email protected]) on 2020-08-28T14:30:54Z (GMT) No. of bitstreams: 1 Dissertacao_homolog.pdf: 8822751 bytes, checksum: f5bebcc4f366a19c4cec808bd2e531ff (MD5)eng
dc.description.provenanceMade available in DSpace on 2020-08-28T14:36:04Z (GMT). No. of bitstreams: 1 Dissertacao_homolog.pdf: 8822751 bytes, checksum: f5bebcc4f366a19c4cec808bd2e531ff (MD5) Previous issue date: 2020-03-30eng
dc.description.sponsorshipCoordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPESpor
dc.formatapplication/pdf*
dc.thumbnail.urlhttp://tede2.pucrs.br:80/tede2/retrieve/178708/Dissertacao_homolog.pdf.jpg*
dc.languageengpor
dc.publisherPontifícia Universidade Católica do Rio Grande do Sulpor
dc.publisher.departmentEscola Politécnicapor
dc.publisher.countryBrasilpor
dc.publisher.initialsPUCRSpor
dc.publisher.programPrograma de Pós-Graduação em Ciência da Computaçãopor
dc.rightsAcesso Abertopor
dc.subjectWord2vecpor
dc.subjectHPCpor
dc.subjectMemória distribuídapor
dc.subjectMulticomputadorespor
dc.subjectMPIpor
dc.subjectOpenMPpor
dc.subjectWord2veceng
dc.subjectHPCeng
dc.subjectShared memoryeng
dc.subjectMulticomputerseng
dc.subjectMPIeng
dc.subjectOpenMPeng
dc.subject.cnpqCIENCIA DA COMPUTACAO::TEORIA DA COMPUTACAOpor
dc.titleEvaluating the performance and improving the usability of parallel and distributed word embedding toolspor
dc.typeDissertaçãopor
dc.restricao.situacaoTrabalho não apresenta restrição para publicaçãopor
Aparece nas coleções:Programa de Pós-Graduação em Ciência da Computação

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
Dissertacao_homolog.pdfMATHEUS_LYRA_DA_SILVA_DIS8,62 MBAdobe PDFThumbnail

Baixar/Abrir Pré-Visualizar


Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.