Export this record: EndNote BibTex

Please use this identifier to cite or link to this item: https://tede2.pucrs.br/tede2/handle/tede/11401
Full metadata record
DC FieldValueLanguage
dc.creatorParraga, Otávio-
dc.creator.Latteshttp://lattes.cnpq.br/5668566915713518por
dc.contributor.advisor1Barros, Rodrigo Coelho-
dc.contributor.advisor1Latteshttp://lattes.cnpq.br/8172124241767828por
dc.date.accessioned2024-10-24T19:23:45Z-
dc.date.issued2023-03-29-
dc.identifier.urihttps://tede2.pucrs.br/tede2/handle/tede/11401-
dc.description.resumoSoftware engineering is a complex process that involves several steps, often requiring a significant investment of resources. As a result, many tools to support development have emerged, with machine learning models becoming increasingly popular for related tasks. Recently, Transformers, a class of models, has achieved tremendous success in natural language processing and has been adapted to work with source code, with models like CodeBERT trained on both text and code. CodeT5, one such model, employs a prompt multi-task approach during training to ensure better generalization capability for target tasks. First, however, it needs to be clarified what impact this multi-tasking approach has on a Big Code scenario. In this thesis, we studied the various advantages and disadvantages of this learning approach for source-code-related tasks. Using state-of-the-art pre-trained models, we compared task-specific and prompt multi-task methods, analyzing results on specific tasks to understand their influence on performance. We also experimented with different task combinations to determine which are most beneficial and whether they help the model better understand the context in which it is being used. This work sheds light on prompt multi-task learning for source-code tasks, highlighting how it can improve resource efficiency and advance research in multi-task learning for big codepor
dc.description.abstractEngenharia de software é um processo complexo que envolve vários passos, muitas vezes requerendo um investimento significativo de recursos. Como resultado, muitas ferramentas para suportar o desenvolvimento surgiram, com modelos de aprendizado de máquina se tornando cada vez mais populares para tarefas relacionadas. Recentemente, Transformers, uma classe de modelos, obteve um tremendo sucesso no processamento de linguagem natural e foi adaptado para trabalhar com código-fonte, com modelos como o CodeBERT treinado em texto e código. CodeT5, um desses modelos, emprega uma abordagem prompt multi-task durante o treinamento para garantir melhor capacidade de generalização para tarefas-alvo. No entanto, primeiro, é necessário esclarecer qual é o impacto dessa abordagem de multitarefa em um cenário Big Code. Nesta dissertação, estudamos as várias vantagens e desvantagens dessa abordagem de aprendizado para tarefas relacionadas a código-fonte. Usando modelos prétreinados de ponta, comparamos métodos específicos de tarefas e de prompt multi-tarefa, analisando resultados de tarefas específicas para entender sua influência no desempenho. Também experimentamos diferentes combinações de tarefas para determinar quais são mais benéficas e se ajudam o modelo a entender melhor o contexto em que está sendo usado. Este trabalho lança luz sobre a aprendizagem de multitarefa prompt para tarefas de código-fonte, destacando como ela pode melhorar a eficiência de recursos e avançar a pesquisa em aprendizado multitarefa para Big Code.por
dc.description.provenanceSubmitted by PPG Ciência da Computação ([email protected]) on 2024-10-01T19:55:47Z No. of bitstreams: 1 OTAVIO_PARRAGA_DIS.pdf: 1145899 bytes, checksum: c6d74b18d992b3ddb6d518288319cfa8 (MD5)eng
dc.description.provenanceApproved for entry into archive by Sarajane Pan ([email protected]) on 2024-10-24T18:50:34Z (GMT) No. of bitstreams: 1 OTAVIO_PARRAGA_DIS.pdf: 1145899 bytes, checksum: c6d74b18d992b3ddb6d518288319cfa8 (MD5)eng
dc.description.provenanceMade available in DSpace on 2024-10-24T19:23:45Z (GMT). No. of bitstreams: 1 OTAVIO_PARRAGA_DIS.pdf: 1145899 bytes, checksum: c6d74b18d992b3ddb6d518288319cfa8 (MD5) Previous issue date: 2023-03-29eng
dc.formatapplication/pdf*
dc.thumbnail.urlhttps://tede2.pucrs.br/tede2/retrieve/192028/OTAVIO_PARRAGA_DIS.pdf.jpg*
dc.languageengpor
dc.publisherPontifícia Universidade Católica do Rio Grande do Sulpor
dc.publisher.departmentEscola Politécnicapor
dc.publisher.countryBrasilpor
dc.publisher.initialsPUCRSpor
dc.publisher.programPrograma de Pós-Graduação em Ciência da Computaçãopor
dc.rightsAcesso Abertopor
dc.subjectmulti-taskeng
dc.subjectsource-codeeng
dc.subjecttransformerseng
dc.subjectmulti-tarefapor
dc.subjectcódigo-fontepor
dc.subjecttransformerspor
dc.subject.cnpqCIENCIA DA COMPUTACAO: TEORIA DA COMPUTACAOpor
dc.titleOne against many : exploring multi-task learning generalization in source-code taskspor
dc.title.alternativeUm contra muitos : explorando a generalização do aprendizado multi-tarefa em tarefas com código fontepor
dc.typeDissertaçãopor
dc.restricao.situacaoTrabalho não apresenta restrição para publicaçãopor
Appears in Collections:Programa de Pós-Graduação em Ciência da Computação

Files in This Item:
File Description SizeFormat 
OTAVIO_PARRAGA_DIS.pdfOTÁVIO_PARRAGA_DIS1.12 MBAdobe PDFThumbnail

Download/Open Preview


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.