Exportar este item: EndNote BibTex

Use este identificador para citar ou linkar para este item: https://tede2.pucrs.br/tede2/handle/tede/8313
Registro completo de metadados
Campo DCValorIdioma
dc.creatorVaz, Luis Fernandes-
dc.creator.Latteshttp://lattes.cnpq.br/8630676302074028por
dc.contributor.advisor1Marczak, Sabrina dos Santos-
dc.contributor.advisor1Latteshttp://lattes.cnpq.br/9458496222461501por
dc.date.accessioned2018-10-09T17:16:23Z-
dc.date.issued2018-03-27-
dc.identifier.urihttp://tede2.pucrs.br/tede2/handle/tede/8313-
dc.description.resumoA presente pesquisa teve como objetivo investigar a documentação das tarefas disponibilizadas na plataforma TopCoder e os elementos que devem ser considerados na documentação de uma tarefa em Software Crowdsourcing. Esta investigação torna-se relevante na medida em que a Tarefa é o elemento fundamental de ligação entre os demais elementos do modelo de Software Crowdsourcing (Contratante, Plataforma e Multidão). É a Tarefa que expressa a necessidade do Contratante para os membros da multidão. Assim, para o desenvolvimento desta investigação foi adotada a abordagem qualitativa, por meio de um Estudo de Caso com novatos em Software Crowdsourcing e de um Estudo de Campo, com profissionais da indústria. Para a análise e interpretação dos dados foi aplicada a técnica de Análise de Conteúdo. Como resultado desta pesquisa, constatou-se que no Estudo de Caso a documentação da tarefa teve um papel secundário quando os participantes selecionavam as tarefas. Entretanto, o papel da clareza da documentação surge com maior força durante a execução da tarefa, uma vez que é neste momento que deve ser decodificada a instrução da documentação a fim de realizar efetivamente a tarefa e submetê-la à plataforma. Para os participantes do Estudo de Campo, os elementos mais relevantes referentes à documentação das tarefas foram a clareza na descrição da tarefa e o conhecimento sobre o assunto tratado pela tarefa. A partir dos resultados obtidos é proposto um modelo de documentação de tarefa a ser utilizado na plataforma TopCoder. Acredita-se que com o mapeamento dos elementos identificados na pesquisa e a proposta de um modelo de documentação para a tarefa será possível aprimorar a descrição das tarefas e consequentemente as entregas realizadas pelos membros da multidão.por
dc.description.abstractThis research aimed to investigate task documentation in Software Crowdsourcing, more specifically, in the TopCoder platform. It also aimed to identify the elements that should be considered in the documentation of a task in this kind of software development. This research is of importance when considering that a Task is the component that links the other components of the software crowdsourcing model, which are: the Buyer, the Platform, and the Crowd. It is the task that expresses the Buyer’s need to the crowd members. We followed a qualitative research approach and conducted a Case Study with newcomers in Software Crowdsourcing and a Field Study with industry professionals. Data was analyzed using the Content Analysis technique. We found that, for the Case Study novices, the documentation of the task had a secondary role in the task selection. However, the need of a clear documentation become more relevant during the development of the task given that this is the moment that the instructions within the documentation need to be decoded by the developer and turned into a solution to be later submitted to the platform. For the Field Study participants, the most relevant elements related to the documentation of a task were how clear the description of a task is and their prior knowledge about the task content in order to influence its selection. Inspired on our studies’ results, we propose a model for task documentation in TopCoder. We believe this model will likely aid the description of tasks in software crowdsourcing and will, as a consequence, help crowd members in their task development journey.eng
dc.description.provenanceSubmitted by PPG Ciência da Computação ([email protected]) on 2018-10-09T13:24:12Z No. of bitstreams: 1 LUIS FERNANDES VAZ.DIS.pdf: 17076970 bytes, checksum: 6f8adcfdc62d9c6204d43c0aaaace7e5 (MD5)eng
dc.description.provenanceApproved for entry into archive by Caroline Xavier ([email protected]) on 2018-10-09T17:12:07Z (GMT) No. of bitstreams: 1 LUIS FERNANDES VAZ.DIS.pdf: 17076970 bytes, checksum: 6f8adcfdc62d9c6204d43c0aaaace7e5 (MD5)eng
dc.description.provenanceMade available in DSpace on 2018-10-09T17:16:23Z (GMT). No. of bitstreams: 1 LUIS FERNANDES VAZ.DIS.pdf: 17076970 bytes, checksum: 6f8adcfdc62d9c6204d43c0aaaace7e5 (MD5) Previous issue date: 2018-03-27eng
dc.formatapplication/pdf*
dc.thumbnail.urlhttp://tede2.pucrs.br:80/tede2/retrieve/173354/DIS_LUIS_FERNANDES_VAZ_COMPLETO.pdf.jpg*
dc.languageporpor
dc.publisherPontifícia Universidade Católica do Rio Grande do Sulpor
dc.publisher.departmentEscola Politécnicapor
dc.publisher.countryBrasilpor
dc.publisher.initialsPUCRSpor
dc.publisher.programPrograma de Pós-Graduação em Ciência da Computaçãopor
dc.rightsAcesso Abertopor
dc.subjectSoftware Crowdsourcingeng
dc.subjectDocumentação de Tarefaspor
dc.subjectEngenharia de Requisitospor
dc.subjectTopCodereng
dc.subjectEstudo Empíricopor
dc.subjectTask Documentationeng
dc.subjectRequirements Engineeringeng
dc.subjectEmpirical Studyeng
dc.subject.cnpqCIENCIA DA COMPUTACAO::TEORIA DA COMPUTACAOpor
dc.titleDocumentação de tarefas em Software Crowdsourcing : um estudo empírico sobre a plataforma TopCoderpor
dc.typeDissertaçãopor
dc.restricao.situacaoTrabalho não apresenta restrição para publicaçãopor
Aparece nas coleções:Programa de Pós-Graduação em Ciência da Computação

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
DIS_LUIS_FERNANDES_VAZ_COMPLETO.pdfLUIS_FERNANDES_VAZ_DIS4,87 MBAdobe PDFThumbnail

Baixar/Abrir Pré-Visualizar


Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.