Export this record: EndNote BibTex

Please use this identifier to cite or link to this item: https://tede2.pucrs.br/tede2/handle/tede/10026
Full metadata record
DC FieldValueLanguage
dc.creatorBaldissera, Fábio Brandolt-
dc.creator.Latteshttp://lattes.cnpq.br/4856502451751023por
dc.contributor.advisor1Vargas, Fabian Luis-
dc.contributor.advisor1Latteshttp://lattes.cnpq.br/9050311050537919por
dc.date.accessioned2021-12-20T19:53:24Z-
dc.date.issued2019-10-31-
dc.identifier.urihttp://tede2.pucrs.br/tede2/handle/tede/10026-
dc.description.resumoWith the advancement of machine learning techniques and the increased accessibility to computing power, Artificial Neural Networks (ANNs) have achieved state-of-the-art results in image classification and, most recently, in video classification. The possibility of gesture recognition from a video source enables a more natural non-contact human-machine interaction, immersion when interacting in virtual reality environments and can even lead to sign language translation in the near future. However, the techniques utilized in video classification are usually computationally expensive, being prohibitive to conventional hardware. This work aims to study and analyze the applicability of continuous online gesture recognition techniques for embedded systems. This goal is achieved by proposing a new model based on 2D and 3D CNNs able to perform online gesture recognition, i.e. yielding a label while the video frames are still being processed, in a predictive manner, before having access to future frames of the video. This technique is of paramount interest to applications in which the video is being acquired concomitantly to the classification process and the issuing of the labels has a strict deadline. The proposed model was tested against three representative gesture datasets found in the literature. The obtained results suggest the proposed technique improves the state-of-the-art by yielding a quick gesture recognition process while presenting a high accuracy, which is fundamental for the applicability of embedded systems.por
dc.description.abstractCom os avanços de técnicas de aprendizado de máquinas e o aumento da capacidade computacional disponível, redes neurais artificiais (ANNs) representam o estado-da-arte na tarefa de classificação de imagem, e mais recentemente na classificação de vídeos. A possibilidade do reconhecimento de gestos através de imagens de vídeo permite uma interface homem-máquina mais natural, maior imersão ao interagir com equipamentos de realidade virtual e pode até nos levar, em um futuro breve, à transcrição automática de linguagem de sinais. No entanto, as técnicas utilizadas para classificação de vídeo possuem um alto custo computacional, se tornando proibitivas para o uso em hardware mais simples. Esta dissertação busca estudar e analisar a aplicabilidade de técnicas de classificação de gestos contínua para sistemas embarcados. Este objetivo é atingido através da proposição de um modelo de rede neural baseado em redes de convolução 2D e 3D, capaz de realizar reconhecimento de gestos de forma online, isto é, gerando uma predição de classe para o vídeo concomitantemente com a obtenção dos quadros são obtidos, de uma forma preditiva, sem ter acesso a todos os quadros do vídeo. O modelo proposto foi testado em três diferentes bancos de dados de gestos presentes na literatura. Os resultados obtidos expandem o estado-da-arte por apresentar uma técnica de leve implementação que ainda apresenta uma acurácia alta suficiente para a aplicação em sistemas embarcados.por
dc.description.provenanceSubmitted by PPG Engenharia Elétrica ([email protected]) on 2021-12-20T19:17:12Z No. of bitstreams: 1 FÁBIO_BRANDOLT_BALDISSERA_DIS.pdf: 9934072 bytes, checksum: 0f0ff3e8a21e01c9db92ef01740afc4b (MD5)eng
dc.description.provenanceApproved for entry into archive by Sheila Dias ([email protected]) on 2021-12-20T19:45:03Z (GMT) No. of bitstreams: 1 FÁBIO_BRANDOLT_BALDISSERA_DIS.pdf: 9934072 bytes, checksum: 0f0ff3e8a21e01c9db92ef01740afc4b (MD5)eng
dc.description.provenanceMade available in DSpace on 2021-12-20T19:53:24Z (GMT). No. of bitstreams: 1 FÁBIO_BRANDOLT_BALDISSERA_DIS.pdf: 9934072 bytes, checksum: 0f0ff3e8a21e01c9db92ef01740afc4b (MD5) Previous issue date: 2019-10-31eng
dc.description.sponsorshipCoordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPESpor
dc.formatapplication/pdf*
dc.thumbnail.urlhttp://tede2.pucrs.br:80/tede2/retrieve/182933/F%c3%81BIO_BRANDOLT_BALDISSERA_DIS.pdf.jpg*
dc.languageengpor
dc.publisherPontifícia Universidade Católica do Rio Grande do Sulpor
dc.publisher.departmentEscola Politécnicapor
dc.publisher.countryBrasilpor
dc.publisher.initialsPUCRSpor
dc.publisher.programPrograma de Pós-Graduação em Engenharia Elétricapor
dc.rightsAcesso Abertopor
dc.subjectGesture Recognitioneng
dc.subjectOnline Classificationeng
dc.subjectDCNNeng
dc.subjectReconhecimento de Gestospor
dc.subjectClassificação Onlinepor
dc.subject3DCNNpor
dc.subject.cnpqENGENHARIASpor
dc.titleA light implementation of a 3d convolutional neural network for online gesture classificationpor
dc.typeDissertaçãopor
dc.restricao.situacaoTrabalho não apresenta restrição para publicaçãopor
Appears in Collections:Programa de Pós-Graduação em Engenharia Elétrica

Files in This Item:
File Description SizeFormat 
FÁBIO_BRANDOLT_BALDISSERA_DIS.pdfFABIO_BRANDOLT_BALDISSERA_DIS9.7 MBAdobe PDFThumbnail

Download/Open Preview


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.