Export this record: EndNote BibTex

Please use this identifier to cite or link to this item: http://tede2.pucrs.br/tede2/handle/tede/5267
Document type: Tese
Title: Aprendizado e utilização do estilo de movimento facial na animação de avatares
Author: Braun, Adriana 
Advisor: Musse, Soraia Raupp
Abstract (native): Esse trabalho apresenta uma metodologia, denominada Persona, para aprendizado e transferência do estilo de movimento facial de atores para a animação de avatares. Por meio dessa metodologia, pode-se guiar a animação das faces de avatares com o estilo de movimento de um ator específico, através da atuação de usuários quaisquer. Dessa forma, o avatar poderá expressar os movimentos faciais que o usuário executa, porém replicando as particularidades dos movimentos faciais do ator, por meio da utilização da Persona. Para construção do estilo de movimento facial dos atores, utilizouse como dados de entrada pontos da face obtidos por rastreamento em sequências de imagens e informações presentes em bancos de dados de expressões faciais tridimensionais, anotadas de acordo com o Sistema de Codificação Ações Facial (FACS). Esses dados foram submetidos à análise de componentes principais e, então, utilizados para treinamento de redes neurais artificiais. Com esses classificadores podem-se reconhecer automaticamente as unidades de ação na expressão do usuário e encontrar os parâmetros equivalentes no estilo de movimento do ator. O resultado do processo é o fornecimento desses parâmetros para sistemas de animação. O protótipo desenvolvido como prova de conceito foi utilizado em casos de estudo, cujos resultados são apresentados. Indicações de trabalhos futuros também serão discutidas.
Abstract (english): This work presents a methodology, named Persona, for learning and transfer of facial motion style of an actor in order to provide parameters for avatar facial animation. Through this methodology, we can drive the facial animation of avatars using the motion style of a particular actor, through the performance of any user. Thus, the avatar can express the facial movements that the user is performing, but replicating the particularities of the actor s facial movements, based on his or her Persona. In order to build the facial motion style model of an actor, we used points tracked on image sequences of the actor performance as input data. We also used a database of threedimensional facial expressions, annotated according to the Facial Action Coding System (FACS). Principal components analysis was performed using these data. Afterwards, artificial neural networks were trained to recognize action units both in the actor and user s performances. Given these classifiers, we can automatically recognize action units in the user s expression and find the equivalent parameters in the actor s motion style model. The result of the process is the provision of such parameters to facial animation systems. The prototype developed as proof of concept has been used in case studies, whose results are discussed. Future work are also addressed.
Keywords: INFORMÁTICA
ANIMAÇÃO POR COMPUTADOR
COMPUTAÇÃO GRÁFICA
AVATARES
REDES NEURAIS (COMPUTAÇÃO)
CNPQ Knowledge Areas: CNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO
Language: por
Country: BR
Publisher: Pontifícia Universidade Católica do Rio Grande do Sul
Institution Acronym: PUCRS
Department: Faculdade de Informáca
Program: Programa de Pós-Graduação em Ciência da Computação
Citation: BRAUN, Adriana. Aprendizado e utilização do estilo de movimento facial na animação de avatares. 2014. 124 f. Tese (Doutorado em Ciência da Computação) - Pontifícia Universidade Católica do Rio Grande do Sul, Porto Alegre, 2014.
Access type: Acesso Aberto
URI: http://tede2.pucrs.br/tede2/handle/tede/5267
Issue Date: 8-Aug-2014
Appears in Collections:Programa de Pós-Graduação em Ciência da Computação

Files in This Item:
File Description SizeFormat 
461608.pdfTexto Completo5.1 MBAdobe PDFThumbnail

Download/Open Preview


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.