ZATLAB: recognizing gestures for artistic performance interaction

Resultado de pesquisa

8 Transferências (Pure)

Resumo

Grande parte das apresentações artísticas são baseadas em gestos humanos, ultimamente resultando numa intricada interação entre o performer e o público. Os seres humanos, mesmo sem qualquer tipo de formação em música, dança ou gesto são capazes de extrair, quase inconscientemente, uma grande quantidade de informações relevantes a partir de um gesto. Na verdade, um gesto contém imensa informação, porque não usá-la para enriquecer ainda mais uma performance? Os gestos e a comunicação expressiva estão intrinsecamente ligados e estando ambos intimamente ligados à nossa própria existência quotidiana, têm uma posição central nesta sociedade tecnológica actual. No entanto, o uso da tecnologia para entender o gesto está ainda, de alguma forma, vagamente explorado. Existem já alguns desenvolvimentos, mas o objetivo de sistemas totalmente capazes de analisar os gestos ainda está longe (Volpe, 2005). Provavelmente porque, se por um lado, o reconhecimento de gestos é de certo modo uma tarefa trivial para os seres humanos, por outro lado, o esforço de traduzir os gestos para o mundo virtual, com uma codificação digital é uma tarefa difícil e ainda mal definida. É necessário preencher esta lacuna de alguma forma, estimulando uma interação construtiva entre gestos e tecnologia, cultura e ciência, desempenho e comunicação. Abrindo assim, novas e inexploradas fronteiras na concepção de uma nova geração de sistemas interativos multimodais. Este trabalho propõe uma framework interativa de reconhecimento de gestos, em tempo real, chamada Sistema Zatlab (ZtS). Esta framework é flexível e extensível. Assim, está em permanente evolução, mantendo-se a par das diferentes tecnologias e algoritmos que surgem num ritmo acelerado hoje em dia. A abordagem proposta baseia-se em dividir a sequência temporal do movimento humano nas suas características descritivas e transmiti-las para posterior processamento, em algoritmos de Machine Learning. A framework descrita baseia-se no facto de que a percepção depende, principalmente, do conhecimento ou aprendizagem prévia. Assim, tal como os humanos, a framework terá que aprender os gestos e as suas principais características para que depois possa identificá-los. No entanto, esta está prevista para ser flexível o suficiente de forma a permitir a aprendizagem de gestos de forma dinâmica. Esta dissertação apresenta também uma validação experimental qualitativa e quantitativa da framework. A análise qualitativa fornece os resultados referentes à aceitabilidade da framework. A validação quantitativa fornece os resultados sobre os algoritmos de reconhecimento de gestos. O uso de algoritmos de Machine Learning no reconhecimento de gestos, permite a obtenção de resultados finais que são comparaveis ou superam outras implementações do mesmo género. Além disso, são também apresentadas duas implementações artísticas da framework, avaliando assim a sua usabilidade no domínio da performance artística. Apesar duma implementação específica da framework ser apresentada nesta dissertação e disponibilizada como software open-source, a abordagem proposta é suficientemente flexível para que esta seja usada noutros cenários. Abrindo assim, o caminho para aplicações que poderão beneficiar não só o domínio das artes performativas, mas também, provavelmente num futuro próximo, outros tipos de comunicação, como por exemplo, a linguagem gestual usada em casos de deficiência auditiva.
Idioma originalEnglish
QualificaçãoDoctor of Philosophy
Instituição de premiação
  • Universidade Católica Portuguesa
Supervisores/Consultores
  • Martins, Luís Gustavo, Supervisor
  • Cardoso, Jaime S., Co-orientador, Pessoa externa
Promotores de tese
Data do prémio1 jan 2015
Estado da publicaçãoPublicado - 2014

Impressão digital

Mergulhe nos tópicos de investigação de “ZATLAB: recognizing gestures for artistic performance interaction“. Em conjunto formam uma impressão digital única.

Citação