Name: | Description: | Size: | Format: | |
---|---|---|---|---|
1.44 MB | Adobe PDF |
Authors
Advisor(s)
Abstract(s)
O reconhecimento de emoção em música (MER) é uma área de investigação que tem
ganho notoriedade nas últimas décadas. Sabemos hoje que a música transmite emoções aos
ouvintes, sendo este facto explorado para os mais diversos fins, como o entretenimento,
cinema, desporto ou terapia. Por esta razão, investigadores na área de MER têm estudado a
possibilidade de criar sistemas capazes de reconhecer de forma automática a emoção
presente num sinal musical áudio. Este processo é extremamente complexo, tocando
diversas áreas como a psicologia, com as taxonomias de emoção, mas também de ciência
da computação, com processamento de sinal e aprendizagem automática, assim como a
área da música. Desta forma, grande parte dos avanços permanece ainda fechada no meio
académico, existindo poucos ou nenhuns sistemas deste tipo disponíveis.
Este projeto visou criar um protótipo sistema robusto e escalável que sirva para demonstrar
o conceito de um sistema de MER. Para isso junta os vários conceitos do estado da arte na
área com metodologias modernas de engenharia de software, originando um sistema que
obtém o áudio de vídeos do YouTube, sumariza o mesmo em características e classifica-o
em quatro emoções distintas: alegria, agressividade, tristeza e tranquilidade. Foram
desenvolvidos microsserviços distintos que implementam estas funcionalidades, através de
uma arquitetura que os torna independentes, escaláveis, robustos e de alto desempenho.
Este sistema vem contribuir também para a área de MER, pois facilita a divulgação da
mesma fora do meio académico.