Repository logo
 
Publication

Predicting video memorability using traditional and incremental approaches

dc.contributor.advisorSabino, André Miguel Guedelha
dc.contributor.advisorEstima, Jacinto Paulo SimÔes
dc.contributor.authorSantos, Fernando Lamar CorrĂȘa dos
dc.date.accessioned2025-10-08T12:10:37Z
dc.date.available2025-10-08T12:10:37Z
dc.date.issued2024-12
dc.description.abstractThis study investigates the viability of incremental training as an alternative to traditional training methods for video memorability prediction, particularly in hardware-constrained environments. Using the ViViT model, a transformer-based architecture, the research seeks to address the primary question of whether incremental training can provide stable and consistent performance with reduced computational demands (RQ1). Two experiments were conducted: one comparing incremental and traditional training methods and another applying incremental training to the full dataset. The results indicate that incremental training is a feasible alternative, offering comparable performance in error metrics such as Mean Squared Error (MSE) and Mean Absolute Error (MAE), while significantly reducing the computational load. However, incremental training exhibited limitations in ranking accuracy, as measured by Spearman’s Rank Correlation (SRC), when compared to traditional methods. The findings suggest that incremental training can provide a practical solution for video memorability prediction in resource-constrained scenarios, but further refinement is needed to improve its performance in rank-order tasks. Future work should explore architectural optimizations, optimizing input configurations, expanding datasets, incorporating multimodal data, and tuning the ViViT architecture for better long-range dependency handling.por
dc.description.abstractEste estudo investiga a viabilidade do treino incremental como uma alternativa aos mĂ©todos tradicionais de treino para a previsĂŁo de memorabilidade de vĂ­deos, particularmente em ambientes com limitaçÔes de hardware. Utilizando o modelo ViViT, uma arquitetura baseada em transformers, a pesquisa pretende responder Ă  principal questĂŁo de saber se o treino incremental pode fornecer desempenho estĂĄvel e consistente com menores demandas computacionais (RQ1). Foram realizados duas experiencias: um comparando os mĂ©todos de treino incremental e tradicional, e outro aplicando o treino incremental ao conjunto de dados completo. Os resultados indicam que o treino incremental Ă© uma alternativa viĂĄvel, oferecendo desempenho comparĂĄvel em mĂ©tricas de erro como o Erro QuadrĂĄtico MĂ©dio (MSE) e o Erro Absoluto MĂ©dio (MAE), enquanto reduz significativamente a carga computacional. No entanto, o treino incremental apresentou limitaçÔes na precisĂŁo de ordenação, medida pela Correlação de Rank de Spearman (SRC), em comparação com os mĂ©todos tradicionais. Os resultados sugerem que o treino incremental pode ser uma solução prĂĄtica para a previsĂŁo de memorabilidade de vĂ­deos em cenĂĄrios com restriçÔes de recursos, mas refinamentos adicionais sĂŁo necessĂĄrios para melhorar o desempenho em tarefas de ordenação. Trabalhos futuros devem explorar otimizaçÔes arquiteturais, configuraçÔes de entrada, expansĂŁo de conjuntos de dados, incorporação de dados multimodais e ajuste da arquitetura ViViT para um melhor manuseio de dependĂȘncias de longo prazo.por
dc.identifier.tid203830105
dc.identifier.urihttp://hdl.handle.net/10400.26/58960
dc.language.isoeng
dc.rights.uriN/A
dc.subjectIncremental training
dc.subjectVideo memorability
dc.subjectViViT
dc.subjectHardware constraints
dc.subjectTransformer models
dc.titlePredicting video memorability using traditional and incremental approaches
dc.typemaster thesis
dspace.entity.typePublication
thesis.degree.grantorInstituto de Arte, Design e Empresa - UniversitĂĄrio
thesis.degree.nameComputação Criativa e InteligĂȘncia Artificial

Files

Original bundle
Now showing 1 - 1 of 1
Loading...
Thumbnail Image
Name:
Dissertation_Fernando Lamar CorrĂȘa dos Santos.pdf
Size:
1.77 MB
Format:
Adobe Portable Document Format
License bundle
Now showing 1 - 1 of 1
No Thumbnail Available
Name:
license.txt
Size:
1.85 KB
Format:
Item-specific license agreed upon to submission
Description: