Zusammenfassung
Musik begleitet uns den ganzen Tag bei einer Vielzahl von Aktivitäten und in unterschiedlichsten Stimmungen. Insbesondere durch Musik-Streaming-Dienste und mobile Endgeräte wurde ein allgegenwärtiges Hörerlebnis mit sofortigem Zugriff auf eine nahezu unbegrenzte Vielfalt an Musik ermöglicht. Dieser Zugang führt jedoch zu dem Kundenproblem, die richtige Musik für eine bestimmte Situation oder Stimmung auszuwählen. Der Nutzer ist bei der Musikauswahl oft überfordert. Kontextinformationen, hier im Speziellen emotionale Informationen des Nutzers, können bei der Musikauswahl helfen. Die Möglichkeiten Musik anhand der Stimmung auszuwählen sind derzeit begrenzt. Die Anbieter setzen auf vordefinierte Playlisten für unterschiedliche Situationen oder Stimmungen. Das Problem hierbei ist jedoch, dass sie sich nicht den neuen Nutzergegebenheiten anpassen. Eine einfache, intuitive und automatische Auswahl von Musik auf Basis von Emotionen wird in der IS-Praxis und -Forschung bisher wenig untersucht. Dieses Paper beschreibt das IS-Musikforschungsprojekt „Moosic“, das eine intuitive und emotionale Art der Musikempfehlung für den Alltag untersucht und iterativ umsetzt. Im Rahmen der Arbeit wird zudem auf eine erste Evaluation des Prototyps eingegangen und ein Ausblick auf die weitere Entwicklung gegeben.
Abstract
Music accompanies us throughout the day in a variety of activities and moods. In particular, music streaming services and mobile devices have enabled a ubiquitous listening experience with instant access to an almost unlimited variety of music. However, this access leads to the customer’s problem of choosing the right music for a special situation or mood. The user is often overwhelmed when choosing music. Context information, in particular emotional information of the user, can help in the music selection process. The possibilities to select music based on mood are currently limited. The providers rely on predefined playlists for different situations or moods. However, the problem with predefined lists is, that they do not adapt to the new user conditions. A simple, intuitive and automatic selection of music based on emotions has so far been little investigated in IS practice and research. This paper describes the IS music research project “Moosic”, which investigates and iteratively implements an intuitive and emotion-based music recommendation application for everyday life. In addition, an initial evaluation of the prototype will be discussed and an outlook on further development will be given.
Notes
Zusammengesetzt aus Mood und Music.
Daniel Ek, Gründer und CEO von Spotify, 2015 auf einem Mediaevent in New York.
Für nähere Informationen, siehe https://developer.spotify.com/documentation/web-api/reference/tracks/get-audio-features/.
Ein API (Application Programming Interface) ist eine Programmierschnittstelle zur Anwendungsprogrammierung.
Literatur
Ayata D, Yaslan Y, Kamasak ME (2018) Emotion based music recommendation system using wearable physiological sensors. IEEE Trans Consum Electron 64:196–203. https://doi.org/10.1109/TCE.2018.2844736
Bachmann A, Klebsattel C, Schankin A et al (2015) Leveraging smartwatches for unobtrusive mobile ambulatory mood assessment. In: Proceedings of the 2015 ACM International Joint Conference on Pervasive and Ubiquitous Computing and Proceedings of the 2015 ACM International Symposium on Wearable Computers—UbiComp ’15. ACM Press, Osaka, S 1057–1062
Brave S, Nass C (2003) Emotion in human-computer interaction. In: Jacko JA, Sears A (Hrsg) The Human-computer Interaction Handbook. Erlbaum, Hillsdale, S 81–96
Bundesverband Musikindustrie (BVMI) (2018) Musikindustrie in Zahlen 2017. Bundesverband Musikindustrie (BVMI), Berlin
Cabanac M (2002) What is emotion? Behav Processes 60:69–83. https://doi.org/10.1016/S0376-6357(02)00078-5
Clement M (2018) Studie zur Zukunft der Musik. Lehrstuhl für Marketing & Media, Universität Hamburg, Hamburg
DeNora T (2011) Music in everyday life. Cambridge University Press, Cambridge
Essa IA, Pentland AP (1995) Facial expression recognition using a dynamic model and motion energy. IEEE Comput. Soc. Press, Cambridge, S 360–367
Gaston ET (1951) Dynamic music factors in mood change. Music Educ J 37:42–44. https://doi.org/10.2307/3387360
Hussain SS, Peter C, Bieber G (2009) Emotion recognition on the go: providing personalized services based on emotional states Bd. 6
Jamdar A, Abraham J, Khanna K, Dubey R (2015) Emotion analysis of songs based on lyrical and audio features. Int J Artif Intell Appl 6:35–50. https://doi.org/10.5121/ijaia.2015.6304
Janssen JH, van den Broek EL, Westerink JHDM (2012) Tune in to your emotions: a robust personalized affective music player. User Model User Adapt Interact 22:255–279. https://doi.org/10.1007/s11257-011-9107-7
Kim J, Lee S, Kim S, Yoo WY (2011) Music mood classification model based on arousal-valence values. In: 13th International Conference on Advanced Communication Technology (ICACT), S 292–295
Krause AE, North AC (2014) Contextualized music listening: playlists and the Mehrabian and Russell model. Psychol Well-being 4:1–16. https://doi.org/10.1186/s13612-014-0022-7
Meschtscherjakov A, Weiss A, Scherndl T (2009) Utilizing Emoticons on mobile devices within ESM studies to measure emotions in the field. Proc MME Conjunction MobileHCI 9.
Pettijohn TF, Williams GM, Carter TC (2010) Music for the seasons: seasonal music preferences in college students. Curr Psychol 29:328–345. https://doi.org/10.1007/s12144-010-9092-8
Picard RW, Klein J (2002) Computers that recognise and respond to user emotion: theoretical and practical implications. Interact Comput 14:141–169. https://doi.org/10.1016/S0953-5438(01)00055-8
Pollacci L, Guidotti R, Rossetti G (2016) “Are we playing like music-stars?” placing emerging artists on the Italian music scene
Reeves B, Nass C (1996) The media equation: how people treat computers, television, and new media like real people and pla. Bibliovault OAI Repos Univ Chic Press, Cambridge
Russell JA (1980) A circumplex model of affect. J Pers Soc Psychol 39:1161–1178. https://doi.org/10.1037/h0077714
Scaringella N, Zoia G, Mlynek D (2006) Automatic genre classification of music content: a survey. IEEE Signal Process Mag 23:133–141. https://doi.org/10.1109/MSP.2006.1598089
Sloboda JA (2011) Music in everyday life: the role of emotions. In: Juslin PN, Sloboda J (Hrsg) Handbook of music and emotion: theory, research, applications. Oxford University Press, Oxford
Thayer RE (1991) The biopsychology of mood and arousal. Oxford University Press, Oxford
Yurur O, Liu CH, Sheng Z et al (2016) Context-awareness for mobile sensing: a survey and future directions. IEEE Commun Surv Tutor 18:68–93. https://doi.org/10.1109/COMST.2014.2381246
Author information
Authors and Affiliations
Corresponding author
Rights and permissions
About this article
Cite this article
Helmholz, P., Meyer, M. & Robra-Bissantz, S. Moosic: Von der content- zur kontextbasierten Musikempfehlung. HMD 56, 598–611 (2019). https://doi.org/10.1365/s40702-019-00526-5
Received:
Accepted:
Published:
Issue Date:
DOI: https://doi.org/10.1365/s40702-019-00526-5