Skip to main content
Log in

Moosic: Von der content- zur kontextbasierten Musikempfehlung

Moosic: From Content- to Context-Based Music Recommendation

  • Schwerpunkt
  • Published:
HMD Praxis der Wirtschaftsinformatik Aims and scope Submit manuscript

Zusammenfassung

Musik begleitet uns den ganzen Tag bei einer Vielzahl von Aktivitäten und in unterschiedlichsten Stimmungen. Insbesondere durch Musik-Streaming-Dienste und mobile Endgeräte wurde ein allgegenwärtiges Hörerlebnis mit sofortigem Zugriff auf eine nahezu unbegrenzte Vielfalt an Musik ermöglicht. Dieser Zugang führt jedoch zu dem Kundenproblem, die richtige Musik für eine bestimmte Situation oder Stimmung auszuwählen. Der Nutzer ist bei der Musikauswahl oft überfordert. Kontextinformationen, hier im Speziellen emotionale Informationen des Nutzers, können bei der Musikauswahl helfen. Die Möglichkeiten Musik anhand der Stimmung auszuwählen sind derzeit begrenzt. Die Anbieter setzen auf vordefinierte Playlisten für unterschiedliche Situationen oder Stimmungen. Das Problem hierbei ist jedoch, dass sie sich nicht den neuen Nutzergegebenheiten anpassen. Eine einfache, intuitive und automatische Auswahl von Musik auf Basis von Emotionen wird in der IS-Praxis und -Forschung bisher wenig untersucht. Dieses Paper beschreibt das IS-Musikforschungsprojekt „Moosic“, das eine intuitive und emotionale Art der Musikempfehlung für den Alltag untersucht und iterativ umsetzt. Im Rahmen der Arbeit wird zudem auf eine erste Evaluation des Prototyps eingegangen und ein Ausblick auf die weitere Entwicklung gegeben.

Abstract

Music accompanies us throughout the day in a variety of activities and moods. In particular, music streaming services and mobile devices have enabled a ubiquitous listening experience with instant access to an almost unlimited variety of music. However, this access leads to the customer’s problem of choosing the right music for a special situation or mood. The user is often overwhelmed when choosing music. Context information, in particular emotional information of the user, can help in the music selection process. The possibilities to select music based on mood are currently limited. The providers rely on predefined playlists for different situations or moods. However, the problem with predefined lists is, that they do not adapt to the new user conditions. A simple, intuitive and automatic selection of music based on emotions has so far been little investigated in IS practice and research. This paper describes the IS music research project “Moosic”, which investigates and iteratively implements an intuitive and emotion-based music recommendation application for everyday life. In addition, an initial evaluation of the prototype will be discussed and an outlook on further development will be given.

This is a preview of subscription content, log in via an institution to check access.

Access this article

Price excludes VAT (USA)
Tax calculation will be finalised during checkout.

Instant access to the full article PDF.

Abb. 1
Abb. 2
Abb. 3

Notes

  1. Zusammengesetzt aus Mood und Music.

  2. Daniel Ek, Gründer und CEO von Spotify, 2015 auf einem Mediaevent in New York.

  3. Für nähere Informationen, siehe https://developer.spotify.com/documentation/web-api/reference/tracks/get-audio-features/.

  4. Ein API (Application Programming Interface) ist eine Programmierschnittstelle zur Anwendungsprogrammierung.

Literatur

  • Ayata D, Yaslan Y, Kamasak ME (2018) Emotion based music recommendation system using wearable physiological sensors. IEEE Trans Consum Electron 64:196–203. https://doi.org/10.1109/TCE.2018.2844736

    Article  Google Scholar 

  • Bachmann A, Klebsattel C, Schankin A et al (2015) Leveraging smartwatches for unobtrusive mobile ambulatory mood assessment. In: Proceedings of the 2015 ACM International Joint Conference on Pervasive and Ubiquitous Computing and Proceedings of the 2015 ACM International Symposium on Wearable Computers—UbiComp ’15. ACM Press, Osaka, S 1057–1062

    Google Scholar 

  • Brave S, Nass C (2003) Emotion in human-computer interaction. In: Jacko JA, Sears A (Hrsg) The Human-computer Interaction Handbook. Erlbaum, Hillsdale, S 81–96

    Google Scholar 

  • Bundesverband Musikindustrie (BVMI) (2018) Musikindustrie in Zahlen 2017. Bundesverband Musikindustrie (BVMI), Berlin

    Google Scholar 

  • Cabanac M (2002) What is emotion? Behav Processes 60:69–83. https://doi.org/10.1016/S0376-6357(02)00078-5

    Article  Google Scholar 

  • Clement M (2018) Studie zur Zukunft der Musik. Lehrstuhl für Marketing & Media, Universität Hamburg, Hamburg

    Google Scholar 

  • DeNora T (2011) Music in everyday life. Cambridge University Press, Cambridge

    Google Scholar 

  • Essa IA, Pentland AP (1995) Facial expression recognition using a dynamic model and motion energy. IEEE Comput. Soc. Press, Cambridge, S 360–367

    Google Scholar 

  • Gaston ET (1951) Dynamic music factors in mood change. Music Educ J 37:42–44. https://doi.org/10.2307/3387360

    Article  Google Scholar 

  • Hussain SS, Peter C, Bieber G (2009) Emotion recognition on the go: providing personalized services based on emotional states Bd. 6

    Google Scholar 

  • Jamdar A, Abraham J, Khanna K, Dubey R (2015) Emotion analysis of songs based on lyrical and audio features. Int J Artif Intell Appl 6:35–50. https://doi.org/10.5121/ijaia.2015.6304

    Google Scholar 

  • Janssen JH, van den Broek EL, Westerink JHDM (2012) Tune in to your emotions: a robust personalized affective music player. User Model User Adapt Interact 22:255–279. https://doi.org/10.1007/s11257-011-9107-7

    Article  Google Scholar 

  • Kim J, Lee S, Kim S, Yoo WY (2011) Music mood classification model based on arousal-valence values. In: 13th International Conference on Advanced Communication Technology (ICACT), S 292–295

    Google Scholar 

  • Krause AE, North AC (2014) Contextualized music listening: playlists and the Mehrabian and Russell model. Psychol Well-being 4:1–16. https://doi.org/10.1186/s13612-014-0022-7

    Article  Google Scholar 

  • Meschtscherjakov A, Weiss A, Scherndl T (2009) Utilizing Emoticons on mobile devices within ESM studies to measure emotions in the field. Proc MME Conjunction MobileHCI 9.

    Google Scholar 

  • Pettijohn TF, Williams GM, Carter TC (2010) Music for the seasons: seasonal music preferences in college students. Curr Psychol 29:328–345. https://doi.org/10.1007/s12144-010-9092-8

    Article  Google Scholar 

  • Picard RW, Klein J (2002) Computers that recognise and respond to user emotion: theoretical and practical implications. Interact Comput 14:141–169. https://doi.org/10.1016/S0953-5438(01)00055-8

    Article  Google Scholar 

  • Pollacci L, Guidotti R, Rossetti G (2016) “Are we playing like music-stars?” placing emerging artists on the Italian music scene

    Google Scholar 

  • Reeves B, Nass C (1996) The media equation: how people treat computers, television, and new media like real people and pla. Bibliovault OAI Repos Univ Chic Press, Cambridge

    Google Scholar 

  • Russell JA (1980) A circumplex model of affect. J Pers Soc Psychol 39:1161–1178. https://doi.org/10.1037/h0077714

    Article  Google Scholar 

  • Scaringella N, Zoia G, Mlynek D (2006) Automatic genre classification of music content: a survey. IEEE Signal Process Mag 23:133–141. https://doi.org/10.1109/MSP.2006.1598089

    Article  Google Scholar 

  • Sloboda JA (2011) Music in everyday life: the role of emotions. In: Juslin PN, Sloboda J (Hrsg) Handbook of music and emotion: theory, research, applications. Oxford University Press, Oxford

    Google Scholar 

  • Thayer RE (1991) The biopsychology of mood and arousal. Oxford University Press, Oxford

    Google Scholar 

  • Yurur O, Liu CH, Sheng Z et al (2016) Context-awareness for mobile sensing: a survey and future directions. IEEE Commun Surv Tutor 18:68–93. https://doi.org/10.1109/COMST.2014.2381246

    Article  Google Scholar 

Download references

Author information

Authors and Affiliations

Authors

Corresponding author

Correspondence to Michael Meyer.

Rights and permissions

Reprints and permissions

About this article

Check for updates. Verify currency and authenticity via CrossMark

Cite this article

Helmholz, P., Meyer, M. & Robra-Bissantz, S. Moosic: Von der content- zur kontextbasierten Musikempfehlung. HMD 56, 598–611 (2019). https://doi.org/10.1365/s40702-019-00526-5

Download citation

  • Received:

  • Accepted:

  • Published:

  • Issue Date:

  • DOI: https://doi.org/10.1365/s40702-019-00526-5

Schlüsselwörter

Keywords

Navigation