Brain Orchestra

 近年、音楽におけるインターフェース、インターネット技術技術は、赤外線カメラや筋電センサの普及に伴って、大きく発展してきた。現在、機械学習、深層学習のアルゴリズムを取り入れた、より認知的なインターフェースシステムの設計は広く注目されているが、音楽における実践的な取り組みはまだ少ない。本研究では、機械学習のアルゴリズムを用いることで、脳波データ(EEG)から人間の心理状態を予測し、音楽情報へと変換するシステムの開発と、それを利用した新たな演奏体系の検討を目的とする。

 本研究の独創性は、人間の心理状態を直接的に音楽に反映させるという視点である。従来の音楽におけるインターフェースは、人の“動き”を可聴化するものがほとんどであり、”感情”や”心理状態”といった抽象的なパラメータを反映することはできなかった。インターフェースシステムの開発にとどまらず、従来の演奏体系をどのように変えうるのかについて、実際にパフォーマンスを通じて検討している点も、他の音楽研究にはない視点である。

bo.jpeg
Credit

Concept, Software Engineering: Ryo Yumoto

Concept, Hardware Engineering, Movie: Makoto Amano

Sound, Performance: Reo Anzai, Kenta Tanaka, Shoya Maruyama

Academic Advise: Shinya Fujii, Yuta Uozumi

Conference

Linux Audio Conference

2019.3.23 - 3.26

at CCRMA, Stanford University, USA