私たちの周りには、テクノロジーが芸術と融合し、これまでにない表現を生み出す例が増えています。その一つが、身体の動き(モーション)を直接音楽へと変換するパフォーマンスです。今回は、その革新的な試みである「Vモーションプロジェクト」について、その仕組みと開発の背景にある工夫を見ていきましょう。

Vモーションプロジェクトの概要

「Vモーションプロジェクト」は、パフォーマーの動きをリアルタイムで検知し、それに応じて音楽を生成・操作するライブパフォーマンスです。特に夜間の限られた空間で披露されるこの表現は、視覚と聴覚を同時に刺激する没入感のある体験を提供します。

ライブ The V Motion Project

The V Motion Project from Assembly

開発における挑戦と解決策

このような動きと音の連動を実現する上で、開発初期に立ちはだかったのが、モーションと音の「タイムラグ」(時間差)をいかに無くすかという課題でした。音楽のパフォーマンスにおいて、わずかな時間差も聴覚に不自然さを与え、時には致命的な問題となりかねません。

この重要な課題を解決するため、開発チームは独自の工夫を凝らしました。彼らは、PCとカメラをそれぞれ2台ずつ使用するというアプローチを採用。これにより、データの処理速度を向上させ、モーションと音の同期を高精度で実現することに成功したのです。

システム 

システムを支える技術要素

プロジェクトの核となるモーション認識には、Microsoftが開発したKinect cameraが活用されています。これは元々ゲーム機Xboxの周辺機器として知られるモーションセンサーカメラで、人の動きを正確に捉えることができます。

音響システムには、音楽制作現場で広く使われているソフトウェアであるAbleton Liveが採用されました。このソフトウェアは、Kinect cameraと連動することで、パフォーマーの動きによってAbleton Live内の様々なパラメーターを操作できるよう設計されています。例えば、ソフトウェア内のダイヤルやスイッチといった設定も、物理的な接触なしにモーションでコントロールされるのです。

さらに、パフォーマーは手を広げて角度をつけるといったシンプルな動作で、演奏中の音のボリュームを直感的に調整することも可能です。これにより、楽器を演奏するように、自身の身体全体で音楽表現を創り出すことができます。

まとめ

私たちが日々目にするスマートフォンやゲーム機にも、ジェスチャー認識やモーションセンサーといった技術が使われています。Vモーションプロジェクトのように、これらの技術を組み合わせることで、エンターテインメントだけでなく、医療や教育、産業など、様々な分野で新たなアプリケーションが生まれる可能性があります。身体の動きを情報として捉え、それを活用する技術は、これからも私たちの生活や表現の幅を広げていくことでしょう。