
2100年、日本の音楽シーンは、かつてないほど多様で、かつ分散化されたものになっているだろう。音楽とテクノロジーが完全に融合し、アーティスト、リスナー、そして人工知能(AI)が共存する新たな音楽文化が形成されているはずだ。
音楽の創造はAIと人間の共作に
21世紀前半から進化し続けていたAI技術は、2100年には完全に音楽制作の一部となっている。もはや「AIが作る音楽」ではなく、「AIと人間が共に作る音楽」が当たり前になっている。作曲や編曲はAIがリアルタイムで補完し、アーティストの感情や思想に寄り添う形で音を紡いでいく。
例えば、あるアーティストが楽曲を作り始めると、AIは彼の過去の作品や好みを学習し、リアルタイムでアレンジを提案。シンセサウンドを微調整したり、コード進行を変えたり、リスナーの感情に応じて曲を自動生成するシステムもある。音楽はもはや完成形ではなく、演奏するたびに変化する「生きたもの」になっている。
ライブパフォーマンスの拡張と仮想化
2100年のライブシーンは、物理空間とバーチャル空間の境界を超えたものになっている。ホログラム技術が極限まで進化し、アーティストは実際に会場にいなくても、ファンの前でリアルタイムにパフォーマンスを行える。さらに、感覚共有テクノロジーによって、リスナーはアーティストが感じる音や振動を自分の身体で体験することが可能になっている。
また、脳波インターフェース技術を利用し、リスナーの気分や感情に応じて、ライブのセットリストがリアルタイムで変化するライブイベントも登場している。もはや観客は受動的にライブを楽しむのではなく、感覚を通じて演奏に参加する存在になっているのだ。

シーンの細分化と”超ローカル”ムーブメント
音楽のシーンは、SNSの発展を経てさらに細分化され、2100年には無数の”超ローカル”な音楽コミュニティが存在している。それぞれのコミュニティは、独自のAIを活用し、パーソナライズされた音楽シーンを築いている。たとえば、「特定の気候でしか流れない音楽」や、「特定の街でのみ聴けるサウンド」といった、地理や文化と密接に結びついた音楽が増えている。
また、日本の伝統音楽はAI技術によって新たな形で蘇る。尺八や三味線の音色は、最新のテクノロジーと融合し、電子音楽と自然に共存。もはや「伝統と現代」という二項対立はなくなり、すべての音楽が流動的に交わる時代となっている。
結論:音楽は、より人間的で、より拡張されたものに
2100年の日本の音楽シーンは、技術の進化によって新しい創造の領域に突入している。しかし、驚くべきことに、その未来は決して無機質なものではない。むしろ、AIやテクノロジーの力によって、より人間的で、感情豊かな音楽が生み出される時代になっている。
音楽は、もはや聴くだけのものではない。感じるもの、体験するもの、そして一緒に創り上げるものへと進化している。2100年、日本の音楽は、「音」と「人間」の関係性を、まったく新しい次元へと押し上げているのだ。

Shin Kagawa:100年後の音楽シーンを勝手気ままに妄想し続ける妄想系音楽ライター。AI作曲家の内省ポップや、火星発メロウ・ジャングルなど架空ジャンルに情熱を燃やす。現実逃避と未来妄想の境界で踊る日々。好きな映画は『バードマン あるいは(無知がもたらす予期せぬ奇跡)』。