今日もう一つの記事が長くなっちゃったので、こちらは手短に。
Adobeが見せたAI music generatorについて早速あちこちで言及されているわけですが、ポイントは次のように整理されます。
- Photoshop for musicという表現が適切か否か(これはしゃあないのでは)
- 生成結果のコントロール性
- 音量ではない強弱表現に対応
- モチーフからの構造構築
- ループ可能
- 自分は知らなかったのだけど、この点で疑問視されていた?
- 拍子や小節数の概念がAIに備わっていないとループが不自然になるということかな
- 自分は知らなかったのだけど、この点で疑問視されていた?
- 今はまだ初期段階
で、こちらもたびたび触れてきたように、このプロジェクトにおいても「music co-creation」が掲げられており、一から十までジェネレーターに依存してもらう目的のものではないと明言されています。
あとは、上記の記事の文末にもあるように、人間のミュージシャンがこれらのトレーニングにどう関わったかですね。素材として使われたのか、それともトレーニングに携わったのか。
Gearnewsはこの辺り端的にまとめてくれていてGood。
とはいえそのコメ欄を見ると論点の異なる悲嘆の声が記されていて、AI自体についても考えなくちゃいけないけど、発注-受注側とが互いに信用できてない問題についても考えなくちゃいけないと思わされます。