Artists in DSP “AMORPH”

Artists in DSPからAIの能力を活かして自前のインストゥルメントやエフェクトを構築可能とする新製品AMORPHの予告がなされています。
開発側の手抜きというわけではありません。正直、これが大成功となったら天地がひっくり返りそう。
動画内の解説によると、要点は下記の通り。
AMORPHの主な特徴
- AIプロンプトを使って、あらゆる種類のエフェクトや楽器を作成できる
- ユーザーが平易な英語でAI(ChatGPTなど)に説明すると、AIがコードを生成
- 生成されたコードをAMORPHに貼り付けるだけで即座に動作する
- 無料でリリース予定
どのように機能するか
- AMORPHのラボモードに入り、プロンプトテンプレートを取得
- 任意のAI(ChatGPT、Gemini、Claudeなど)にプロンプトを送信し、欲しいエフェクト/楽器を説明
- 生成されたコードをAMORPHに貼り付けてコンパイル
- 成功すれば、即座にそのエフェクト/楽器として機能開始
特長と制限
できること
- MIDI入力とオーディオ処理(モノラル/ステレオ)のサポート
- オーディオエフェクト、MIDI楽器、ハイブリッド型のプラグイン作成
- パラメータ設定の保存と呼び出し
制限事項
- UIはシンプル(ノブと表示器のみ)で、派手なグラフィックはない
- 機械学習モデルやサンプルライブラリの読み込みには非対応
- AIに依存する場合は、要求内容をある程度具体的に指定する必要がある
インストゥルメントやエフェクト、およびサウンドプロセッシングに関する知識をもってAIに投げるプロンプトを作成できることが最低条件となるため、「天地がひっくり返る」は言い過ぎでした。
これをある程度受け取れるAMORPHの倉庫っぷりも半端ないとは思いますが、果たしてどこまで可能なのか。
ノウハウを交換するDISCORDのチャンネルもあるようなので、この手の製品が好きな人は積極的に挑んでみるとよろしいかと思います。