論文の概要: DeformTune: A Deformable XAI Music Prototype for Non-Musicians
- arxiv url: http://arxiv.org/abs/2508.00160v1
- Date: Thu, 31 Jul 2025 20:57:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-04 18:08:53.670682
- Title: DeformTune: A Deformable XAI Music Prototype for Non-Musicians
- Title(参考訳): DeformTune:非ミュージシャンのための変形可能なXAIミュージックプロトタイプ
- Authors: Ziqing Xu, Nick Bryan-Kinns,
- Abstract要約: 本稿では,変形可能なインターフェースと測定値モデルを組み合わせたプロトタイプシステムであるDeformTuneを紹介し,より直感的で具体的で説明可能なAIインタラクションを探索する。
形式的音楽訓練を受けない成人11名を対象に,AIを用いた音楽制作経験について予備的検討を行った。
テーマ分析の結果,不明瞭な制御マッピング,表現範囲の限定,使用中における指導の必要性など,繰り返し発生する課題が明らかになった。
- 参考スコア(独自算出の注目度): 8.306938034148516
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many existing AI music generation tools rely on text prompts, complex interfaces, or instrument-like controls, which may require musical or technical knowledge that non-musicians do not possess. This paper introduces DeformTune, a prototype system that combines a tactile deformable interface with the MeasureVAE model to explore more intuitive, embodied, and explainable AI interaction. We conducted a preliminary study with 11 adult participants without formal musical training to investigate their experience with AI-assisted music creation. Thematic analysis of their feedback revealed recurring challenge--including unclear control mappings, limited expressive range, and the need for guidance throughout use. We discuss several design opportunities for enhancing explainability of AI, including multimodal feedback and progressive interaction support. These findings contribute early insights toward making AI music systems more explainable and empowering for novice users.
- Abstract(参考訳): 既存のAI音楽生成ツールの多くは、テキストプロンプト、複雑なインターフェイス、楽器のようなコントロールに依存しており、非音楽家が持っていない音楽的あるいは技術的な知識を必要とする。
本稿では,触覚変形可能なインターフェースと測定用VAEモデルを組み合わせたプロトタイプシステムであるDeformTuneを紹介し,より直感的で具体的で説明可能なAIインタラクションを探索する。
形式的音楽訓練を受けない成人11名を対象に,AIを用いた音楽制作経験について予備的検討を行った。
テーマ分析の結果,不明瞭な制御マッピング,表現範囲の限定,使用中における指導の必要性など,繰り返し発生する課題が明らかになった。
マルチモーダルフィードバックやプログレッシブインタラクションサポートなど,AIの説明可能性を高めるためのいくつかの設計機会について論じる。
これらの発見は、AIミュージックシステムをより説明しやすくし、初心者ユーザーに権限を与えるための初期の洞察に寄与する。
関連論文リスト
- ReaLJam: Real-Time Human-AI Music Jamming with Reinforcement Learning-Tuned Transformers [53.63950017886757]
ReaLJamは、人間とトランスフォーマーをベースとしたAIエージェントが強化学習でトレーニングしたライブ音楽ジャミングセッションのためのインタフェースとプロトコルである。
エージェントが継続的にパフォーマンスを予測し,ユーザに対してその計画を視覚的に伝達する,予測という概念を用いてリアルタイムインタラクションを可能にする。
論文 参考訳(メタデータ) (2025-02-28T17:42:58Z) - Tuning Music Education: AI-Powered Personalization in Learning Music [0.2046223849354785]
本稿では,音楽教育の課題に対処するために,このような音楽技術の進歩を利用した2つのケーススタディを提案する。
最初のケーススタディでは、音声トラックからパーソナライズされたエクササイズを生成するために、自動コード認識を使用するアプリケーションを紹介した。
第2のケーススタディでは,アダプティブピアノ方式の本を試作し,オートマチック・ミュージック・トランストラクレーションを用いて,異なるスキルレベルでのエクササイズを生成する。
論文 参考訳(メタデータ) (2024-12-18T05:25:42Z) - Survey of User Interface Design and Interaction Techniques in Generative AI Applications [79.55963742878684]
我々は,デザイナやディベロッパの参照として使用できる,さまざまなユーザインタラクションパターンのコンペレーションを作ることを目指している。
また、生成AIアプリケーションの設計についてもっと学ぼうとする人たちの参入障壁を低くしようと努力しています。
論文 参考訳(メタデータ) (2024-10-28T23:10:06Z) - A Survey of Foundation Models for Music Understanding [60.83532699497597]
この研究は、AI技術と音楽理解の交差に関する初期のレビューの1つである。
音楽理解能力に関して,近年の大規模音楽基盤モデルについて検討,分析,検証を行った。
論文 参考訳(メタデータ) (2024-09-15T03:34:14Z) - Foundation Models for Music: A Survey [77.77088584651268]
ファンデーションモデル(FM)は音楽を含む様々な分野に大きな影響を与えている。
本総説では,音楽の事前学習モデルと基礎モデルについて概観する。
論文 参考訳(メタデータ) (2024-08-26T15:13:14Z) - Play Me Something Icy: Practical Challenges, Explainability and the Semantic Gap in Generative AI Music [0.0]
この写真は、説明可能なAIの文脈において、テキスト音声およびテキスト音声生成ツールの性質を批判的に考察することを目的としている。
論文 参考訳(メタデータ) (2024-08-13T22:42:05Z) - Towards Explainable and Interpretable Musical Difficulty Estimation: A Parameter-efficient Approach [49.2787113554916]
音楽コレクションの整理には曲の難易度を推定することが重要である。
シンボリックな音楽表現の難易度推定には説明可能な記述子を用いる。
ピアノレパートリーで評価したアプローチは,平均2乗誤差(MSE)が1.7。
論文 参考訳(メタデータ) (2024-08-01T11:23:42Z) - MuseBarControl: Enhancing Fine-Grained Control in Symbolic Music Generation through Pre-Training and Counterfactual Loss [51.85076222868963]
制御信号と対応する音楽トークンを直接リンクする事前学習タスクを導入する。
次に、生成した音楽と制御プロンプトとの整合性を向上する新たな対実的損失を実現する。
論文 参考訳(メタデータ) (2024-07-05T08:08:22Z) - An Autoethnographic Exploration of XAI in Algorithmic Composition [7.775986202112564]
本稿では,アイルランド音楽で学習した潜在次元の解釈可能な測度VeE生成音楽XAIモデルを用いた自己エスノグラフィー研究を紹介する。
音楽作成ワークフローの探索的性質は、生成モデル自体の特徴ではなく、トレーニングデータセットの音楽的特徴を前提としていることが示唆されている。
論文 参考訳(メタデータ) (2023-08-11T12:03:17Z) - Adoption of AI Technology in the Music Mixing Workflow: An Investigation [0.0]
本研究は、音楽の混合におけるAIの現状と、異なるユーザグループによる採用について検討する。
我々の研究結果によると、AIミキシングツールはプロセスを簡単にするが、プロアンジェは正確な制御とカスタマイズのオプションを求める。
この研究は、異なるユーザーグループのための効果的なAI混合ツールを設計するための戦略を提供し、今後の方向性を概説している。
論文 参考訳(メタデータ) (2023-04-06T22:47:59Z) - AI Song Contest: Human-AI Co-Creation in Songwriting [8.399688944263843]
音楽/開発者チーム13チーム,合計61人のユーザが,AIで楽曲を共同制作する上で必要なものについて報告する。
これらの課題のいくつかを克服するために、AIの既存の特徴をどのように活用し、再利用したかを示します。
発見は、より分解可能で、操縦可能で、解釈可能で、適応的な、機械学習による音楽インターフェースを設計する必要があることを反映している。
論文 参考訳(メタデータ) (2020-10-12T01:27:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。