論文の概要: Evaluating Human-AI Interaction via Usability, User Experience and Acceptance Measures for MMM-C: A Creative AI System for Music Composition
- arxiv url: http://arxiv.org/abs/2504.14071v1
- Date: Fri, 18 Apr 2025 20:41:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-30 05:24:57.351136
- Title: Evaluating Human-AI Interaction via Usability, User Experience and Acceptance Measures for MMM-C: A Creative AI System for Music Composition
- Title(参考訳): MMM-Cのユーザビリティ・ユーザエクスペリエンス・アクセプタンスによる人間とAIのインタラクション評価:音楽合成のための創造的AIシステム
- Authors: Renaud Bougueng Tchemeube, Jeff Ens, Cale Plut, Philippe Pasquier, Maryam Safi, Yvan Grabit, Jean-Baptiste Rolland,
- Abstract要約: 本稿では,音楽作曲家のための共創型AIツールとして,MMM(Multi-Track Music Machine)のユーザ利用に関する徹底的な評価について報告する。
これを実現するために、我々は、Steinbergの人気のDigital Audio Workstation(DAW)であるCubaseにMMMを統合する。
本研究は,ユーザビリティ,ユーザエクスペリエンス,およびシステムの技術受容度を計測する3部構成の混合手法として,方法論の組立に貢献する。
- 参考スコア(独自算出の注目度): 4.152843247686306
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the rise of artificial intelligence (AI), there has been increasing interest in human-AI co-creation in a variety of artistic domains including music as AI-driven systems are frequently able to generate human-competitive artifacts. Now, the implications of such systems for musical practice are being investigated. We report on a thorough evaluation of the user adoption of the Multi-Track Music Machine (MMM) as a co-creative AI tool for music composers. To do this, we integrate MMM into Cubase, a popular Digital Audio Workstation (DAW) by Steinberg, by producing a "1-parameter" plugin interface named MMM-Cubase (MMM-C), which enables human-AI co-composition. We contribute a methodological assemblage as a 3-part mixed method study measuring usability, user experience and technology acceptance of the system across two groups of expert-level composers: hobbyists and professionals. Results show positive usability and acceptance scores. Users report experiences of novelty, surprise and ease of use from using the system, and limitations on controllability and predictability of the interface when generating music. Findings indicate no significant difference between the two user groups.
- Abstract(参考訳): 人工知能(AI)の台頭に伴い、音楽を含むさまざまな芸術領域における人間とAIの共創への関心が高まっている。
現在,音楽実践におけるこのようなシステムの影響について検討している。
本稿では,音楽作曲家のための共創型AIツールとして,MMM(Multi-Track Music Machine)のユーザ利用に関する徹底的な評価について報告する。
そこで我々は,MMM-Cubase (MMM-C) という名前のプラグインインタフェースを製作し,人間とAIの共用を可能にすることで,デジタルオーディオワークステーション(DAW)であるCubaseとMMMを統合した。
本研究は, ホビイストとプロの2つのグループにまたがって, システムのユーザビリティ, ユーザエクスペリエンス, および技術受容を測定する3部構成の混合手法として, 方法論の集合体として貢献する。
その結果,肯定的なユーザビリティと受け入れスコアが得られた。
ユーザは、システムの使用による新規性、サプライズ、使いやすさ、および音楽生成時のインターフェースの制御可能性および予測可能性の制限について報告する。
調査の結果,2つのユーザグループ間に有意な差は認められなかった。
関連論文リスト
- ESPnet-SDS: Unified Toolkit and Demo for Spoken Dialogue Systems [57.806797579986075]
本稿では,各種ケースドおよびE2E音声対話システムのための統一Webインターフェースを構築するための,オープンソースのユーザフレンドリなツールキットを提案する。
評価指標を用いて,音声対話システムおよびE2E音声対話システムと人間の会話データセットをプロキシとして比較した。
我々の分析は、このツールキットが研究者に、異なる技術の比較と対比を行なわせることを実証している。
論文 参考訳(メタデータ) (2025-03-11T15:24:02Z) - ReaLJam: Real-Time Human-AI Music Jamming with Reinforcement Learning-Tuned Transformers [53.63950017886757]
ReaLJamは、人間とトランスフォーマーをベースとしたAIエージェントが強化学習でトレーニングしたライブ音楽ジャミングセッションのためのインタフェースとプロトコルである。
エージェントが継続的にパフォーマンスを予測し,ユーザに対してその計画を視覚的に伝達する,予測という概念を用いてリアルタイムインタラクションを可能にする。
論文 参考訳(メタデータ) (2025-02-28T17:42:58Z) - Musical Agent Systems: MACAT and MACataRT [6.349140286855134]
我々は,人間ミュージシャンとAIの対話的音楽制作を促進するために,MACATとMACataRTという2つの異なる音楽エージェントシステムを紹介した。
MaCATはエージェント主導のパフォーマンスに最適化されており、リアルタイム合成と自己リスニングを利用して出力を自律的に形作る。
MacataRTは、音声モザイクとシーケンスベースの学習を通じて協調的な即興性を実現するフレキシブルな環境を提供する。
論文 参考訳(メタデータ) (2025-01-19T22:04:09Z) - SoundSignature: What Type of Music Do You Like? [0.0]
SoundSignatureは、ユーザーのお気に入りの曲を分析するためにカスタムのOpenAIアシスタントを統合する音楽アプリケーションである。
このシステムには最先端の音楽情報検索(MIR)Pythonパッケージが組み込まれており、抽出された音響的・音楽的特徴と、アシスタントのアーティストやバンドに関する広範な知識を組み合わせている。
論文 参考訳(メタデータ) (2024-10-04T12:40:45Z) - MERGE -- A Bimodal Dataset for Static Music Emotion Recognition [0.5339846068056558]
本稿では,半自動手法を用いて作成した3つの新しい音声・歌詞・バイモーダル音楽感情認識研究データセットであるMERGEを提案する。
得られた結果は、提案したデータセットの生存可能性を確認し、ディープニューラルネットワークを用いたバイモーダル分類において、79.21%のF1スコアを達成した。
論文 参考訳(メタデータ) (2024-07-08T16:01:04Z) - A-Bench: Are LMMs Masters at Evaluating AI-generated Images? [78.3699767628502]
A-Benchは、マルチモーダルモデル(LMM)がAI生成画像(AIGI)を評価するマスターであるかどうかを診断するために設計されたベンチマークである。
最終的に、16のテキスト・ツー・イメージモデルの2,864のAIGIがサンプリングされ、それぞれが人間の専門家によって注釈付けされた質問回答と組み合わせられ、18のLMMでテストされる。
論文 参考訳(メタデータ) (2024-06-05T08:55:02Z) - MusicAgent: An AI Agent for Music Understanding and Generation with
Large Language Models [54.55063772090821]
MusicAgentは、多数の音楽関連ツールと、ユーザの要求に対処するための自律ワークフローを統合している。
このシステムの第一の目的は、AI音楽ツールの複雑さからユーザーを解放し、クリエイティブな側面に集中できるようにすることである。
論文 参考訳(メタデータ) (2023-10-18T13:31:10Z) - MARBLE: Music Audio Representation Benchmark for Universal Evaluation [79.25065218663458]
我々は,UniversaL Evaluation(MARBLE)のための音楽音響表現ベンチマークを紹介する。
音響、パフォーマンス、スコア、ハイレベルな記述を含む4つの階層レベルを持つ包括的分類を定義することで、様々な音楽情報検索(MIR)タスクのベンチマークを提供することを目的としている。
次に、8つの公開データセット上の14のタスクに基づいて統一されたプロトコルを構築し、ベースラインとして音楽録音で開発されたすべてのオープンソース事前学習モデルの表現を公平かつ標準的に評価する。
論文 参考訳(メタデータ) (2023-06-18T12:56:46Z) - Adoption of AI Technology in the Music Mixing Workflow: An Investigation [0.0]
本研究は、音楽の混合におけるAIの現状と、異なるユーザグループによる採用について検討する。
我々の研究結果によると、AIミキシングツールはプロセスを簡単にするが、プロアンジェは正確な制御とカスタマイズのオプションを求める。
この研究は、異なるユーザーグループのための効果的なAI混合ツールを設計するための戦略を提供し、今後の方向性を概説している。
論文 参考訳(メタデータ) (2023-04-06T22:47:59Z) - AI-Based Affective Music Generation Systems: A Review of Methods, and
Challenges [0.0]
人工知能に基づくアプローチは、感情的な音楽生成システムを作成するのに人気がある。
エンタテインメント、ヘルスケア、センサーを組み込んだインタラクティブシステムデザインは、AIベースの感情的な音楽生成システムが大きな影響を与える可能性がある分野の1つである。
論文 参考訳(メタデータ) (2023-01-10T11:08:39Z) - Families In Wild Multimedia: A Multimodal Database for Recognizing
Kinship [63.27052967981546]
マルチタスク MM キンシップデータセットを初めて公開する。
FIW MMを構築するために,データを自動収集,注釈付け,作成する機構を開発した。
結果は、改善の異なる領域で将来の研究を刺激するエッジケースを強調します。
論文 参考訳(メタデータ) (2020-07-28T22:36:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。