論文の概要: LoopLens: Supporting Search as Creation in Loop-Based Music Composition
- arxiv url: http://arxiv.org/abs/2603.08571v1
- Date: Mon, 09 Mar 2026 16:27:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:16.412859
- Title: LoopLens: Supporting Search as Creation in Loop-Based Music Composition
- Title(参考訳): LoopLens: ループベースの音楽合成における検索作成支援
- Authors: Sheng Long, Atsuya Kobayashi, Kei Tateno,
- Abstract要約: 本稿ではループベース音楽合成研究のLoopLensについて紹介する。
LoopLensはオーディオ検索結果を視覚化して、クリエイティブな鍛造と組み立てをサポートする。
- 参考スコア(独自算出の注目度): 5.658137989724373
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Creativity support tools (CSTs) typically frame search as information retrieval, yet in practices like electronic dance music production, search serves as a creative medium for collage-style composition. To address this gap, we present LoopLens, a research probe for loop-based music composition that visualizes audio search results to support creative foraging and assembling. We evaluated LoopLens in a within-subject user study with 16 participants of diverse musical domain expertise, performing both open-ended (divergent) and goal-directed (convergent) tasks. Our results reveal a clear behavioral split: participants with domain expertise leveraged multimodal cues to quickly exploit a narrow set of loops, while those without domain knowledge relied primarily on audio impressions, engaging in broad exploration often constrained by limited musical vocabulary for query formulation. This behavioral dichotomy provides a new lens for understanding the balance between exploration and exploitation in creative search and offers clear design implications for supporting vocabulary-independent discovery in future CSTs.
- Abstract(参考訳): クリエイティビティ支援ツール(CST)は、典型的には情報検索としてフレーム検索を行うが、電子ダンス音楽制作のような実践においては、コラージュスタイルの作曲のための創造的な媒体として機能する。
このギャップに対処するために、ループベースの音楽合成の研究プローブであるLoopLensを紹介した。
様々な音楽分野の専門知識を持つ16人の被験者を対象に,LoopLensを対象内ユーザスタディで評価し,オープンエンド(ディバージェント)タスクとゴール指向(コンバージェント)タスクの両方を実行した。
ドメイン知識を持つ参加者は、狭いループの集合を迅速に活用するためにマルチモーダル・キューを利用しており、一方、ドメイン知識を持たない者は、主に音声印象に依存し、クエリの定式化のために限定された音楽語彙によって制約される広い探索に従事している。
この行動二分法は、創造的な探索における探索と搾取のバランスを理解するための新しいレンズを提供し、将来のCSTにおける語彙に依存しない発見を支援するための明確な設計上の意味を提供する。
関連論文リスト
- BASS: Benchmarking Audio LMs for Musical Structure and Semantic Reasoning [74.84822135705025]
本稿では,音声言語モデルにおける音楽理解と推論の評価を目的としたBASSを紹介する。
BASSは12のタスクにまたがる2658の質問、1993年の独特な曲、138時間以上の音楽をカバーしている。
我々は14のオープンソースおよびフロンティアマルチモーダルLMを評価し、最先端モデルでさえ高いレベルの推論タスクに苦しむことを発見した。
論文 参考訳(メタデータ) (2026-02-03T23:40:31Z) - Leveraging Whisper Embeddings for Audio-based Lyrics Matching [35.54408523154097]
WEALYは、Whisperデコーダの埋め込みを活用して、完全に再現可能なパイプラインである。
We demonstrate that WEALY achieve a performance to the state-of-the-art method that without robustness。
本研究は,今後の研究に信頼性の高いベンチマークを提供し,音楽情報検索タスクにおける音声技術の可能性を裏付けるものである。
論文 参考訳(メタデータ) (2025-10-09T13:03:34Z) - Discovering "Words" in Music: Unsupervised Learning of Compositional Sparse Code for Symbolic Music [50.87225308217594]
本稿では,記号的音楽データから「音楽単語」と呼ばれる繰り返しパターンを識別する教師なし機械学習アルゴリズムを提案する。
本稿では,音楽単語発見の課題を統計的最適化問題として定式化し,二段階予測最大化(EM)に基づく学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-09-29T11:10:57Z) - Music's Multimodal Complexity in AVQA: Why We Need More than General Multimodal LLMs [24.215093830868813]
Music Audio-Visual Question Answeringは、連続的で層密なオーディオ視覚コンテンツでユニークな課題を提示する。
本稿では,専門的な入力処理,専用の時空間設計を取り入れたアーキテクチャ,音楽固有のモデリング戦略が,この分野の成功に不可欠であることを示す。
論文 参考訳(メタデータ) (2025-05-27T02:31:24Z) - Semantic-Aware Interpretable Multimodal Music Auto-Tagging [1.8541450825478398]
本稿では,音楽に有意義なマルチモーダル特徴群を利用した自動タグ付けのための解釈可能なフレームワークを提案する。
提案手法は,意思決定プロセスのより深い理解を提供しながら,競争力のあるタグ付け性能を実現する。
論文 参考訳(メタデータ) (2025-05-22T19:15:48Z) - Query-centric Audio-Visual Cognition Network for Moment Retrieval, Segmentation and Step-Captioning [56.873534081386]
ビデオ検索、モーメント検索、モーメントセグメンテーション、ステップキャプションを含む新しいトピックHIRESTが紹介されている。
3つのタスクに対して信頼性の高いマルチモーダル表現を構築するために,クエリ中心の音声視覚認知ネットワークを提案する。
これにより、ユーザが優先するコンテンツを認識し、3つのタスクに対してクエリ中心の音声視覚表現を実現することができる。
論文 参考訳(メタデータ) (2024-12-18T06:43:06Z) - ComposerX: Multi-Agent Symbolic Music Composition with LLMs [51.68908082829048]
音楽の構成は、長い依存と調和の制約で情報を理解し、生成する能力を必要とする複雑なタスクである。
現在のLLMは、このタスクで簡単に失敗し、In-Context-LearningやChain-of-Thoughtsといったモダンな技術が組み込まれても、不適切な曲を生成する。
エージェントベースのシンボリック音楽生成フレームワークであるComposerXを提案する。
論文 参考訳(メタデータ) (2024-04-28T06:17:42Z) - ALCAP: Alignment-Augmented Music Captioner [34.85003676798762]
コントラスト学習により,音声と歌詞のマルチモーダルアライメントを学習する手法を提案する。
これは、音声と歌詞のシナジーを認識し、強調するだけでなく、モデルがより深いモーダルなコヒーレンスを達成するための道を開く。
論文 参考訳(メタデータ) (2022-12-21T10:20:54Z) - Multi-Modal Music Information Retrieval: Augmenting Audio-Analysis with
Visual Computing for Improved Music Video Analysis [91.3755431537592]
この論文は、音声分析とコンピュータビジョンを組み合わせて、マルチモーダルの観点から音楽情報検索(MIR)タスクにアプローチする。
本研究の主な仮説は、ジャンルやテーマなど特定の表現的カテゴリーを視覚的内容のみに基づいて認識できるという観察に基づいている。
実験は、3つのMIRタスクに対して行われ、アーティスト識別、音楽ジェネア分類、クロスジェネア分類を行う。
論文 参考訳(メタデータ) (2020-02-01T17:57:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。