論文の概要: An Autoethnographic Exploration of XAI in Algorithmic Composition
- arxiv url: http://arxiv.org/abs/2308.06089v1
- Date: Fri, 11 Aug 2023 12:03:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-14 14:17:32.627298
- Title: An Autoethnographic Exploration of XAI in Algorithmic Composition
- Title(参考訳): アルゴリズム合成におけるXAIのオートエスノグラフィー探索
- Authors: Ashley Noel-Hirst and Nick Bryan-Kinns
- Abstract要約: 本稿では,アイルランド音楽で学習した潜在次元の解釈可能な測度VeE生成音楽XAIモデルを用いた自己エスノグラフィー研究を紹介する。
音楽作成ワークフローの探索的性質は、生成モデル自体の特徴ではなく、トレーニングデータセットの音楽的特徴を前提としていることが示唆されている。
- 参考スコア(独自算出の注目度): 7.775986202112564
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine Learning models are capable of generating complex music across a
range of genres from folk to classical music. However, current generative music
AI models are typically difficult to understand and control in meaningful ways.
Whilst research has started to explore how explainable AI (XAI) generative
models might be created for music, no generative XAI models have been studied
in music making practice. This paper introduces an autoethnographic study of
the use of the MeasureVAE generative music XAI model with interpretable latent
dimensions trained on Irish folk music. Findings suggest that the exploratory
nature of the music-making workflow foregrounds musical features of the
training dataset rather than features of the generative model itself. The
appropriation of an XAI model within an iterative workflow highlights the
potential of XAI models to form part of a richer and more complex workflow than
they were initially designed for.
- Abstract(参考訳): 機械学習モデルは、民族音楽から古典音楽まで様々なジャンルの複雑な音楽を生成することができる。
しかし、現在の生成音楽AIモデルは一般的に意味のある方法で理解し制御することが困難である。
音楽のための説明可能なAI(XAI)生成モデルの作成方法について研究が始まっているが、音楽制作の実践において、生成可能なXAIモデルは研究されていない。
本稿では,アイルランドの民謡に習熟した解釈可能な潜伏次元を持つ測度VAE生成音楽XAIモデルを用いた自己エスノグラフィー研究を紹介する。
音楽作成ワークフローの探索的性質は、生成モデル自体の特徴ではなく、トレーニングデータセットの音楽的特徴を基礎にしていることを示している。
反復ワークフローにおけるXAIモデルの適用は、当初設計されていたよりリッチで複雑なワークフローの一部を形成するためのXAIモデルの可能性を強調します。
関連論文リスト
- Prevailing Research Areas for Music AI in the Era of Foundation Models [8.067636023395236]
過去数年間、生成的音楽AIアプリケーションが急増している。
音楽データセットの現状とその限界について論じる。
複数のモダリティへの拡張とアーティストのワークフローとの統合に向けて,これらの生成モデルの応用を強調した。
論文 参考訳(メタデータ) (2024-09-14T09:06:43Z) - Foundation Models for Music: A Survey [77.77088584651268]
ファンデーションモデル(FM)は音楽を含む様々な分野に大きな影響を与えている。
本総説では,音楽の事前学習モデルと基礎モデルについて概観する。
論文 参考訳(メタデータ) (2024-08-26T15:13:14Z) - Deep Generative Models in Robotics: A Survey on Learning from Multimodal Demonstrations [52.11801730860999]
近年、ロボット学習コミュニティは、大規模なデータセットの複雑さを捉えるために、深層生成モデルを使うことへの関心が高まっている。
本稿では,エネルギーベースモデル,拡散モデル,アクションバリューマップ,生成的敵ネットワークなど,コミュニティが探求してきたさまざまなモデルについて述べる。
また,情報生成から軌道生成,コスト学習に至るまで,深層生成モデルを用いた様々なアプリケーションについて述べる。
論文 参考訳(メタデータ) (2024-08-08T11:34:31Z) - Reducing Barriers to the Use of Marginalised Music Genres in AI [7.140590440016289]
このプロジェクトの目的は、AIモデルで疎外された音楽のジャンルを使用する際の障壁を減らすことに関連する、eXplainable AI(XAI)の課題と機会を探ることである。
特定されたXAIの機会には、AIモデルの透明性とコントロールの改善、AIモデルの倫理とバイアスの説明、バイアスを減らすために小さなデータセットで大規模モデルの微調整、AIモデルによるスタイル移行の機会の説明などが含まれる。
私たちは現在、グローバルなInternational Responsible AI Musicコミュニティをまとめて、私たちのネットワークへの参加を招待するために、このプロジェクトを構築しています。
論文 参考訳(メタデータ) (2024-07-18T12:10:04Z) - A Survey of Music Generation in the Context of Interaction [3.6522809408725223]
機械学習は、メロディーとポリフォニックの両方の曲の作曲と生成に成功している。
これらのモデルのほとんどは、ライブインタラクションによる人間と機械の共創には適していない。
論文 参考訳(メタデータ) (2024-02-23T12:41:44Z) - StemGen: A music generation model that listens [9.489938613869864]
音楽の文脈に耳を傾けたり反応したりできる音楽生成モデルを作成するための代替パラダイムを提案する。
本稿では,非自己回帰型トランスフォーマーモデルアーキテクチャを用いて,そのようなモデルを構築する方法について述べる。
得られたモデルは、最先端のテキスト条件付きモデルの音質に到達し、その文脈と強い音楽的コヒーレンスを示す。
論文 参考訳(メタデータ) (2023-12-14T08:09:20Z) - Exploring Variational Auto-Encoder Architectures, Configurations, and
Datasets for Generative Music Explainable AI [7.391173255888337]
音楽と芸術のための生成AIモデルは、ますます複雑で理解しづらい。
生成AIモデルをより理解しやすいものにするためのアプローチの1つは、生成AIモデルに少数の意味的に意味のある属性を課すことである。
本稿では,変分自動エンコーダモデル(MeasureVAEとAdversarialVAE)の異なる組み合わせが音楽生成性能に与える影響について,系統的な検討を行った。
論文 参考訳(メタデータ) (2023-11-14T17:27:30Z) - Simple and Controllable Music Generation [94.61958781346176]
MusicGenは単一の言語モデル(LM)であり、圧縮された離散的な音楽表現、すなわちトークンの複数のストリームで動作する。
以前の作業とは異なり、MusicGenはシングルステージのトランスフォーマーLMと効率的なトークンインターリービングパターンで構成されている。
論文 参考訳(メタデータ) (2023-06-08T15:31:05Z) - Exploring the Efficacy of Pre-trained Checkpoints in Text-to-Music
Generation Task [86.72661027591394]
テキスト記述から完全で意味論的に一貫したシンボリック音楽の楽譜を生成する。
テキスト・音楽生成タスクにおける自然言語処理のための公開チェックポイントの有効性について検討する。
実験結果から, BLEUスコアと編集距離の類似性において, 事前学習によるチェックポイントの使用による改善が統計的に有意であることが示唆された。
論文 参考訳(メタデータ) (2022-11-21T07:19:17Z) - Incorporating Music Knowledge in Continual Dataset Augmentation for
Music Generation [69.06413031969674]
Aug-Genは、リソース制約のあるドメインでトレーニングされた任意の音楽生成システムに対するデータセット拡張の方法である。
我々は、Aug-Gen をトランスフォーマーベースのコラール生成に J.S. Bach のスタイルで適用し、これによりより長いトレーニングが可能となり、より優れた生成出力が得られることを示す。
論文 参考訳(メタデータ) (2020-06-23T21:06:15Z) - RL-Duet: Online Music Accompaniment Generation Using Deep Reinforcement
Learning [69.20460466735852]
本稿では,オンライン伴奏生成のための深層強化学習アルゴリズムを提案する。
提案アルゴリズムは人体に応答し,メロディック,ハーモニック,多種多様な機械部品を生成する。
論文 参考訳(メタデータ) (2020-02-08T03:53:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。