論文の概要: An Autoethnographic Exploration of XAI in Algorithmic Composition
- arxiv url: http://arxiv.org/abs/2308.06089v1
- Date: Fri, 11 Aug 2023 12:03:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-14 14:17:32.627298
- Title: An Autoethnographic Exploration of XAI in Algorithmic Composition
- Title(参考訳): アルゴリズム合成におけるXAIのオートエスノグラフィー探索
- Authors: Ashley Noel-Hirst and Nick Bryan-Kinns
- Abstract要約: 本稿では,アイルランド音楽で学習した潜在次元の解釈可能な測度VeE生成音楽XAIモデルを用いた自己エスノグラフィー研究を紹介する。
音楽作成ワークフローの探索的性質は、生成モデル自体の特徴ではなく、トレーニングデータセットの音楽的特徴を前提としていることが示唆されている。
- 参考スコア(独自算出の注目度): 7.775986202112564
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine Learning models are capable of generating complex music across a
range of genres from folk to classical music. However, current generative music
AI models are typically difficult to understand and control in meaningful ways.
Whilst research has started to explore how explainable AI (XAI) generative
models might be created for music, no generative XAI models have been studied
in music making practice. This paper introduces an autoethnographic study of
the use of the MeasureVAE generative music XAI model with interpretable latent
dimensions trained on Irish folk music. Findings suggest that the exploratory
nature of the music-making workflow foregrounds musical features of the
training dataset rather than features of the generative model itself. The
appropriation of an XAI model within an iterative workflow highlights the
potential of XAI models to form part of a richer and more complex workflow than
they were initially designed for.
- Abstract(参考訳): 機械学習モデルは、民族音楽から古典音楽まで様々なジャンルの複雑な音楽を生成することができる。
しかし、現在の生成音楽AIモデルは一般的に意味のある方法で理解し制御することが困難である。
音楽のための説明可能なAI(XAI)生成モデルの作成方法について研究が始まっているが、音楽制作の実践において、生成可能なXAIモデルは研究されていない。
本稿では,アイルランドの民謡に習熟した解釈可能な潜伏次元を持つ測度VAE生成音楽XAIモデルを用いた自己エスノグラフィー研究を紹介する。
音楽作成ワークフローの探索的性質は、生成モデル自体の特徴ではなく、トレーニングデータセットの音楽的特徴を基礎にしていることを示している。
反復ワークフローにおけるXAIモデルの適用は、当初設計されていたよりリッチで複雑なワークフローの一部を形成するためのXAIモデルの可能性を強調します。
関連論文リスト
- A Survey of Music Generation in the Context of Interaction [3.6522809408725223]
機械学習は、メロディーとポリフォニックの両方の曲の作曲と生成に成功している。
これらのモデルのほとんどは、ライブインタラクションによる人間と機械の共創には適していない。
論文 参考訳(メタデータ) (2024-02-23T12:41:44Z) - StemGen: A music generation model that listens [9.489938613869864]
音楽の文脈に耳を傾けたり反応したりできる音楽生成モデルを作成するための代替パラダイムを提案する。
本稿では,非自己回帰型トランスフォーマーモデルアーキテクチャを用いて,そのようなモデルを構築する方法について述べる。
得られたモデルは、最先端のテキスト条件付きモデルの音質に到達し、その文脈と強い音楽的コヒーレンスを示す。
論文 参考訳(メタデータ) (2023-12-14T08:09:20Z) - Exploring Variational Auto-Encoder Architectures, Configurations, and
Datasets for Generative Music Explainable AI [7.391173255888337]
音楽と芸術のための生成AIモデルは、ますます複雑で理解しづらい。
生成AIモデルをより理解しやすいものにするためのアプローチの1つは、生成AIモデルに少数の意味的に意味のある属性を課すことである。
本稿では,変分自動エンコーダモデル(MeasureVAEとAdversarialVAE)の異なる組み合わせが音楽生成性能に与える影響について,系統的な検討を行った。
論文 参考訳(メタデータ) (2023-11-14T17:27:30Z) - Deep Generative Models of Music Expectation [2.900810893770134]
本稿では, 拡散モデルを用いて, 最新の深層確率生成モデルを用いて, 音楽入力シーケンスの近似確率を計算することを提案する。
従来の研究とは異なり、ディープニューラルネットワークによってパラメータ化されたこのような生成モデルは、トレーニングセット自体から直接、複雑な非線形特徴を学習することができる。
本研究では,事前学習した拡散モデルが,被測定対象の「ライキング」評価と負の二次的関係を示す音楽的前提値をもたらすことを示す。
論文 参考訳(メタデータ) (2023-10-05T12:25:39Z) - Simple and Controllable Music Generation [94.61958781346176]
MusicGenは単一の言語モデル(LM)であり、圧縮された離散的な音楽表現、すなわちトークンの複数のストリームで動作する。
以前の作業とは異なり、MusicGenはシングルステージのトランスフォーマーLMと効率的なトークンインターリービングパターンで構成されている。
論文 参考訳(メタデータ) (2023-06-08T15:31:05Z) - Exploring the Efficacy of Pre-trained Checkpoints in Text-to-Music
Generation Task [86.72661027591394]
テキスト記述から完全で意味論的に一貫したシンボリック音楽の楽譜を生成する。
テキスト・音楽生成タスクにおける自然言語処理のための公開チェックポイントの有効性について検討する。
実験結果から, BLEUスコアと編集距離の類似性において, 事前学習によるチェックポイントの使用による改善が統計的に有意であることが示唆された。
論文 参考訳(メタデータ) (2022-11-21T07:19:17Z) - Investigating Explainability of Generative AI for Code through
Scenario-based Design [44.44517254181818]
生成AI(GenAI)技術は成熟し、ソフトウェア工学のようなアプリケーションドメインに適用されています。
私たちは43人のソフトウェアエンジニアと9つのワークショップを開催しました。そこでは、最先端のジェネレーティブAIモデルの実例を使って、ユーザの説明可能性のニーズを導き出しました。
我々の研究は、GenAIのコードに対する説明可能性の必要性を探求し、新しいドメインにおけるXAIの技術開発を人間中心のアプローチがいかに促進するかを実証する。
論文 参考訳(メタデータ) (2022-02-10T08:52:39Z) - Can GAN originate new electronic dance music genres? -- Generating novel
rhythm patterns using GAN with Genre Ambiguity Loss [0.0]
本稿では,音楽生成,特に電子舞踊音楽のリズムパターンに着目し,深層学習を用いて新しいリズムを生成できるかを論じる。
我々は、GAN(Generative Adversarial Networks)のフレームワークを拡張し、データセット固有の分布から分岐することを奨励する。
提案したGANは、音楽リズムのように聞こえるリズムパターンを生成できるが、トレーニングデータセットのどのジャンルにも属さないことを示す。
論文 参考訳(メタデータ) (2020-11-25T23:22:12Z) - Incorporating Music Knowledge in Continual Dataset Augmentation for
Music Generation [69.06413031969674]
Aug-Genは、リソース制約のあるドメインでトレーニングされた任意の音楽生成システムに対するデータセット拡張の方法である。
我々は、Aug-Gen をトランスフォーマーベースのコラール生成に J.S. Bach のスタイルで適用し、これによりより長いトレーニングが可能となり、より優れた生成出力が得られることを示す。
論文 参考訳(メタデータ) (2020-06-23T21:06:15Z) - Reverse Engineering Configurations of Neural Text Generation Models [86.9479386959155]
モデル選択の結果、機械が生成したテキストに現れるアーティファクトの研究は、新しい研究領域である。
我々は、モデリング選択が検出可能なアーティファクトを生成テキストに残すかどうかを確認するために、広範囲な診断テストを実行する。
我々の重要な発見は、厳密な実験によって裏付けられ、そのような成果物が存在することと、生成されたテキストのみを観察することで異なるモデリング選択を推測できることである。
論文 参考訳(メタデータ) (2020-04-13T21:02:44Z) - RL-Duet: Online Music Accompaniment Generation Using Deep Reinforcement
Learning [69.20460466735852]
本稿では,オンライン伴奏生成のための深層強化学習アルゴリズムを提案する。
提案アルゴリズムは人体に応答し,メロディック,ハーモニック,多種多様な機械部品を生成する。
論文 参考訳(メタデータ) (2020-02-08T03:53:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。