論文の概要: Exploring XAI for the Arts: Explaining Latent Space in Generative Music
- arxiv url: http://arxiv.org/abs/2308.05496v1
- Date: Thu, 10 Aug 2023 10:59:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-11 12:50:07.030911
- Title: Exploring XAI for the Arts: Explaining Latent Space in Generative Music
- Title(参考訳): xai for the arts: 生成音楽における潜在空間の説明
- Authors: Nick Bryan-Kinns, Berker Banar, Corey Ford, Courtney N. Reed, Yixiao
Zhang, Simon Colton, Jack Armitage
- Abstract要約: 音楽生成のための潜在変数モデルをより説明しやすいものにする方法を示す。
潜在空間正則化を用いて、潜在空間の特定の次元を有意義な音楽属性にマッピングする。
また、潜時空間における音楽的属性の可視化を行い、潜時空間次元の変化の影響を理解し予測する。
- 参考スコア(独自算出の注目度): 5.91328657300926
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainable AI has the potential to support more interactive and fluid
co-creative AI systems which can creatively collaborate with people. To do
this, creative AI models need to be amenable to debugging by offering
eXplainable AI (XAI) features which are inspectable, understandable, and
modifiable. However, currently there is very little XAI for the arts. In this
work, we demonstrate how a latent variable model for music generation can be
made more explainable; specifically we extend MeasureVAE which generates
measures of music. We increase the explainability of the model by: i) using
latent space regularisation to force some specific dimensions of the latent
space to map to meaningful musical attributes, ii) providing a user interface
feedback loop to allow people to adjust dimensions of the latent space and
observe the results of these changes in real-time, iii) providing a
visualisation of the musical attributes in the latent space to help people
understand and predict the effect of changes to latent space dimensions. We
suggest that in doing so we bridge the gap between the latent space and the
generated musical outcomes in a meaningful way which makes the model and its
outputs more explainable and more debuggable.
- Abstract(参考訳): 説明可能なAIは、よりインタラクティブで流動的な共創造的なAIシステムをサポートする可能性がある。
これを実現するには、検査可能、理解可能、変更可能なeXplainable AI(XAI)機能を提供することで、クリエイティブなAIモデルをデバッグ可能にする必要がある。
しかし、現在では芸術のXAIはごくわずかである。
本研究では,音楽生成のための潜伏変数モデルについて,より説明しやすくする方法を実証する。
我々は、モデルの説明可能性を高める。
一 潜時空間規則化を用いて、潜時空間の特定次元を有意義な音楽属性にマッピングさせる。
二 潜在空間の寸法を調整し、これらの変化の結果をリアルタイムで観察することができるユーザインタフェースフィードバックループを提供すること。
三 潜在空間における音楽的属性の可視化を提供することにより、潜在空間寸法の変化が与える影響の理解及び予測を助けること。
そこで我々は、潜在空間と生成された音楽結果とのギャップを意味のある方法で橋渡しし、モデルとその出力をより説明しやすくデバッグしやすくすることを提案する。
関連論文リスト
- Social-Transmotion: Promptable Human Trajectory Prediction [70.59399670794171]
ソーシャルトランスモーション(Social-Transmotion)は、トランスフォーマーのパワーを利用して、多種多様な視覚的手がかりを扱う汎用モデルである。
提案手法は,JTA,JRDB,道路交通の歩行者・自転車,ETH-UCYなど,複数のデータセットで検証されている。
論文 参考訳(メタデータ) (2023-12-26T18:56:49Z) - Exploring Variational Auto-Encoder Architectures, Configurations, and
Datasets for Generative Music Explainable AI [7.391173255888337]
音楽と芸術のための生成AIモデルは、ますます複雑で理解しづらい。
生成AIモデルをより理解しやすいものにするためのアプローチの1つは、生成AIモデルに少数の意味的に意味のある属性を課すことである。
本稿では,変分自動エンコーダモデル(MeasureVAEとAdversarialVAE)の異なる組み合わせが音楽生成性能に与える影響について,系統的な検討を行った。
論文 参考訳(メタデータ) (2023-11-14T17:27:30Z) - Beyond Reality: The Pivotal Role of Generative AI in the Metaverse [98.1561456565877]
本稿では、生成型AI技術がMetaverseをどう形成しているかを包括的に調査する。
我々は、AI生成文字による会話インタフェースを強化しているChatGPTやGPT-3といったテキスト生成モデルの応用を探求する。
また、現実的な仮想オブジェクトを作成する上で、Point-EやLumimithmicのような3Dモデル生成技術の可能性についても検討する。
論文 参考訳(メタデータ) (2023-07-28T05:44:20Z) - Visual Affordance Prediction for Guiding Robot Exploration [56.17795036091848]
我々は,ロボット探索を導くための視覚能力の学習手法を開発した。
VQ-VAEの潜伏埋め込み空間における条件分布の学習にはTransformerベースのモデルを用いる。
本稿では,ロボット操作における視覚的目標条件付きポリシー学習において,目標サンプリング分布として機能することで探索を導くために,トレーニングされた余裕モデルをどのように利用できるかを示す。
論文 参考訳(メタデータ) (2023-05-28T17:53:09Z) - ArK: Augmented Reality with Knowledge Interactive Emergent Ability [115.72679420999535]
基礎モデルから新しいドメインへの知識記憶の伝達を学習する無限エージェントを開発する。
私たちのアプローチの核心は、Augmented Reality with Knowledge Inference Interaction (ArK)と呼ばれる新しいメカニズムである。
我々のArKアプローチは,大規模な基礎モデルと組み合わせることで,生成された2D/3Dシーンの品質を大幅に向上することを示す。
論文 参考訳(メタデータ) (2023-05-01T17:57:01Z) - Spatial Steerability of GANs via Self-Supervision from Discriminator [123.27117057804732]
本稿では,GANの空間的ステアビリティを向上させるための自己教師型アプローチを提案する。
具体的には、空間帰納バイアスとして生成モデルの中間層に符号化されるランダムなガウス熱マップを設計する。
推論中、ユーザは直感的に空間のヒートマップと対話し、シーンのレイアウトを調整したり、移動したり、オブジェクトを削除したりすることで、出力画像を編集することができる。
論文 参考訳(メタデータ) (2023-01-20T07:36:29Z) - Co-creation and ownership for AI radio [1.2839524529089017]
AI音楽生成、主観評価、パーソナライズされたレコメンデーションをブレンドしたコンセプトのカジュアルクリエーターであるArtificial$.!
我々は、Artificial$.!$fmの設計と開発について報告し、プラットフォーム上で生成されたアーティファクトの所有権に関する法的分析を提供する。
論文 参考訳(メタデータ) (2022-06-01T13:35:03Z) - Flat latent manifolds for music improvisation between human and machine [9.571383193449648]
相互即興化が新たな体験につながるような環境では,音楽生成アルゴリズムを人間の音楽家に対抗するものとみなす。
学習モデルでは、潜在空間の定量化により新しい音楽系列を生成する。
そこで我々は,音楽実験を通じて提案手法の実証的証拠を提供し,プロのドラマーと対話的なジャムセッションのためのモデルを展開した。
論文 参考訳(メタデータ) (2022-02-23T09:00:17Z) - AI Song Contest: Human-AI Co-Creation in Songwriting [8.399688944263843]
音楽/開発者チーム13チーム,合計61人のユーザが,AIで楽曲を共同制作する上で必要なものについて報告する。
これらの課題のいくつかを克服するために、AIの既存の特徴をどのように活用し、再利用したかを示します。
発見は、より分解可能で、操縦可能で、解釈可能で、適応的な、機械学習による音楽インターフェースを設計する必要があることを反映している。
論文 参考訳(メタデータ) (2020-10-12T01:27:41Z) - Explainable Active Learning (XAL): An Empirical Study of How Local
Explanations Impact Annotator Experience [76.9910678786031]
本稿では、最近急増している説明可能なAI(XAI)のテクニックをアクティブラーニング環境に導入することにより、説明可能なアクティブラーニング(XAL)の新たなパラダイムを提案する。
本研究は,機械教育のインタフェースとしてのAI説明の利点として,信頼度校正を支援し,リッチな形式の教示フィードバックを可能にすること,モデル判断と認知作業負荷による潜在的な欠点を克服する効果を示す。
論文 参考訳(メタデータ) (2020-01-24T22:52:18Z) - Learning Style-Aware Symbolic Music Representations by Adversarial
Autoencoders [9.923470453197657]
我々は,文脈情報を用いた変動型オートエンコーダを組み込むための,フレキシブルで自然な手段として,逆正則化を活用することに注力する。
第1回音楽Adversarial Autoencoder(MusAE)について紹介する。
我々のモデルは、標準変分オートエンコーダに基づく最先端モデルよりも高い再構成精度を有する。
論文 参考訳(メタデータ) (2020-01-15T18:07:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。