論文の概要: Play Me Something Icy: Practical Challenges, Explainability and the Semantic Gap in Generative AI Music
- arxiv url: http://arxiv.org/abs/2408.07224v1
- Date: Tue, 13 Aug 2024 22:42:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-15 14:35:46.757704
- Title: Play Me Something Icy: Practical Challenges, Explainability and the Semantic Gap in Generative AI Music
- Title(参考訳): Icyをプレイする: ジェネレーティブAI音楽における実践的挑戦、説明可能性、セマンティックギャップ
- Authors: Jesse Allison, Drew Farrar, Treya Nash, Carlos Román, Morgan Weeks, Fiona Xue Ju,
- Abstract要約: この写真は、説明可能なAIの文脈において、テキスト音声およびテキスト音声生成ツールの性質を批判的に考察することを目的としている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This pictorial aims to critically consider the nature of text-to-audio and text-to-music generative tools in the context of explainable AI. As a group of experimental musicians and researchers, we are enthusiastic about the creative potential of these tools and have sought to understand and evaluate them from perspectives of prompt creation, control, usability, understandability, explainability of the AI process, and overall aesthetic effectiveness of the results. One of the challenges we have identified that is not explicitly addressed by these tools is the inherent semantic gap in using text-based tools to describe something as abstract as music. Other gaps include explainability vs. useability, and user control and input vs. the human creative process. The aim of this pictorial is to raise questions for discussion and make a few general suggestions on the kinds of improvements we would like to see in generative AI music tools.
- Abstract(参考訳): この写真は、説明可能なAIの文脈において、テキスト音声およびテキスト音声生成ツールの性質を批判的に考察することを目的としている。
実験的なミュージシャンや研究者のグループとして、これらのツールの創造的なポテンシャルに熱心であり、創造性、制御性、ユーザビリティ、理解可能性、AIプロセスの説明可能性、そしてその結果の全体的な美的有効性の観点から、それらを理解し、評価しようとしてきました。
私たちが認識した課題の一つは、テキストベースのツールを使って音楽のように抽象的なものを記述することにおける意味的なギャップである。
その他のギャップとしては、説明可能性対ユーザビリティ、ユーザコントロールとインプット対人間の創造的プロセスがある。
この写真の目的は、議論のための質問を提起し、生成的AI音楽ツールで見られるような改善について、いくつかの一般的な提案を行うことである。
関連論文リスト
- A Survey of Foundation Models for Music Understanding [60.83532699497597]
この研究は、AI技術と音楽理解の交差に関する初期のレビューの1つである。
音楽理解能力に関して,近年の大規模音楽基盤モデルについて検討,分析,検証を行った。
論文 参考訳(メタデータ) (2024-09-15T03:34:14Z) - Exploring XAI for the Arts: Explaining Latent Space in Generative Music [5.91328657300926]
音楽生成のための潜在変数モデルをより説明しやすいものにする方法を示す。
潜在空間正則化を用いて、潜在空間の特定の次元を有意義な音楽属性にマッピングする。
また、潜時空間における音楽的属性の可視化を行い、潜時空間次元の変化の影響を理解し予測する。
論文 参考訳(メタデータ) (2023-08-10T10:59:24Z) - The Future of AI-Assisted Writing [0.0]
我々は、情報検索レンズ(プル・アンド・プッシュ)を用いて、そのようなツールの比較ユーザスタディを行う。
我々の研究結果によると、ユーザーは執筆におけるAIのシームレスな支援を歓迎している。
ユーザはAI支援の書き込みツールとのコラボレーションも楽しんだが、オーナシップの欠如を感じなかった。
論文 参考訳(メタデータ) (2023-06-29T02:46:45Z) - Art-ificial Intelligence: The Effect of AI Disclosure on Evaluations of Creative Content [0.0]
創造的コンテンツ作成におけるAIの利用に関する情報開示は、そのようなコンテンツの人間による評価に影響を及ぼすことを示す。
我々はこの結果を解釈し、AI生成コンテンツに対する反応が、コンテンツが明らかに「人間」と見なされる場合、負である可能性を示唆する。
論文 参考訳(メタデータ) (2023-03-11T13:54:17Z) - Towards Reconciling Usability and Usefulness of Explainable AI
Methodologies [2.715884199292287]
ブラックボックスAIシステムは、誤った判断を下すと、責任と説明責任の問題を引き起こす可能性がある。
説明可能なAI(XAI)は、開発者とエンドユーザの間の知識ギャップを埋めようとしている。
論文 参考訳(メタデータ) (2023-01-13T01:08:49Z) - Redefining Relationships in Music [55.478320310047785]
私たちは、AIツールが音楽文化を根本的に変えてくれると論じています。
この分野で働く人々は、音楽の実践、消費、意味に対するネガティブな影響を減らすことができる。
論文 参考訳(メタデータ) (2022-12-13T19:44:32Z) - A Survey on Artificial Intelligence for Music Generation: Agents,
Domains and Perspectives [10.349825060515181]
人間がどのように音楽を作曲し、新しいAIシステムがそのようなプロセスを模倣するかを説明する。
AIモデルとアルゴリズムがいかにして音楽を生成するかを理解するために、私たちは、音楽生成プロセスに参加するエージェントを探索、分析、記述する。
論文 参考訳(メタデータ) (2022-10-25T11:54:30Z) - AI Explainability 360: Impact and Design [120.95633114160688]
2019年、私たちはAI Explainability 360(Arya et al. 2020)を開発しました。
本稿では,いくつかのケーススタディ,統計,コミュニティフィードバックを用いて,ツールキットが与える影響について検討する。
また,ツールキットのフレキシブルな設計,使用例,利用者が利用可能な教育資料や資料についても述べる。
論文 参考訳(メタデータ) (2021-09-24T19:17:09Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - The MineRL BASALT Competition on Learning from Human Feedback [58.17897225617566]
MineRL BASALTコンペティションは、この重要な種類の技術の研究を促進することを目的としている。
Minecraftでは、ハードコードされた報酬関数を書くのが難しいと期待する4つのタスクのスイートを設計しています。
これら4つのタスクのそれぞれについて、人間のデモのデータセットを提供するとともに、模擬学習ベースラインを提供する。
論文 参考訳(メタデータ) (2021-07-05T12:18:17Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。