論文の概要: MusGO: A Community-Driven Framework For Assessing Openness in Music-Generative AI
- arxiv url: http://arxiv.org/abs/2507.03599v1
- Date: Fri, 04 Jul 2025 14:12:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:34.795428
- Title: MusGO: A Community-Driven Framework For Assessing Openness in Music-Generative AI
- Title(参考訳): MusGO: 音楽生成AIにおけるオープン性を評価するコミュニティ駆動フレームワーク
- Authors: Roser Batlle-Roca, Laura Ibáñez-Martínez, Xavier Serra, Emilia Gómez, Martín Rocamora,
- Abstract要約: 我々は,音楽生成AIにおけるオープン性の概念を明確にし,その透明で責任ある開発を促進することを目的としている。
我々は16の最先端な生成モデルを評価し、公開調査やコミュニティのコントリビューションに対して完全にオープンなオープンネスリーダーボードを提供する。
- 参考スコア(独自算出の注目度): 13.081104013218834
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Since 2023, generative AI has rapidly advanced in the music domain. Despite significant technological advancements, music-generative models raise critical ethical challenges, including a lack of transparency and accountability, along with risks such as the replication of artists' works, which highlights the importance of fostering openness. With upcoming regulations such as the EU AI Act encouraging open models, many generative models are being released labelled as 'open'. However, the definition of an open model remains widely debated. In this article, we adapt a recently proposed evidence-based framework for assessing openness in LLMs to the music domain. Using feedback from a survey of 110 participants from the Music Information Retrieval (MIR) community, we refine the framework into MusGO (Music-Generative Open AI), which comprises 13 openness categories: 8 essential and 5 desirable. We evaluate 16 state-of-the-art generative models and provide an openness leaderboard that is fully open to public scrutiny and community contributions. Through this work, we aim to clarify the concept of openness in music-generative AI and promote its transparent and responsible development.
- Abstract(参考訳): 2023年以降、生成AIは音楽分野において急速に進歩してきた。
重要な技術的進歩にもかかわらず、音楽生成モデルは、透明性の欠如や説明責任の欠如など重要な倫理的課題を提起し、また、芸術家の作品の複製のようなリスクも浮き彫りにすることの重要性を強調している。
EU AI Actのような今後の規制により、オープンモデルが奨励され、多くの生成モデルが'オープン'とラベル付けされている。
しかし、オープンモデルの定義はいまだに広く議論されている。
本稿では,LLMの楽曲領域への開放性を評価するための,最近提案されたエビデンスに基づくフレームワークを適応する。
The Music Information Retrieval (MIR) コミュニティの110人を対象にした調査から得たフィードバックをもとに,本フレームワークをmusGO (Music-Generative Open AI) に改良した。
我々は16の最先端な生成モデルを評価し、公共の監視やコミュニティへの貢献に完全にオープンなオープンなリーダーボードを提供する。
本研究は,音楽生成AIにおけるオープンネスの概念を明確にし,その透明で責任ある開発を促進することを目的とする。
関連論文リスト
- Opening the Scope of Openness in AI [1.2894076331861155]
AIにおけるオープン性の概念は、これまでオープンソースソフトウェアの定義とコミュニティの実践に強く影響を受けてきました。
我々は、異なる分野におけるオープンネスの基本的なスコープを考えると、議論が広まると論じている。
私たちの研究は、オープンソースソフトウェアを超えたオープンネスの原則と実践を反映して、AIのオープンネスをフレーミングする最近の取り組みに貢献しています。
論文 参考訳(メタデータ) (2025-05-09T23:16:44Z) - Prevailing Research Areas for Music AI in the Era of Foundation Models [8.067636023395236]
過去数年間、生成的音楽AIアプリケーションが急増している。
音楽データセットの現状とその限界について論じる。
複数のモダリティへの拡張とアーティストのワークフローとの統合に向けて,これらの生成モデルの応用を強調した。
論文 参考訳(メタデータ) (2024-09-14T09:06:43Z) - Foundation Models for Music: A Survey [77.77088584651268]
ファンデーションモデル(FM)は音楽を含む様々な分野に大きな影響を与えている。
本総説では,音楽の事前学習モデルと基礎モデルについて概観する。
論文 参考訳(メタデータ) (2024-08-26T15:13:14Z) - The 2024 Foundation Model Transparency Index [54.78174872757794]
ファンデーションモデル透明性指数(FMTI)は2023年10月に、主要なファンデーションモデル開発者の透明性を測定するために設立された。
FMTI 2023は、100の透明性指標で10の主要な基礎モデル開発者を評価した。
私たちは6ヶ月後に追跡調査を行い、同じ100の指標に対して14人の開発者を獲得しました。
FMTI 2023では、公開情報を探しましたが、FMTI 2024では、開発者は100の透明性指標に関するレポートを提出しました。
開発者は平均して100点中58点を獲得し、FMTI 2023よりも21点改善しています。
論文 参考訳(メタデータ) (2024-07-17T18:03:37Z) - Towards a Framework for Openness in Foundation Models: Proceedings from the Columbia Convening on Openness in Artificial Intelligence [18.130525337375985]
本稿では,AIスタックにまたがるオープンネスと闘うためのフレームワークを提案する。
このトピックに関する以前の研究を要約し、オープン性を追求する様々な潜在的理由を分析します。
モデルとシステムレベルで、AIスタックのさまざまな部分でオープン性がどのように変化するのかを概説する。
論文 参考訳(メタデータ) (2024-05-17T20:35:39Z) - Near to Mid-term Risks and Opportunities of Open-Source Generative AI [94.06233419171016]
Generative AIの応用は、科学や医学、教育など、さまざまな分野に革命をもたらすことが期待されている。
こうした地震の影響の可能性は、潜在的なリスクに関する活発な議論を引き起こし、より厳格な規制を要求した。
この規制は、オープンソースのジェネレーティブAIの誕生する分野を危険にさらしている可能性が高い。
論文 参考訳(メタデータ) (2024-04-25T21:14:24Z) - The Model Openness Framework: Promoting Completeness and Openness for Reproducibility, Transparency, and Usability in Artificial Intelligence [0.0]
モデルの完全性とオープン性に基づいて機械学習モデルを評価する3階層分類システムであるモデルオープンネスフレームワーク(MOF)を紹介する。
各MOFクラスに対して、モデル開発ライフサイクルのコード、データ、ドキュメントコンポーネントを定義します。
さらに、モデルオープンネスツール(MOT)は、MOF分類システムに対するモデルのオープン性と完全性を評価するために、ユーザフレンドリーなリファレンス実装を提供する。
論文 参考訳(メタデータ) (2024-03-20T17:47:08Z) - A Comprehensive Survey of AI-Generated Content (AIGC): A History of
Generative AI from GAN to ChatGPT [63.58711128819828]
ChatGPTおよびその他の生成AI(GAI)技術は、人工知能生成コンテンツ(AIGC)のカテゴリに属している。
AIGCの目標は、コンテンツ作成プロセスをより効率的かつアクセスしやすくし、高品質なコンテンツをより高速に生産できるようにすることである。
論文 参考訳(メタデータ) (2023-03-07T20:36:13Z) - A Pathway Towards Responsible AI Generated Content [68.13835802977125]
我々は、AIGCの健全な開発と展開を妨げかねない8つの主要な懸念に焦点を当てている。
これらの懸念には、(1)プライバシー、(2)バイアス、毒性、誤情報、(3)知的財産(IP)、(4)堅牢性、(5)オープンソースと説明、(6)技術の乱用、(7)同意、信用、補償、(8)環境からのリスクが含まれる。
論文 参考訳(メタデータ) (2023-03-02T14:58:40Z) - FATE in AI: Towards Algorithmic Inclusivity and Accessibility [0.0]
AIにおけるアルゴリズム上の格差、公平性、説明責任、透明性、倫理(FATE)が実装されている。
本研究では、AIによって守られている世界南部地域のFATE関連デシダータ、特に透明性と倫理について検討する。
インクリシティを促進するために、コミュニティ主導の戦略が提案され、責任あるAI設計のための代表データを収集し、キュレートする。
論文 参考訳(メタデータ) (2023-01-03T15:08:10Z) - A Survey on Neural Open Information Extraction: Current Status and
Future Directions [87.30702606041407]
Open Information extract (OpenIE) は、大規模コーパスからの関係事実のドメインに依存しない発見を容易にする。
我々は、最先端のニューラルなOpenIEモデル、その設計決定、強み、弱点について概観する。
論文 参考訳(メタデータ) (2022-05-24T02:24:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。