論文の概要: Who Gets Heard? Rethinking Fairness in AI for Music Systems
- arxiv url: http://arxiv.org/abs/2511.05953v1
- Date: Sat, 08 Nov 2025 10:03:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:44.677123
- Title: Who Gets Heard? Rethinking Fairness in AI for Music Systems
- Title(参考訳): 音楽システムのためのAIの公平さを再考する
- Authors: Atharva Mehta, Shivam Chauhan, Megha Sharma, Gus Xia, Kaustuv Kanti Ganguli, Nishanth Chandran, Zeerak Talat, Monojit Choudhury,
- Abstract要約: 音楽システムにおけるAIの文化的・ジャンル的バイアスに関する懸念を提起する。
これらのバイアスは、クリエイター、流通業者、音楽のためのAIで表現を形作るリスナーを含むステークホルダーに影響を与える。
音楽AIシステムでは,データセット,モデル,インターフェースレベルでレコメンデーションを提供する。
- 参考スコア(独自算出の注目度): 27.73654834833813
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, the music research community has examined risks of AI models for music, with generative AI models in particular, raised concerns about copyright, deepfakes, and transparency. In our work, we raise concerns about cultural and genre biases in AI for music systems (music-AI systems) which affect stakeholders including creators, distributors, and listeners shaping representation in AI for music. These biases can misrepresent marginalized traditions, especially from the Global South, producing inauthentic outputs (e.g., distorted ragas) that reduces creators' trust on these systems. Such harms risk reinforcing biases, limiting creativity, and contributing to cultural erasure. To address this, we offer recommendations at dataset, model and interface level in music-AI systems.
- Abstract(参考訳): 近年、音楽研究コミュニティは音楽のためのAIモデルのリスクを調査しており、特に生成型AIモデルは著作権、ディープフェイク、透明性に対する懸念を高めている。
我々の研究は、音楽システム(音楽AIシステム)におけるAIの文化的・ジャンル的バイアスに関する懸念を提起し、創造者、流通業者、リスナーを含む利害関係者に影響を与える。
これらのバイアスは、特にグローバル・サウスから、クリエーターがこれらのシステムに対する信頼を低下させる不正確なアウトプット(例えば、歪んだラガ)を生み出すという、疎外化された伝統を誤って表現することができる。
このようなリスクはバイアスを補強し、創造性を制限し、文化の消去に寄与する。
これを解決するため、私たちは、音楽AIシステムにおけるデータセット、モデル、インターフェースレベルでレコメンデーションを提供します。
関連論文リスト
- Opening Musical Creativity? Embedded Ideologies in Generative-AI Music Systems [2.532202013576547]
2025年中頃の4つの生成AI音楽制作システムについて検討する。
音楽制作における生成AIの早期開発と導入を推進しているイデオロギーについて検討する。
論文 参考訳(メタデータ) (2025-08-12T09:59:07Z) - Detecting Musical Deepfakes [0.0]
本研究では,FakeMusicCapsデータセットを用いたAI生成楽曲の検出について検討した。
実世界の逆境条件をシミュレートするため, テンポストレッチとピッチシフトをデータセットに適用した。
メルスペクトログラムは、修正されたオーディオから生成され、その後、畳み込みニューラルネットワークのトレーニングと評価に使用された。
論文 参考訳(メタデータ) (2025-05-03T21:45:13Z) - Reducing Barriers to the Use of Marginalised Music Genres in AI [7.140590440016289]
このプロジェクトの目的は、AIモデルで疎外された音楽のジャンルを使用する際の障壁を減らすことに関連する、eXplainable AI(XAI)の課題と機会を探ることである。
特定されたXAIの機会には、AIモデルの透明性とコントロールの改善、AIモデルの倫理とバイアスの説明、バイアスを減らすために小さなデータセットで大規模モデルの微調整、AIモデルによるスタイル移行の機会の説明などが含まれる。
私たちは現在、グローバルなInternational Responsible AI Musicコミュニティをまとめて、私たちのネットワークへの参加を招待するために、このプロジェクトを構築しています。
論文 参考訳(メタデータ) (2024-07-18T12:10:04Z) - Computational Copyright: Towards A Royalty Model for Music Generative AI [8.131016672512835]
生成的AIは、特に音楽業界において、著作権問題に拍車をかけた。
本稿では,これらの課題の経済的側面に焦点をあて,著作権分野における経済的影響が中心的な課題となっていることを強調する。
我々は、AI音楽生成プラットフォーム上での収益分配のための実行可能なロイヤリティモデルを提案する。
論文 参考訳(メタデータ) (2023-12-11T18:57:20Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Redefining Relationships in Music [55.478320310047785]
私たちは、AIツールが音楽文化を根本的に変えてくれると論じています。
この分野で働く人々は、音楽の実践、消費、意味に対するネガティブな影響を減らすことができる。
論文 参考訳(メタデータ) (2022-12-13T19:44:32Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。