論文の概要: Who Decides How Knowing Becomes Doing? Redistributing Authority in Human-AI Music Co-Creation
- arxiv url: http://arxiv.org/abs/2509.10331v1
- Date: Fri, 12 Sep 2025 15:12:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-15 16:03:08.140023
- Title: Who Decides How Knowing Becomes Doing? Redistributing Authority in Human-AI Music Co-Creation
- Title(参考訳): 人間とAIの合唱曲におけるリブレーション・オーソリティについて、誰が知っているか?
- Authors: Zhejing Hu, Yan Liu, Zhi Zhang, Gong Chen, Bruce X. B. Yu, Jiannong Cao,
- Abstract要約: 人間とAIの共創の時代には、"知識は簡単、実行は困難"という極大さが再定義されている。
ノウハウサイクルにおける権威の再分配のための最初の体系的枠組みを紹介する。
これらの原則が人間とAIの権威関係を再構築し、人間の創造的表現を再活性化することを実証する。
- 参考スコア(独自算出の注目度): 24.022200315364003
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the era of human-AI co-creation, the maxim "knowing is easy, doing is hard" is redefined. AI has the potential to ease execution, yet the essence of "hard" lies in who governs the translation from knowing to doing. Mainstream tools often centralize interpretive authority and homogenize expression, suppressing marginal voices. To address these challenges, we introduce the first systematic framework for redistributing authority in the knowing-doing cycle, built on three principles, namely contestability, agency, and plurality. Through interactive studies with 180 music practitioners, complemented by in-depth interviews, we demonstrate that these principles reshape human-AI authority relations and reactivate human creative expression. The findings establish a new paradigm for critical computing and human-AI co-creation that advances from critique to practice.
- Abstract(参考訳): 人間とAIの共創の時代には、"知識は簡単、実行は困難"という極大さが再定義されている。
AIは実行を容易化する可能性があるが、"ハード"の本質は、誰が翻訳を知識から実践まで支配するかにある。
メインストリームツールは、しばしば解釈的権威を集中化し、表現を均質化し、余分な声を抑える。
これらの課題に対処するために,我々は,3つの原則,すなわち競争可能性,エージェンシー,複数に基づいて構築された,知識化サイクルにおける権威の再分配のための最初の体系的枠組みを導入する。
そこで我々は,180人の音楽実践者との対話的な研究を通じて,これらの原則が人間とAIの権威関係を再構築し,人間の創造的表現を再活性化させることを実証した。
この発見は、批判から実践へと進化する批判的コンピューティングと人間とAIの共創のための新しいパラダイムを確立する。
関連論文リスト
- The next question after Turing's question: Introducing the Grow-AI test [51.56484100374058]
本研究は,GROW-AIと呼ばれる人工知能評価の枠組みを拡張することを目的としている。
GROW-AIは、チューリングテストの自然な後継者である"Can Machine grow up?
この作品の独創性は、人間の世界から人工知能への「成長」過程の概念的な変換にある。
論文 参考訳(メタデータ) (2025-08-22T10:19:42Z) - A Multi-Layered Research Framework for Human-Centered AI: Defining the Path to Explainability and Trust [2.4578723416255754]
人間中心型AI(HCAI)は人間の価値観との整合性を強調し、説明可能なAI(XAI)はAI決定をより理解しやすくすることで透明性を高める。
本稿では,HCAI と XAI を橋渡し,構造的説明可能性パラダイムを確立する新しい3層フレームワークを提案する。
我々の発見は、透明性、適応性、倫理的に整合したAIシステムを育成するHCXAI(Human-Centered Explainable AI)を前進させた。
論文 参考訳(メタデータ) (2025-04-14T01:29:30Z) - We Are All Creators: Generative AI, Collective Knowledge, and the Path Towards Human-AI Synergy [1.2499537119440245]
生成的AIは、人間の独特性という伝統的な概念に深刻な課題を呈している。
ニューラルネットワークベースのファンデーションモデルにより、これらのシステムは顕著なコンテンツ生成能力を示す。
本稿では、生成AIは、知性と創造性の代替形態であると主張している。
論文 参考訳(メタデータ) (2025-04-10T17:50:17Z) - Aligning Generalisation Between Humans and Machines [74.120848518198]
AI技術は、科学的発見と意思決定において人間を支援することができるが、民主主義と個人を妨害することもある。
AIの責任ある使用と人間-AIチームへの参加は、AIアライメントの必要性をますます示している。
これらの相互作用の重要かつしばしば見落とされがちな側面は、人間と機械が一般化する異なる方法である。
論文 参考訳(メタデータ) (2024-11-23T18:36:07Z) - Rolling in the deep of cognitive and AI biases [1.556153237434314]
我々は、AIが設計、開発、デプロイされる状況とは切り離せない社会技術システムとして理解する必要があると論じる。
我々は、人間の認知バイアスがAIフェアネスの概観の中核となる急進的な新しい方法論に従うことで、この問題に対処する。
我々は、人間にAIバイアスを正当化する新しいマッピングを導入し、関連する公正度と相互依存を検出する。
論文 参考訳(メタデータ) (2024-07-30T21:34:04Z) - Towards Bidirectional Human-AI Alignment: A Systematic Review for Clarifications, Framework, and Future Directions [101.67121669727354]
近年のAIの進歩は、AIシステムを意図された目標、倫理的原則、個人とグループの価値に向けて導くことの重要性を強調している。
人間のAIアライメントの明確な定義とスコープの欠如は、このアライメントを達成するための研究領域間の共同作業を妨げる、大きな障害となる。
我々は、2019年から2024年1月までに400以上の論文を体系的にレビューし、HCI(Human-Computer Interaction)、自然言語処理(NLP)、機械学習(ML)といった複数の分野にまたがって紹介する。
論文 参考訳(メタデータ) (2024-06-13T16:03:25Z) - Exploration with Principles for Diverse AI Supervision [88.61687950039662]
次世代の予測を用いた大規模トランスフォーマーのトレーニングは、AIの画期的な進歩を生み出した。
この生成AIアプローチは印象的な結果をもたらしたが、人間の監督に大きく依存している。
この人間の監視への強い依存は、AIイノベーションの進歩に重大なハードルをもたらす。
本稿では,高品質なトレーニングデータを自律的に生成することを目的とした,探索型AI(EAI)という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-10-13T07:03:39Z) - Human Evaluation of Interpretability: The Case of AI-Generated Music
Knowledge [19.508678969335882]
我々は、芸術と人文科学におけるAIが発見する知識/ルールを評価することに注力する。
本稿では,洗練された記号的/数値的対象として表現されたAI生成音楽理論/ルールの人間生成言語解釈を収集し,評価する実験手法を提案する。
論文 参考訳(メタデータ) (2020-04-15T06:03:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。