論文の概要: When Is Self-Disclosure Optimal? Incentives and Governance of AI-Generated Content
- arxiv url: http://arxiv.org/abs/2601.18654v1
- Date: Mon, 26 Jan 2026 16:31:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:08.933139
- Title: When Is Self-Disclosure Optimal? Incentives and Governance of AI-Generated Content
- Title(参考訳): 自己開示はいつ最適か?AI生成コンテンツのインセンティブとガバナンス
- Authors: Juan Wu, Zhe, Zhang, Amit Mehra,
- Abstract要約: Gen-AIは、生産コストを削減し、さまざまな品質のスケーラブルなアウトプットを可能にすることで、デジタルプラットフォーム上でのコンテンツ生成を再構築している。
プラットフォームは、クリエイターがAI生成コンテンツをラベル付けする必要がある公開ポリシーを採用し始めている。
本稿では、こうした開示体制の経済的意味を研究するための形式モデルを開発する。
- 参考スコア(独自算出の注目度): 25.691139058468377
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative artificial intelligence (Gen-AI) is reshaping content creation on digital platforms by reducing production costs and enabling scalable output of varying quality. In response, platforms have begun adopting disclosure policies that require creators to label AI-generated content, often supported by imperfect detection and penalties for non-compliance. This paper develops a formal model to study the economic implications of such disclosure regimes. We compare a non-disclosure benchmark, in which the platform alone detects AI usage, with a mandatory self-disclosure regime in which creators strategically choose whether to disclose or conceal AI use under imperfect enforcement. The model incorporates heterogeneous creators, viewer discounting of AI-labeled content, trust penalties following detected non-disclosure, and endogenous enforcement. The analysis shows that disclosure is optimal only when both the value of AI-generated content and its cost-saving advantage are intermediate. As AI capability improves, the platform's optimal enforcement strategy evolves from strict deterrence to partial screening and eventual deregulation. While disclosure reliably increases transparency, it reduces aggregate creator surplus and can suppress high-quality AI content when AI is technologically advanced. Overall, the results characterize disclosure as a strategic governance instrument whose effectiveness depends on technological maturity and trust frictions.
- Abstract(参考訳): 生成人工知能(Gen-AI)は、製造コストを削減し、様々な品質のスケーラブルなアウトプットを可能にすることで、デジタルプラットフォーム上でのコンテンツ生成を再構築している。
これに対し、プラットフォームは、クリエイターがAI生成コンテンツをラベル付けすることを要求する公開ポリシーを採用し始めており、多くの場合、不完全な検出と非準拠に対する罰則によって支援されている。
本稿では、こうした開示体制の経済的意味を研究するための形式モデルを開発する。
我々は、プラットフォーム単独でAIの使用を検出する非開示ベンチマークと、クリエイターが不完全な執行の下でAIの使用を開示または隠蔽するかを戦略的に選択する強制的な自己開示体制を比較する。
このモデルには異質なクリエーター、AIラベル付きコンテンツの視聴者割引、検出された非開示後の信頼の罰、内在的執行が含まれている。
分析の結果,AI生成コンテンツの価値とコスト削減の優位性の両方が中間的である場合にのみ開示が最適であることが示唆された。
AI能力が向上するにつれて、プラットフォームの最適な執行戦略は厳格な抑止から部分的なスクリーニング、最終的な規制緩和へと進化する。
開示は透明性を確実に向上させるが、AIが技術的に進歩すると、総創造者の余剰量を削減し、高品質なAIコンテンツを抑制することができる。
全体としては、開示は技術成熟度と信頼摩擦に依存する戦略的ガバナンス手段として特徴づけられる。
関連論文リスト
- Rethinking Data Protection in the (Generative) Artificial Intelligence Era [138.07763415496288]
現代の(生産的な)AIモデルやシステムに生じる多様な保護ニーズを捉える4段階の分類法を提案する。
当社のフレームワークは、データユーティリティとコントロールのトレードオフに関する構造化された理解を提供し、AIパイプライン全体にわたっています。
論文 参考訳(メタデータ) (2025-07-03T02:45:51Z) - Ethical AI: Towards Defining a Collective Evaluation Framework [0.3413711585591077]
人工知能(AI)は医療、金融、自律システムといった分野を変えつつある。
しかし、その迅速な統合は、データ所有権、プライバシー、およびシステムバイアスに関する緊急の倫理的懸念を提起する。
本稿では,意味不明で解釈可能な単位のオントロジブロック上に構築されたモジュール型倫理的評価フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-30T21:10:47Z) - Targeted Unlearning with Single Layer Unlearning Gradient [15.374381635334897]
機械学習手法は、訓練されたモデルからセンシティブまたは望ましくないコンテンツを除去することを目的としている。
対象情報を学習するための効率的な手法として,SLUG(Single Layer Unlearning Gradient Computing)を提案する。
論文 参考訳(メタデータ) (2024-07-16T15:52:36Z) - Generative AI for Secure and Privacy-Preserving Mobile Crowdsensing [74.58071278710896]
生成AIは、学術分野と産業分野の両方から多くの注目を集めている。
セキュアでプライバシ保護のモバイルクラウドセンシング(SPPMCS)は、データ収集/取得に広く応用されている。
論文 参考訳(メタデータ) (2024-05-17T04:00:58Z) - Coordinated Flaw Disclosure for AI: Beyond Security Vulnerabilities [1.3225694028747144]
本稿では,機械学習(ML)問題の複雑度に合わせたコーディネート・フレーバー開示フレームワークを提案する。
本フレームワークは,拡張モデルカード,ダイナミックスコープ拡張,独立適応パネル,自動検証プロセスなどのイノベーションを導入している。
CFDはAIシステムに対する公的な信頼を著しく向上させる可能性があると我々は主張する。
論文 参考訳(メタデータ) (2024-02-10T20:39:04Z) - VerifAI: Verified Generative AI [22.14231506649365]
生成AIは大きな進歩を遂げているが、その正確性と信頼性に関する懸念は拡大を続けている。
本稿では,データ管理の観点から生成AIの出力を検証することが,生成AIの新たな課題であることを示す。
私たちのビジョンは、検証可能な生成AIの開発を促進し、より信頼性が高く責任あるAIの利用に貢献することです。
論文 参考訳(メタデータ) (2023-07-06T06:11:51Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。