論文の概要: The Limits of AI Data Transparency Policy: Three Disclosure Fallacies
- arxiv url: http://arxiv.org/abs/2601.18127v1
- Date: Mon, 26 Jan 2026 04:14:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:08.672858
- Title: The Limits of AI Data Transparency Policy: Three Disclosure Fallacies
- Title(参考訳): AIデータ透明性ポリシーの限界:3つの開示誤り
- Authors: Judy Hanwen Shen, Ken Liu, Angelina Wang, Sarah H. Cen, Andy K. Zhang, Caroline Meinhardt, Daniel Zhang, Kevin Klyman, Rishi Bommasani, Daniel E. Ho,
- Abstract要約: AIに関する懸念に対処するため、データの透明性が急上昇している。
これらの呼び出しは説明責任にとって不可欠だが、現在の透明性ポリシーは多くの場合、彼らの意図する目標に届かない。
食品の栄養的事実と同様に、AIの栄養的事実を目的とした政策は、現在、効果的な開示に関する研究が限定的に検討されている。
- 参考スコア(独自算出の注目度): 16.486301766411223
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data transparency has emerged as a rallying cry for addressing concerns about AI: data quality, privacy, and copyright chief among them. Yet while these calls are crucial for accountability, current transparency policies often fall short of their intended aims. Similar to nutrition facts for food, policies aimed at nutrition facts for AI currently suffer from a limited consideration of research on effective disclosures. We offer an institutional perspective and identify three common fallacies in policy implementations of data disclosures for AI. First, many data transparency proposals exhibit a specification gap between the stated goals of data transparency and the actual disclosures necessary to achieve such goals. Second, reform attempts exhibit an enforcement gap between required disclosures on paper and enforcement to ensure compliance in fact. Third, policy proposals manifest an impact gap between disclosed information and meaningful changes in developer practices and public understanding. Informed by the social science on transparency, our analysis identifies affirmative paths for transparency that are effective rather than merely symbolic.
- Abstract(参考訳): データの透明性は、データ品質、プライバシ、著作権など、AIに関する懸念に対処する上で、激怒している。
しかし、これらの呼び出しは説明責任にとって不可欠だが、現在の透明性ポリシーは、しばしば彼らの意図する目標には達していない。
食品の栄養的事実と同様に、AIの栄養的事実を目的とした政策は、現在、効果的な開示に関する研究が限定的に検討されている。
我々は、機関的な視点を提供し、AIのためのデータ開示のポリシー実装における3つの一般的な誤信を特定します。
第一に、多くのデータ透明性の提案は、データ透明性の指示された目標と、そのような目標を達成するために必要な実際の開示との間に、仕様上のギャップを示す。
第二に、改革の試みは、実際にコンプライアンスを確実にするために、紙上の必要な開示と執行との間に、強制的なギャップを示す。
第3に、ポリシーの提案は、開示された情報と、開発者の実践と公共の理解における意味のある変化の間に、影響のギャップを示す。
透明性に関する社会科学から情報を得た分析は,単に象徴的というよりは効果的な透明性の肯定的な経路を同定する。
関連論文リスト
- A Confidential Computing Transparency Framework for a Comprehensive Trust Chain [7.9699781371465965]
Confidential Computingは、ハードウェアベースのTrusted Execution Environmentを通じて、使用中のデータのプライバシを高める。
TEEは脆弱性やバックドアの欠如を保証できないため、ユーザの信頼を必要とします。
機密情報処理の透明性を漸進的に向上するための実践的な経路を組織に提供する3段階の概念フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-05T17:24:05Z) - Algorithmic Transparency and Participation through the Handoff Lens: Lessons Learned from the U.S. Census Bureau's Adoption of Differential Privacy [1.999925939110439]
我々は、2020年国勢調査のための情報開示回避システムにおいて、米国国勢調査局による差分プライバシーの採用について検討する。
このケーススタディは、技術的なシフトが価値をどう意味するかについての理解を深めようとしている。
このケーススタディから,アルゴリズムの透明性と参加に関する理解を深めるための3つの教訓を提示する。
論文 参考訳(メタデータ) (2024-05-29T15:29:16Z) - Legally Binding but Unfair? Towards Assessing Fairness of Privacy Policies [0.0]
プライバシーポリシーは、データ保護の権利についてデータ被験者に通知し、データ管理の実践を説明することが期待されている。
これは、プライバシーポリシーが公正な方法で書かれており、例えば、分極項を使用しない、特定の教育を必要としない、あるいは特定の社会的背景を仮定しない、といったことを意味している。
我々は,基本的法的資料と公正性研究から,情報的公正性,表現的公正性,倫理的・道徳性がプライバシポリシにどのように関係しているかを識別する。
テキスト統計,言語学的手法,人工知能に基づいて,これらの公平度次元におけるポリシーを自動評価するオプションを提案する。
論文 参考訳(メタデータ) (2024-03-12T22:53:32Z) - Foundation Model Transparency Reports [61.313836337206894]
本稿では,ソーシャルメディアにおける透明性レポートの実践を参考に,基礎モデル透明性レポートを提案する。
ソーシャルメディアの透明性レポートの成功と欠点から、6つの設計原則を特定します。
十分に設計された透明性レポートは、規制要件の重複によるコンプライアンスコストの低減につながる可能性がある。
論文 参考訳(メタデータ) (2024-02-26T03:09:06Z) - Users are the North Star for AI Transparency [111.5679109784322]
透明な人工知能システムを求める声が広まっているにもかかわらず、この用語は、厳密な政策の目的や具体的な研究ラインのオリエント化を表すために、多義的な意味に過大評価されている。
このことが起こる理由の1つは、AI透明性の明確な理想が、この仕事の体で実現されないことである。
透明性はユーザ中心で、ユーザ指向で、誠実です。
論文 参考訳(メタデータ) (2023-03-09T18:53:29Z) - Bridging the Transparency Gap: What Can Explainable AI Learn From the AI
Act? [0.8287206589886881]
欧州連合は、AIシステムの透明性に関する詳細な要件を導入している。
XAIと透明性に関する法律には根本的な違いがある。
XAIと規制の異なる見解を比較することで、実践的な作業が透明性のギャップを埋める可能性のある4つの軸に到達します。
論文 参考訳(メタデータ) (2023-02-21T16:06:48Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - Achieving Transparency Report Privacy in Linear Time [1.9981375888949475]
我々はまず,公開atrにおける透明性と公平性対策の展開によって引き起こされる潜在的なプライバシーリスクを調査し,実証する。
そこで本研究では,標準線形分数プログラミング(LFP)理論に基づく線形時間最適プライバシスキームを提案し,ATRを発表する。
当機構が引き起こすプライバシー・ユーティリティのトレードオフを定量化し、プライバシーの乱用がATRの公正性対策に与える影響を分析します。
論文 参考訳(メタデータ) (2021-03-31T22:05:10Z) - Trustworthy Transparency by Design [57.67333075002697]
本稿では,ユーザ信頼とエクスペリエンスに関する研究を取り入れた,ソフトウェア設計のための透明性フレームワークを提案する。
私たちのフレームワークは、その設計に透明性を取り入れたソフトウェアの開発を可能にします。
論文 参考訳(メタデータ) (2021-03-19T12:34:01Z) - Dimensions of Transparency in NLP Applications [64.16277166331298]
aiシステムに関する記述とコミュニケーションに関する幅広い透明性が望ましいと考えられている。
以前の研究は、システムの透明性向上とユーザの混乱の間にトレードオフが存在することを示唆している。
論文 参考訳(メタデータ) (2021-01-02T11:46:17Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。