論文の概要: The Accountability Paradox: How Platform API Restrictions Undermine AI Transparency Mandates
- arxiv url: http://arxiv.org/abs/2505.11577v1
- Date: Fri, 16 May 2025 14:30:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:10.718551
- Title: The Accountability Paradox: How Platform API Restrictions Undermine AI Transparency Mandates
- Title(参考訳): 説明責任のパラドックス:プラットフォームAPI制限がAI透明性管理を損なう方法
- Authors: FLorian A. D. Burnat, Brittany I. Davidson,
- Abstract要約: 主要なソーシャルメディアプラットフォームに対するAPI制限は、アルゴリズムの透明性のためにデータアクセスを義務付けるEUデジタルサービス法[20]の遵守に異議を唱える。
規制要件とプラットフォーム実装の相違点の増大を評価するための構造化監査フレームワークを開発する。
我々は,国立標準技術研究所のAIリスクマネジメントフレームワークに沿った政策介入を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent application programming interface (API) restrictions on major social media platforms challenge compliance with the EU Digital Services Act [20], which mandates data access for algorithmic transparency. We develop a structured audit framework to assess the growing misalignment between regulatory requirements and platform implementations. Our comparative analysis of X/Twitter, Reddit, TikTok, and Meta identifies critical ``audit blind-spots'' where platform content moderation and algorithmic amplification remain inaccessible to independent verification. Our findings reveal an ``accountability paradox'': as platforms increasingly rely on AI systems, they simultaneously restrict the capacity for independent oversight. We propose targeted policy interventions aligned with the AI Risk Management Framework of the National Institute of Standards and Technology [80], emphasizing federated access models and enhanced regulatory enforcement.
- Abstract(参考訳): 主要なソーシャルメディアプラットフォームに対する最近のアプリケーションプログラミングインターフェース(API)の制限は、アルゴリズムの透明性のためにデータアクセスを義務付けるEUデジタルサービス法[20]の遵守に異議を唱えている。
規制要件とプラットフォーム実装の相違点の増大を評価するための構造化監査フレームワークを開発する。
X/Twitter、Reddit、TikTok、Metaの比較分析では、プラットフォームコンテンツモデレーションとアルゴリズムによる増幅が独立した検証にはアクセスできない重要な‘audit blind-spots’’を特定しています。
プラットフォームがますますAIシステムに依存しているため、独立した監視能力も同時に制限されています。
我々は,国立標準技術研究所のAIリスクマネジメントフレームワーク[80]に則った政策介入を目標とし,フェデレートされたアクセスモデルを強調し,規制執行を強化することを提案する。
関連論文リスト
- Are You Getting What You Pay For? Auditing Model Substitution in LLM APIs [60.881609323604685]
ブラックボックスAPIを通じてアクセスされるLarge Language Models (LLM)は、信頼の課題をもたらす。
ユーザーは、宣伝されたモデル機能に基づいたサービスの料金を支払う。
プロバイダは、運用コストを削減するために、特定のモデルを安価で低品質の代替品に隠蔽的に置き換えることができる。
この透明性の欠如は、公正性を損なうとともに、信頼を損なうとともに、信頼性の高いベンチマークを複雑にする。
論文 参考訳(メタデータ) (2025-04-07T03:57:41Z) - In-House Evaluation Is Not Enough: Towards Robust Third-Party Flaw Disclosure for General-Purpose AI [93.33036653316591]
我々はシステムの安全性を高めるために3つの介入を要求します。
まず、標準化されたAI欠陥レポートと研究者へのエンゲージメントのルールを用いることを提案する。
第2に,GPAIシステムプロバイダが広視野欠陥開示プログラムを採用することを提案する。
第3に,欠陥報告の分布を調整するための改良されたインフラの開発を提唱する。
論文 参考訳(メタデータ) (2025-03-21T05:09:46Z) - Policy Frameworks for Transparent Chain-of-Thought Reasoning in Large Language Models [1.0088912103548195]
CoT(Chain-of-Thought)推論は、複雑な問題をステップバイステップのソリューションに分解することで、大きな言語モデル(LLM)を強化する。
現在のCoT開示ポリシは、可視性、APIアクセス、価格戦略など、さまざまなモデルで大きく異なり、統一されたポリシフレームワークが欠如している。
学術,ビジネス,一般ユーザ向けにCoTの可用性を調整し,透明性,説明責任,セキュリティのバランスをとるタイレッドアクセスポリシフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-14T19:54:18Z) - Compliance of AI Systems [0.0]
本稿では、EUのAI法に焦点をあてて、関連する法律に対するAIシステムのコンプライアンスを体系的に検討する。
この分析は、エッジデバイスに関連する多くの課題を強調した。
データセットのコンプライアンスの重要性は、AIシステムの信頼性、透明性、説明可能性を保証するための基盤として強調されている。
論文 参考訳(メタデータ) (2025-03-07T16:53:36Z) - Peer-induced Fairness: A Causal Approach for Algorithmic Fairness Auditing [0.0]
欧州連合の人工知能法は2024年8月1日に施行された。
リスクの高いAIアプリケーションは、厳格な透明性と公正な基準に従わなければならない。
本稿では,対実的公正性とピア比較戦略の強みを組み合わせた新しい枠組みを提案する。
論文 参考訳(メタデータ) (2024-08-05T15:35:34Z) - Accountability in Offline Reinforcement Learning: Explaining Decisions
with a Corpus of Examples [70.84093873437425]
本稿では、オフラインデータセットを決定コーパスとして利用するAOC(Accountable Offline Controller)を紹介する。
AOCはローデータシナリオで効果的に動作し、厳密なオフラインの模倣設定まで拡張でき、保存性と適応性の両方の品質を示す。
シミュレーションおよび実世界の医療シナリオにおいて、AOCのパフォーマンスを評価し、説明責任を維持しながら高いレベルのパフォーマンスでオフライン制御タスクを管理する能力を強調した。
論文 参考訳(メタデータ) (2023-10-11T17:20:32Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Having your Privacy Cake and Eating it Too: Platform-supported Auditing
of Social Media Algorithms for Public Interest [70.02478301291264]
ソーシャルメディアプラットフォームは、情報や機会へのアクセスをキュレートするので、公衆の言論を形成する上で重要な役割を果たす。
これまでの研究では、これらのアルゴリズムが偏見や差別的な結果をもたらすことを示すためにブラックボックス法が用いられてきた。
本稿では,提案法の目標を満たすプラットフォーム支援型監査手法を提案する。
論文 参考訳(メタデータ) (2022-07-18T17:32:35Z) - An Automatic Attribute Based Access Control Policy Extraction from
Access Logs [5.142415132534397]
属性ベースのアクセス制御(ABAC)モデルは、複雑なシステムや動的システムの認証要求に対処するための、より柔軟なアプローチを提供する。
本稿では,システムへのアクセスログからABACポリシールールを自動的に学習し,ポリシー開発プロセスを簡素化する手法を提案する。
論文 参考訳(メタデータ) (2020-03-16T15:08:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。