論文の概要: The Accountability Paradox: How Platform API Restrictions Undermine AI Transparency Mandates
- arxiv url: http://arxiv.org/abs/2505.11577v1
- Date: Fri, 16 May 2025 14:30:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:10.718551
- Title: The Accountability Paradox: How Platform API Restrictions Undermine AI Transparency Mandates
- Title(参考訳): 説明責任のパラドックス:プラットフォームAPI制限がAI透明性管理を損なう方法
- Authors: FLorian A. D. Burnat, Brittany I. Davidson,
- Abstract要約: 主要なソーシャルメディアプラットフォームに対するAPI制限は、アルゴリズムの透明性のためにデータアクセスを義務付けるEUデジタルサービス法[20]の遵守に異議を唱える。
規制要件とプラットフォーム実装の相違点の増大を評価するための構造化監査フレームワークを開発する。
我々は,国立標準技術研究所のAIリスクマネジメントフレームワークに沿った政策介入を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent application programming interface (API) restrictions on major social media platforms challenge compliance with the EU Digital Services Act [20], which mandates data access for algorithmic transparency. We develop a structured audit framework to assess the growing misalignment between regulatory requirements and platform implementations. Our comparative analysis of X/Twitter, Reddit, TikTok, and Meta identifies critical ``audit blind-spots'' where platform content moderation and algorithmic amplification remain inaccessible to independent verification. Our findings reveal an ``accountability paradox'': as platforms increasingly rely on AI systems, they simultaneously restrict the capacity for independent oversight. We propose targeted policy interventions aligned with the AI Risk Management Framework of the National Institute of Standards and Technology [80], emphasizing federated access models and enhanced regulatory enforcement.
- Abstract(参考訳): 主要なソーシャルメディアプラットフォームに対する最近のアプリケーションプログラミングインターフェース(API)の制限は、アルゴリズムの透明性のためにデータアクセスを義務付けるEUデジタルサービス法[20]の遵守に異議を唱えている。
規制要件とプラットフォーム実装の相違点の増大を評価するための構造化監査フレームワークを開発する。
X/Twitter、Reddit、TikTok、Metaの比較分析では、プラットフォームコンテンツモデレーションとアルゴリズムによる増幅が独立した検証にはアクセスできない重要な‘audit blind-spots’’を特定しています。
プラットフォームがますますAIシステムに依存しているため、独立した監視能力も同時に制限されています。
我々は,国立標準技術研究所のAIリスクマネジメントフレームワーク[80]に則った政策介入を目標とし,フェデレートされたアクセスモデルを強調し,規制執行を強化することを提案する。
関連論文リスト
- Aegis: Towards Governance, Integrity, and Security of AI Voice Agents [52.7512082818639]
音声エージェントのガバナンス,整合性,セキュリティのためのフレームワークであるAegisを提案する。
我々は,銀行コールセンタ,ITサポート,ロジスティクスにおけるケーススタディを通じて,この枠組みを評価する。
モデルファミリ間の系統的な差異を観察し,より感受性の高いオープンウェイトモデルを示した。
論文 参考訳(メタデータ) (2026-02-07T05:51:36Z) - Beyond the Checkbox: Strengthening DSA Compliance Through Social Media Algorithmic Auditing [7.686169912623941]
アルゴリズムプラットフォームは、アルゴリズムの透明性、ユーザ保護、プライバシに関する義務を遵守する必要がある。
現在の監査プラクティスや、そのようなコンプライアンスを確保する上での有効性については、ほとんど分かっていない。
分析の結果,AIを用いたシステム評価における方法論の矛盾や技術的深度の欠如が示唆された。
我々は,コンプライアンス評価の深さ,規模,独立性を高めるために,アルゴリズム監査を採用することを提案する。
論文 参考訳(メタデータ) (2026-01-26T12:00:29Z) - Compliance as a Trust Metric [1.0264137858888513]
本稿では,規制コンプライアンスを定量的かつダイナミックな信頼度として運用することで,この研究ギャップを埋める。
私たちのコントリビューションは、各違反の深刻度を、そのボリューム、時間、ブレッドス、臨界度など、複数の次元に沿って評価する定量的モデルです。
人工病院のデータセット上でACEを評価し,複雑なHIPAAおよびHIPAA違反を正確に検出できることを実証した。
論文 参考訳(メタデータ) (2026-01-03T21:14:40Z) - An Agentic Software Framework for Data Governance under DPDP [0.0]
インドでは、デジタル個人情報保護法(Digital Personal Data Protection Act)が厳格なデータプライバシーとコンプライアンス要件を義務付けている。
ソフトウェア開発の観点からすると、従来のコンプライアンスツールはハードコードされたルールや静的な設定に依存していることが多い。
本稿では,データポリシの統制と適応を行うソフトウェアエージェントに,コンプライアンスロジックを直接組み込む新しいエージェントフレームワークを提案する。
論文 参考訳(メタデータ) (2026-01-03T07:46:43Z) - Analyzing and Internalizing Complex Policy Documents for LLM Agents [53.14898416858099]
大規模言語モデル(LLM)ベースのエージェントシステムは、多様なビジネスルールをコードするコンテキスト内ポリシー文書に依存している。
これは、パフォーマンスを保ちながら、ポリシー文書をモデルプリエントに組み込む内部化手法の開発を動機付けます。
CC-Genは4つのレベルにまたがる制御可能な複雑度を持つエージェントベンチマークジェネレータである。
論文 参考訳(メタデータ) (2025-10-13T16:30:07Z) - Safe and Certifiable AI Systems: Concepts, Challenges, and Lessons Learned [45.44933002008943]
この白書は、T"UV AUSTRIA Trusted AIフレームワークを提示する。
エンド・ツー・エンドの監査カタログであり、機械学習システムの評価と認定のための方法論である。
セキュアなソフトウェア開発、機能要件、倫理とデータプライバシという3つの柱の上に構築されているのは、EU AI Actの高レベルの義務を、特定かつテスト可能な基準に翻訳するものです。
論文 参考訳(メタデータ) (2025-09-08T17:52:08Z) - PETLP: A Privacy-by-Design Pipeline for Social Media Data in AI Research [2.185322080975722]
PETLP(Privacy-by-Design Extract, Transform, Load, Present)は、法的保護を拡張パイプラインに直接組み込むコンプライアンスフレームワークである。
我々は,研究機関間で抽出権が根本的に異なることを実証する。
ソーシャルメディアデータに対して、真の匿名化が実現不可能な理由が示されている。
論文 参考訳(メタデータ) (2025-08-12T08:33:40Z) - Explainable AI Systems Must Be Contestable: Here's How to Make It Happen [2.5875936082584623]
本稿では、説明可能なAIにおける競合性の最初の厳密な形式的定義について述べる。
我々は、ヒューマン中心のインターフェース、技術プロセス、組織アーキテクチャにまたがる、設計やポストホックメカニズムのモジュール化されたフレームワークを紹介します。
私たちの作業は実践者に、真のリコースと説明責任をAIシステムに組み込むためのツールを提供しています。
論文 参考訳(メタデータ) (2025-06-02T13:32:05Z) - Ethical AI: Towards Defining a Collective Evaluation Framework [0.3413711585591077]
人工知能(AI)は医療、金融、自律システムといった分野を変えつつある。
しかし、その迅速な統合は、データ所有権、プライバシー、およびシステムバイアスに関する緊急の倫理的懸念を提起する。
本稿では,意味不明で解釈可能な単位のオントロジブロック上に構築されたモジュール型倫理的評価フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-30T21:10:47Z) - Watermarking Without Standards Is Not AI Governance [46.71493672772134]
現在の実装は、効果的な監視を提供するのではなく、象徴的なコンプライアンスとして機能するリスクがある、と私たちは主張する。
本稿では,技術標準,監査インフラストラクチャ,実施機構を含む3層フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-27T18:10:04Z) - Are You Getting What You Pay For? Auditing Model Substitution in LLM APIs [60.881609323604685]
ブラックボックスAPIを通じてアクセスされるLarge Language Models (LLM)は、信頼の課題をもたらす。
ユーザーは、宣伝されたモデル機能に基づいたサービスの料金を支払う。
プロバイダは、運用コストを削減するために、特定のモデルを安価で低品質の代替品に隠蔽的に置き換えることができる。
この透明性の欠如は、公正性を損なうとともに、信頼を損なうとともに、信頼性の高いベンチマークを複雑にする。
論文 参考訳(メタデータ) (2025-04-07T03:57:41Z) - In-House Evaluation Is Not Enough: Towards Robust Third-Party Flaw Disclosure for General-Purpose AI [93.33036653316591]
我々はシステムの安全性を高めるために3つの介入を要求します。
まず、標準化されたAI欠陥レポートと研究者へのエンゲージメントのルールを用いることを提案する。
第2に,GPAIシステムプロバイダが広視野欠陥開示プログラムを採用することを提案する。
第3に,欠陥報告の分布を調整するための改良されたインフラの開発を提唱する。
論文 参考訳(メタデータ) (2025-03-21T05:09:46Z) - Policy Frameworks for Transparent Chain-of-Thought Reasoning in Large Language Models [1.0088912103548195]
CoT(Chain-of-Thought)推論は、複雑な問題をステップバイステップのソリューションに分解することで、大きな言語モデル(LLM)を強化する。
現在のCoT開示ポリシは、可視性、APIアクセス、価格戦略など、さまざまなモデルで大きく異なり、統一されたポリシフレームワークが欠如している。
学術,ビジネス,一般ユーザ向けにCoTの可用性を調整し,透明性,説明責任,セキュリティのバランスをとるタイレッドアクセスポリシフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-14T19:54:18Z) - Compliance of AI Systems [0.0]
本稿では、EUのAI法に焦点をあてて、関連する法律に対するAIシステムのコンプライアンスを体系的に検討する。
この分析は、エッジデバイスに関連する多くの課題を強調した。
データセットのコンプライアンスの重要性は、AIシステムの信頼性、透明性、説明可能性を保証するための基盤として強調されている。
論文 参考訳(メタデータ) (2025-03-07T16:53:36Z) - Semantic Integrity Constraints: Declarative Guardrails for AI-Augmented Data Processing Systems [39.23499993745249]
セマンティッククエリにおけるLLM出力に対する正当性条件を指定・強制するためのセマンティック整合性制約(SIC)を導入する。
SICは、従来のデータベース整合性制約をセマンティックセッティングに一般化し、グラウンド、サウンドネス、排他といった一般的なタイプの制約をサポートする。
本稿では,SICをクエリ計画と実行環境に統合するシステム設計について述べる。
論文 参考訳(メタデータ) (2025-03-01T19:59:25Z) - Peer-induced Fairness: A Causal Approach for Algorithmic Fairness Auditing [0.0]
欧州連合の人工知能法は2024年8月1日に施行された。
リスクの高いAIアプリケーションは、厳格な透明性と公正な基準に従わなければならない。
本稿では,対実的公正性とピア比較戦略の強みを組み合わせた新しい枠組みを提案する。
論文 参考訳(メタデータ) (2024-08-05T15:35:34Z) - Accountability in Offline Reinforcement Learning: Explaining Decisions
with a Corpus of Examples [70.84093873437425]
本稿では、オフラインデータセットを決定コーパスとして利用するAOC(Accountable Offline Controller)を紹介する。
AOCはローデータシナリオで効果的に動作し、厳密なオフラインの模倣設定まで拡張でき、保存性と適応性の両方の品質を示す。
シミュレーションおよび実世界の医療シナリオにおいて、AOCのパフォーマンスを評価し、説明責任を維持しながら高いレベルのパフォーマンスでオフライン制御タスクを管理する能力を強調した。
論文 参考訳(メタデータ) (2023-10-11T17:20:32Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Having your Privacy Cake and Eating it Too: Platform-supported Auditing
of Social Media Algorithms for Public Interest [70.02478301291264]
ソーシャルメディアプラットフォームは、情報や機会へのアクセスをキュレートするので、公衆の言論を形成する上で重要な役割を果たす。
これまでの研究では、これらのアルゴリズムが偏見や差別的な結果をもたらすことを示すためにブラックボックス法が用いられてきた。
本稿では,提案法の目標を満たすプラットフォーム支援型監査手法を提案する。
論文 参考訳(メタデータ) (2022-07-18T17:32:35Z) - An Automatic Attribute Based Access Control Policy Extraction from
Access Logs [5.142415132534397]
属性ベースのアクセス制御(ABAC)モデルは、複雑なシステムや動的システムの認証要求に対処するための、より柔軟なアプローチを提供する。
本稿では,システムへのアクセスログからABACポリシールールを自動的に学習し,ポリシー開発プロセスを簡素化する手法を提案する。
論文 参考訳(メタデータ) (2020-03-16T15:08:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。