論文の概要: Accountability Capture: How Record-Keeping to Support AI Transparency and Accountability (Re)shapes Algorithmic Oversight
- arxiv url: http://arxiv.org/abs/2510.04609v1
- Date: Mon, 06 Oct 2025 09:20:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.769435
- Title: Accountability Capture: How Record-Keeping to Support AI Transparency and Accountability (Re)shapes Algorithmic Oversight
- Title(参考訳): アカウンタビリティキャプチャ:AIの透明性とアカウンタビリティ(Re)がアルゴリズムの監視に与える影響
- Authors: Shreya Chappidi, Jennifer Cobbe, Chris Norval, Anjali Mazumder, Jatinder Singh,
- Abstract要約: 本稿では,レコード管理の実践が,説明責任体制内にアルゴリズムシステムをもたらす方法を検討する。
アルゴリズムのアカウンタビリティ体制において、透明性をサポートするためにレコード管理を実装することは、それ自体がより広い意味を持ちうることを示す。
- 参考スコア(独自算出の注目度): 8.915312467851532
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accountability regimes typically encourage record-keeping to enable the transparency that supports oversight, investigation, contestation, and redress. However, implementing such record-keeping can introduce considerations, risks, and consequences, which so far remain under-explored. This paper examines how record-keeping practices bring algorithmic systems within accountability regimes, providing a basis to observe and understand their effects. For this, we introduce, describe, and elaborate 'accountability capture' -- the re-configuration of socio-technical processes and the associated downstream effects relating to record-keeping for algorithmic accountability. Surveying 100 practitioners, we evidence and characterise record-keeping issues in practice, identifying their alignment with accountability capture. We further document widespread record-keeping practices, tensions between internal and external accountability requirements, and evidence of employee resistance to practices imposed through accountability capture. We discuss these and other effects for surveillance, privacy, and data protection, highlighting considerations for algorithmic accountability communities. In all, we show that implementing record-keeping to support transparency in algorithmic accountability regimes can itself bring wider implications -- an issue requiring greater attention from practitioners, researchers, and policymakers alike.
- Abstract(参考訳): アカウンタビリティ・レジームは一般的に、監視、調査、コンテスト、リフレッシュをサポートする透明性を実現するために記録保持を奨励する。
しかし、このような記録保持を行うことは、これまでのところ未調査のままである考慮、リスク、結果をもたらす可能性がある。
本稿では,記録維持実践が,説明責任体制内のアルゴリズムシステムをどのように導入し,その効果を観察し理解する基盤を提供するかを検討する。
本稿では,社会技術プロセスの再構成と,アルゴリズム的説明責任のためのレコード管理に関連する下流効果について紹介し,説明し,より精巧な「アカウンタビリティ・キャプチャー」を導入する。
実践者100名を対象に調査を行い,記録保持の問題の実証と特徴付けを行い,説明責任獲得との整合性を確認した。
さらに、幅広い記録保持の慣行、内部および外部の説明責任要件の緊張、および説明責任取得を通じて課された慣行に対する従業員の抵抗の証拠を文書化します。
監視,プライバシ,データ保護に対するこれらその他の効果について論じ,アルゴリズムによる説明責任コミュニティへの配慮を強調した。
全体として、アルゴリズムのアカウンタビリティ体制における透明性をサポートするためにレコード管理を実装することは、それ自体がより広範な影響をもたらす可能性があることを示します。
関連論文リスト
- A Law Reasoning Benchmark for LLM with Tree-Organized Structures including Factum Probandum, Evidence and Experiences [76.73731245899454]
本稿では,階層的なファクトラム,証拠,暗黙的な経験に富む透明な法理推論スキーマを提案する。
このスキーマにインスパイアされた課題は、テキストのケース記述を取り込み、最終決定を正当化する階層構造を出力する。
このベンチマークは、Intelligent Courtにおける透明で説明可能なAI支援法推論の道を開く」。
論文 参考訳(メタデータ) (2025-03-02T10:26:54Z) - Do We Need to Verify Step by Step? Rethinking Process Supervision from a Theoretical Perspective [59.61868506896214]
標準的なデータカバレッジの仮定では、強化学習はプロセスの監督よりも統計的に難しいものではない。
任意のポリシーの利点関数が最適なプロセス報酬モデルとして機能することを証明する。
論文 参考訳(メタデータ) (2025-02-14T22:21:56Z) - A Game-Theoretic Analysis of Auditing Differentially Private Algorithms with Epistemically Disparate Herd [16.10098472773814]
本研究は,Stackelbergゲームアプローチを用いたアルゴリズム開発者に対する群集監査の効果について検討する。
透明性と説明責任を高めることで、Hed auditはプライバシ保護アルゴリズムの責任ある開発に寄与する。
論文 参考訳(メタデータ) (2024-04-24T20:34:27Z) - Accountability in Offline Reinforcement Learning: Explaining Decisions
with a Corpus of Examples [70.84093873437425]
本稿では、オフラインデータセットを決定コーパスとして利用するAOC(Accountable Offline Controller)を紹介する。
AOCはローデータシナリオで効果的に動作し、厳密なオフラインの模倣設定まで拡張でき、保存性と適応性の両方の品質を示す。
シミュレーションおよび実世界の医療シナリオにおいて、AOCのパフォーマンスを評価し、説明責任を維持しながら高いレベルのパフォーマンスでオフライン制御タスクを管理する能力を強調した。
論文 参考訳(メタデータ) (2023-10-11T17:20:32Z) - Socratic Pretraining: Question-Driven Pretraining for Controllable
Summarization [89.04537372465612]
ソクラティック事前訓練は、要約タスクにおける制御性を改善するために設計された、質問駆動で教師なし事前訓練の目的である。
以上の結果から,Socraticプレトレーニングはタスク固有のラベル付きデータ要件を半分に削減することがわかった。
論文 参考訳(メタデータ) (2022-12-20T17:27:10Z) - A relationship and not a thing: A relational approach to algorithmic
accountability and assessment documentation [3.4438724671481755]
当社は、開発者はシステムがどのように動作するかに関する情報をほとんど独占していると論じています。
我々は、ロバストな説明責任体制は、大衆が共有された経験と関心を結び付ける機会を確立する必要があると論じている。
論文 参考訳(メタデータ) (2022-03-02T23:22:03Z) - Accountability in AI: From Principles to Industry-specific Accreditation [4.033641609534416]
最近のAI関連のスキャンダルは、AIのアカウンタビリティに注目を向けている。
本稿では2つの貢献をするために公共政策とガバナンスから文献を引用する。
論文 参考訳(メタデータ) (2021-10-08T16:37:11Z) - Trustworthy Artificial Intelligence and Process Mining: Challenges and
Opportunities [0.8602553195689513]
プロセスマイニングは、AIコンプライアンスプロセスの実行に事実に基づく可視性を得るために有用なフレームワークを提供することができることを示す。
AI規制コンプライアンスプロセスの不確実性を分析し、修正し、監視する自動化アプローチを提供する。
論文 参考訳(メタデータ) (2021-10-06T12:50:47Z) - Towards Accountability in the Use of Artificial Intelligence for Public
Administrations [0.0]
我々は、タスクが計算駆動システムに委譲されるとき、分散責任、受入、無知による受入という現象は不完全なデリゲーションの例であると主張する。
公的な透明性を通じた直接的説明責任と、公的な組織における監査人への透明性による間接的説明責任の両方が、民主的な自治の原則によるデオントロジーの問題として、倫理的にも倫理的にも必要である。
論文 参考訳(メタデータ) (2021-05-04T11:50:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。