論文の概要: Outsider Oversight: Designing a Third Party Audit Ecosystem for AI
Governance
- arxiv url: http://arxiv.org/abs/2206.04737v1
- Date: Thu, 9 Jun 2022 19:18:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 17:41:02.682117
- Title: Outsider Oversight: Designing a Third Party Audit Ecosystem for AI
Governance
- Title(参考訳): Outsider Oversight: AIガバナンスのための第三者監査エコシステム設計
- Authors: Inioluwa Deborah Raji, Peggy Xu, Colleen Honigsberg, Daniel E. Ho
- Abstract要約: 我々は、現在のAIの状況におけるサードパーティの監視の課題について論じる。
このような監査の制度設計はモノリシックとは程遠い。
我々は,監査のみへの転換が,実際のアルゴリズム的説明責任を達成する可能性は低いと結論づける。
- 参考スコア(独自算出の注目度): 3.8997087223115634
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Much attention has focused on algorithmic audits and impact assessments to
hold developers and users of algorithmic systems accountable. But existing
algorithmic accountability policy approaches have neglected the lessons from
non-algorithmic domains: notably, the importance of interventions that allow
for the effective participation of third parties. Our paper synthesizes lessons
from other fields on how to craft effective systems of external oversight for
algorithmic deployments. First, we discuss the challenges of third party
oversight in the current AI landscape. Second, we survey audit systems across
domains - e.g., financial, environmental, and health regulation - and show that
the institutional design of such audits are far from monolithic. Finally, we
survey the evidence base around these design components and spell out the
implications for algorithmic auditing. We conclude that the turn toward audits
alone is unlikely to achieve actual algorithmic accountability, and sustained
focus on institutional design will be required for meaningful third party
involvement.
- Abstract(参考訳): アルゴリズムシステムの開発者とユーザの責任を負うために、アルゴリズム監査と影響評価に多くの注意が向けられている。
しかし、既存のアルゴリズムによる説明責任政策アプローチは、非アルゴリズム的領域からの教訓を無視している。
本論文は,外部監視の効果的なシステムの構築方法に関する他の分野からの教訓を合成する。
まず、現在のAIの状況におけるサードパーティの監視の課題について論じる。
第2に、金融、環境、健康規制などの分野にわたる監査システムを調査し、そのような監査の制度設計がモノリシックとは程遠いことを示す。
最後に,これらの設計要素に関するエビデンスを調査し,アルゴリズム監査の意義について述べる。
我々は,監査のみへの転換が実際のアルゴリズム的説明責任を達成する可能性は低いと結論し,意義ある第三者の関与には,制度設計への継続的な注力が必要であると結論付けた。
関連論文リスト
- Computing Power and the Governance of Artificial Intelligence [51.967584623262674]
政府や企業は、AIを管理する手段として計算を活用し始めている。
計算ベースのポリシーと技術は、これらの領域を補助する可能性があるが、実装の準備ができている点で大きなバリエーションがある。
プライバシーや経済的影響、権力の中央集権化といった分野において、ガバナンスの計算方法の素早い、あるいは不十分なアプローチは重大なリスクを伴います。
論文 参考訳(メタデータ) (2024-02-13T21:10:21Z) - AI auditing: The Broken Bus on the Road to AI Accountability [1.9758196889515185]
「AI監査」エコシステムは泥だらけで不正確で、様々な概念を掘り下げて、実践に関わるステークホルダーをマップアウトするのは困難です。
まず、規制当局、法律事務所、市民社会、ジャーナリズム、アカデミック、コンサルティング機関による現在のAI監査の実践を分類する。
私たちは、AI監査研究のごく一部だけが、望ましい説明責任の結果に変換されていることに気付きました。
論文 参考訳(メタデータ) (2024-01-25T19:00:29Z) - Mathematical Algorithm Design for Deep Learning under Societal and
Judicial Constraints: The Algorithmic Transparency Requirement [65.26723285209853]
計算モデルにおける透過的な実装が実現可能かどうかを分析するための枠組みを導出する。
以上の結果から,Blum-Shub-Smale Machinesは,逆問題に対する信頼性の高い解法を確立できる可能性が示唆された。
論文 参考訳(メタデータ) (2024-01-18T15:32:38Z) - Who Audits the Auditors? Recommendations from a field scan of the
algorithmic auditing ecosystem [0.971392598996499]
AI監査エコシステムの最初の包括的なフィールドスキャンを提供する。
私たちは、新たなベストプラクティスと、一般的になりつつある方法やツールを特定します。
これらの監査の質と影響を改善するための政策勧告を概説する。
論文 参考訳(メタデータ) (2023-10-04T01:40:03Z) - The right to audit and power asymmetries in algorithm auditing [68.8204255655161]
IC2S2 2021でSandvig氏が言及した課題と漸近について詳しく説明する。
また、Sandvigがカバーしていない非対称性の議論にも貢献する。
本稿では,これらの非対称性がアルゴリズム監査研究に与える影響について論じる。
論文 参考訳(メタデータ) (2023-02-16T13:57:41Z) - Algorithmic Fairness and Vertical Equity: Income Fairness with IRS Tax
Audit Models [73.24381010980606]
本研究は、IRSによる税務監査選択を通知するシステムの文脈におけるアルゴリズムフェアネスの問題について検討する。
監査を選択するための柔軟な機械学習手法が、垂直エクイティにどのように影響するかを示す。
この結果は,公共セクター全体でのアルゴリズムツールの設計に影響を及ぼす。
論文 参考訳(メタデータ) (2022-06-20T16:27:06Z) - Towards a multi-stakeholder value-based assessment framework for
algorithmic systems [76.79703106646967]
我々は、価値間の近さと緊張を可視化する価値に基づくアセスメントフレームワークを開発する。
我々は、幅広い利害関係者に評価と検討のプロセスを開放しつつ、それらの運用方法に関するガイドラインを提示する。
論文 参考訳(メタデータ) (2022-05-09T19:28:32Z) - Justice in Misinformation Detection Systems: An Analysis of Algorithms,
Stakeholders, and Potential Harms [2.5372245630249632]
誤情報検出パイプラインにおける3つのアルゴリズム段階の利害関係者に対して、不正がいかに有効であるかを示す。
この枠組みは、研究者、政策立案者、そして実践者がアルゴリズムの誤情報検出に関連する潜在的な害やリスクを判断するのに役立つだろう。
論文 参考訳(メタデータ) (2022-04-28T15:31:13Z) - Inverse Online Learning: Understanding Non-Stationary and Reactionary
Policies [79.60322329952453]
エージェントが意思決定を行う方法の解釈可能な表現を開発する方法を示す。
一連の軌跡に基づく意思決定プロセスを理解することにより,このオンライン学習問題に対して,政策推論問題を逆問題とみなした。
本稿では、エージェントがそれらを更新するプロセスと並行して、その影響を遡及的に推定する実用的なアルゴリズムを提案する。
UNOSの臓器提供受諾決定の分析に応用することで、我々のアプローチは意思決定プロセスを管理する要因や時間とともにどのように変化するかに、貴重な洞察をもたらすことができることを実証する。
論文 参考訳(メタデータ) (2022-03-14T17:40:42Z) - System Cards for AI-Based Decision-Making for Public Policy [5.076419064097733]
本研究では,人工知能に基づく意思決定システムの公式監査のためのシステム説明責任ベンチマークを提案する。
これは、(i)データ、(ii)モデル、(iii)コード、(iv)システム、および(a)開発、(b)評価、(c)緩和、(d)保証に焦点を当てた行からなる4つの4つの4つの行列にまとめられた56の基準からなる。
論文 参考訳(メタデータ) (2022-03-01T18:56:45Z) - Closing the AI Accountability Gap: Defining an End-to-End Framework for
Internal Algorithmic Auditing [8.155332346712424]
本稿では,人工知能システム開発をエンドツーエンドでサポートするアルゴリズム監査フレームワークを提案する。
提案する監査フレームワークは,大規模人工知能システムの開発と展開において,説明責任のギャップを埋めることを目的としている。
論文 参考訳(メタデータ) (2020-01-03T20:19:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。