論文の概要: Outsider Oversight: Designing a Third Party Audit Ecosystem for AI
Governance
- arxiv url: http://arxiv.org/abs/2206.04737v1
- Date: Thu, 9 Jun 2022 19:18:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 17:41:02.682117
- Title: Outsider Oversight: Designing a Third Party Audit Ecosystem for AI
Governance
- Title(参考訳): Outsider Oversight: AIガバナンスのための第三者監査エコシステム設計
- Authors: Inioluwa Deborah Raji, Peggy Xu, Colleen Honigsberg, Daniel E. Ho
- Abstract要約: 我々は、現在のAIの状況におけるサードパーティの監視の課題について論じる。
このような監査の制度設計はモノリシックとは程遠い。
我々は,監査のみへの転換が,実際のアルゴリズム的説明責任を達成する可能性は低いと結論づける。
- 参考スコア(独自算出の注目度): 3.8997087223115634
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Much attention has focused on algorithmic audits and impact assessments to
hold developers and users of algorithmic systems accountable. But existing
algorithmic accountability policy approaches have neglected the lessons from
non-algorithmic domains: notably, the importance of interventions that allow
for the effective participation of third parties. Our paper synthesizes lessons
from other fields on how to craft effective systems of external oversight for
algorithmic deployments. First, we discuss the challenges of third party
oversight in the current AI landscape. Second, we survey audit systems across
domains - e.g., financial, environmental, and health regulation - and show that
the institutional design of such audits are far from monolithic. Finally, we
survey the evidence base around these design components and spell out the
implications for algorithmic auditing. We conclude that the turn toward audits
alone is unlikely to achieve actual algorithmic accountability, and sustained
focus on institutional design will be required for meaningful third party
involvement.
- Abstract(参考訳): アルゴリズムシステムの開発者とユーザの責任を負うために、アルゴリズム監査と影響評価に多くの注意が向けられている。
しかし、既存のアルゴリズムによる説明責任政策アプローチは、非アルゴリズム的領域からの教訓を無視している。
本論文は,外部監視の効果的なシステムの構築方法に関する他の分野からの教訓を合成する。
まず、現在のAIの状況におけるサードパーティの監視の課題について論じる。
第2に、金融、環境、健康規制などの分野にわたる監査システムを調査し、そのような監査の制度設計がモノリシックとは程遠いことを示す。
最後に,これらの設計要素に関するエビデンスを調査し,アルゴリズム監査の意義について述べる。
我々は,監査のみへの転換が実際のアルゴリズム的説明責任を達成する可能性は低いと結論し,意義ある第三者の関与には,制度設計への継続的な注力が必要であると結論付けた。
関連論文リスト
- Open Problems in Technical AI Governance [93.89102632003996]
テクニカルAIガバナンス(Technical AI Governance)は、AIの効果的なガバナンスを支援するための技術分析とツールである。
本論文は、AIガバナンスへの貢献を目指す技術研究者や研究資金提供者のためのリソースとして意図されている。
論文 参考訳(メタデータ) (2024-07-20T21:13:56Z) - Auditing of AI: Legal, Ethical and Technical Approaches [0.0]
AI監査は、研究と実践の急速に成長している分野である。
AI監査に対する異なるアプローチには、さまざまな余裕と制約がある。
AIガバナンスメカニズムとしての監査の進化における次のステップは、これらの利用可能なアプローチのインターリンクであるべきです。
論文 参考訳(メタデータ) (2024-07-07T12:49:58Z) - A Blueprint for Auditing Generative AI [0.9999629695552196]
生成AIシステムは創発的な能力を示し、幅広い下流タスクに適応できる。
既存の監査手順は、生成的AIシステムによって引き起こされるガバナンスの課題に対処できない。
本稿では、生成AIシステムの設計と普及を行う技術提供者のガバナンス監査、事前学習後の生成AIシステムのモデル監査、生成AIシステムに基づくアプリケーションのアプリケーション監査という3層的なアプローチを提案する。
論文 参考訳(メタデータ) (2024-07-07T11:56:54Z) - Law and the Emerging Political Economy of Algorithmic Audits [1.3654846342364302]
デジタルサービス法(DSA)とオンライン安全法(OSA)は、テクノロジー企業や(伝統的に)監査人がアルゴリズム監査の実践を開発する枠組みを確立している。
本稿では,DSAとOSAにおける監査規定を,アルゴリズム監査の新興産業からの観測を踏まえて体系的にレビューする。
我々は、アルゴリズム監査の野心的な研究アイデアと技術プロジェクトは、従来の監査員の標準化によって崩壊する可能性があることを警告する。
論文 参考訳(メタデータ) (2024-04-03T19:45:30Z) - Computing Power and the Governance of Artificial Intelligence [51.967584623262674]
政府や企業は、AIを管理する手段として計算を活用し始めている。
計算ベースのポリシーと技術は、これらの領域を補助する可能性があるが、実装の準備ができている点で大きなバリエーションがある。
プライバシーや経済的影響、権力の中央集権化といった分野において、ガバナンスの計算方法の素早い、あるいは不十分なアプローチは重大なリスクを伴います。
論文 参考訳(メタデータ) (2024-02-13T21:10:21Z) - Who Audits the Auditors? Recommendations from a field scan of the
algorithmic auditing ecosystem [0.971392598996499]
AI監査エコシステムの最初の包括的なフィールドスキャンを提供する。
私たちは、新たなベストプラクティスと、一般的になりつつある方法やツールを特定します。
これらの監査の質と影響を改善するための政策勧告を概説する。
論文 参考訳(メタデータ) (2023-10-04T01:40:03Z) - The right to audit and power asymmetries in algorithm auditing [68.8204255655161]
IC2S2 2021でSandvig氏が言及した課題と漸近について詳しく説明する。
また、Sandvigがカバーしていない非対称性の議論にも貢献する。
本稿では,これらの非対称性がアルゴリズム監査研究に与える影響について論じる。
論文 参考訳(メタデータ) (2023-02-16T13:57:41Z) - Algorithmic Fairness and Vertical Equity: Income Fairness with IRS Tax
Audit Models [73.24381010980606]
本研究は、IRSによる税務監査選択を通知するシステムの文脈におけるアルゴリズムフェアネスの問題について検討する。
監査を選択するための柔軟な機械学習手法が、垂直エクイティにどのように影響するかを示す。
この結果は,公共セクター全体でのアルゴリズムツールの設計に影響を及ぼす。
論文 参考訳(メタデータ) (2022-06-20T16:27:06Z) - Towards a multi-stakeholder value-based assessment framework for
algorithmic systems [76.79703106646967]
我々は、価値間の近さと緊張を可視化する価値に基づくアセスメントフレームワークを開発する。
我々は、幅広い利害関係者に評価と検討のプロセスを開放しつつ、それらの運用方法に関するガイドラインを提示する。
論文 参考訳(メタデータ) (2022-05-09T19:28:32Z) - Inverse Online Learning: Understanding Non-Stationary and Reactionary
Policies [79.60322329952453]
エージェントが意思決定を行う方法の解釈可能な表現を開発する方法を示す。
一連の軌跡に基づく意思決定プロセスを理解することにより,このオンライン学習問題に対して,政策推論問題を逆問題とみなした。
本稿では、エージェントがそれらを更新するプロセスと並行して、その影響を遡及的に推定する実用的なアルゴリズムを提案する。
UNOSの臓器提供受諾決定の分析に応用することで、我々のアプローチは意思決定プロセスを管理する要因や時間とともにどのように変化するかに、貴重な洞察をもたらすことができることを実証する。
論文 参考訳(メタデータ) (2022-03-14T17:40:42Z) - Closing the AI Accountability Gap: Defining an End-to-End Framework for
Internal Algorithmic Auditing [8.155332346712424]
本稿では,人工知能システム開発をエンドツーエンドでサポートするアルゴリズム監査フレームワークを提案する。
提案する監査フレームワークは,大規模人工知能システムの開発と展開において,説明責任のギャップを埋めることを目的としている。
論文 参考訳(メタデータ) (2020-01-03T20:19:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。