論文の概要: Algorithmic audits of algorithms, and the law
- arxiv url: http://arxiv.org/abs/2203.03711v1
- Date: Tue, 15 Feb 2022 14:20:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-13 14:02:10.721102
- Title: Algorithmic audits of algorithms, and the law
- Title(参考訳): アルゴリズムのアルゴリズム監査と法
- Authors: Erwan Le Merrer and Ronan Pons and Gilles Tr\'edan
- Abstract要約: 対象アルゴリズムのユーザ側とのインタラクションによって実施される外部監査に注目した。
これらの監査が行われる法的な枠組みは、主にそれらを開発する研究者にとって曖昧である。
本稿では,アルゴリズム監査の進展する分野を構築するために,現在実施されている監査と法との関係を概説する。
- 参考スコア(独自算出の注目度): 3.9103337761169943
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Algorithmic decision making is now widespread, ranging from health care
allocation to more common actions such as recommendation or information
ranking. The aim to audit these algorithms has grown alongside. In this paper,
we focus on external audits that are conducted by interacting with the user
side of the target algorithm, hence considered as a black box. Yet, the legal
framework in which these audits take place is mostly ambiguous to researchers
developing them: on the one hand, the legal value of the audit outcome is
uncertain; on the other hand the auditors' rights and obligations are unclear.
The contribution of this paper is to articulate two canonical audit forms to
law, to shed light on these aspects: 1) the first audit form (we coin the Bobby
audit form) checks a predicate against the algorithm, while the second
(Sherlock) is more loose and opens up to multiple investigations. We find that:
Bobby audits are more amenable to prosecution, yet are delicate as operating on
real user data. This can lead to reject by a court (notion of admissibility).
Sherlock audits craft data for their operation, most notably to build
surrogates of the audited algorithm. It is mostly used for acts for
whistleblowing, as even if accepted as a proof, the evidential value will be
low in practice. 2) these two forms require the prior respect of a proper right
to audit, granted by law or by the platform being audited; otherwise the
auditor will be also prone to prosecutions regardless of the audit outcome.
This article thus highlights the relation of current audits with law, in order
to structure the growing field of algorithm auditing.
- Abstract(参考訳): アルゴリズムによる意思決定は、医療の割り当てからレコメンデーションや情報ランキングといったより一般的なアクションまで、広く行われている。
これらのアルゴリズムを監査する目的も大きくなっている。
本稿では,対象アルゴリズムのユーザ側と対話することにより実施される,ブラックボックスとみなされる外部監査に着目した。
しかし、これらの監査が行われる法的枠組みは、研究者にとってほとんど曖昧であり、一方、監査結果の法的価値は不明確であり、一方、監査人の権利と義務は不明確である。
本論文の貢献は,2つの標準監査形式を法に具体化し,これらの側面に光を当てることである。
1) 第1の監査形式(ボビー監査形式)はアルゴリズムに対する述語をチェックし、第2の監査形式(シャーロック)はよりゆるく、複数の調査に開放される。
Bobby監査は、訴追には適しているが、実際のユーザデータを操作するほど繊細である。
これは裁判所によって拒絶される可能性がある(許可の欠如)。
Sherlockは、そのオペレーションのためのクラフトデータを監査し、特に、監査されたアルゴリズムのサロゲートを構築する。
口笛を吹く行為に主に用いられるが、たとえ証明として受け入れられても、その明らかな価値は実際は低い。
2 この二の形式は、監査権の事前の尊重、法律による、又は監査対象のプラットフォームによる認可、その他監査の成果にかかわらず、監査人もまた訴追されるおそれがある。
本稿では,アルゴリズム監査の進展する分野を構築するために,現在の監査と法との関係について述べる。
関連論文リスト
- Auditing for Bias in Ad Delivery Using Inferred Demographic Attributes [50.37313459134418]
広告配信のブラックボックス監査において,予測誤差が偏見の監査に与える影響について検討した。
本稿では,広告配信アルゴリズムのスキュー評価において,推測誤差を軽減する手法を提案する。
論文 参考訳(メタデータ) (2024-10-30T18:57:03Z) - From Transparency to Accountability and Back: A Discussion of Access and Evidence in AI Auditing [1.196505602609637]
監査は、デプロイ前のリスクアセスメント、進行中の監視、コンプライアンステストなど、さまざまな形式で実施することができる。
AI監査には、その実装を複雑にする多くの運用上の課題がある。
我々は、監査は自然な仮説テストとして、並列仮説テストと法的手続きを引き出すことができると論じ、このフレーミングは、監査実施に関する明確かつ解釈可能なガイダンスを提供すると論じる。
論文 参考訳(メタデータ) (2024-10-07T06:15:46Z) - A Game-Theoretic Analysis of Auditing Differentially Private Algorithms with Epistemically Disparate Herd [16.10098472773814]
本研究は,Stackelbergゲームアプローチを用いたアルゴリズム開発者に対する群集監査の効果について検討する。
透明性と説明責任を高めることで、Hed auditはプライバシ保護アルゴリズムの責任ある開発に寄与する。
論文 参考訳(メタデータ) (2024-04-24T20:34:27Z) - The Decisive Power of Indecision: Low-Variance Risk-Limiting Audits and Election Contestation via Marginal Mark Recording [51.82772358241505]
リスクリミット監査(リスクリミット監査、RLA)は、大規模な選挙の結果を検証する技術である。
我々は、効率を改善し、統計力の進歩を提供する監査の新たなファミリーを定めている。
新しい監査は、複数の可能なマーク解釈を宣言できるように、キャストボイトレコードの標準概念を再考することで実現される。
論文 参考訳(メタデータ) (2024-02-09T16:23:54Z) - Who Audits the Auditors? Recommendations from a field scan of the
algorithmic auditing ecosystem [0.971392598996499]
AI監査エコシステムの最初の包括的なフィールドスキャンを提供する。
私たちは、新たなベストプラクティスと、一般的になりつつある方法やツールを特定します。
これらの監査の質と影響を改善するための政策勧告を概説する。
論文 参考訳(メタデータ) (2023-10-04T01:40:03Z) - On the relevance of APIs facing fairwashed audits [3.479254848034425]
最近の法律では、規制当局が法律へのコンプライアンスを評価するためのAPIの提供をAIプラットフォームに要求している。
調査によると、プラットフォームはフェアウォッシングによってAPIの回答を操作できる。
本稿では,プラットフォームスクレイピングとAPIの併用によるメリットについて検討する。
論文 参考訳(メタデータ) (2023-05-23T10:06:22Z) - The right to audit and power asymmetries in algorithm auditing [68.8204255655161]
IC2S2 2021でSandvig氏が言及した課題と漸近について詳しく説明する。
また、Sandvigがカバーしていない非対称性の議論にも貢献する。
本稿では,これらの非対称性がアルゴリズム監査研究に与える影響について論じる。
論文 参考訳(メタデータ) (2023-02-16T13:57:41Z) - Tight Auditing of Differentially Private Machine Learning [77.38590306275877]
プライベート機械学習では、既存の監査メカニズムは厳格である。
彼らは不確実な最悪の仮定の下でのみ厳密な見積もりを行う。
我々は、自然(逆向きではない)データセットの厳密なプライバシー推定を得られる改善された監査スキームを設計する。
論文 参考訳(メタデータ) (2023-02-15T21:40:33Z) - Having your Privacy Cake and Eating it Too: Platform-supported Auditing
of Social Media Algorithms for Public Interest [70.02478301291264]
ソーシャルメディアプラットフォームは、情報や機会へのアクセスをキュレートするので、公衆の言論を形成する上で重要な役割を果たす。
これまでの研究では、これらのアルゴリズムが偏見や差別的な結果をもたらすことを示すためにブラックボックス法が用いられてきた。
本稿では,提案法の目標を満たすプラットフォーム支援型監査手法を提案する。
論文 参考訳(メタデータ) (2022-07-18T17:32:35Z) - Algorithmic Fairness and Vertical Equity: Income Fairness with IRS Tax
Audit Models [73.24381010980606]
本研究は、IRSによる税務監査選択を通知するシステムの文脈におけるアルゴリズムフェアネスの問題について検討する。
監査を選択するための柔軟な機械学習手法が、垂直エクイティにどのように影響するかを示す。
この結果は,公共セクター全体でのアルゴリズムツールの設計に影響を及ぼす。
論文 参考訳(メタデータ) (2022-06-20T16:27:06Z) - Problematic Machine Behavior: A Systematic Literature Review of
Algorithm Audits [0.0]
このレビューは、PRISMAガイドラインに従い、62のアルゴリズム監査研究を生んだ500以上の英文記事のレビューです。
研究は、主に行動(差別、歪み、搾取、誤判定)によって合成され、組織されます。
この論文は、監査の成功の共通要素を提供し、幅広い研究の文脈でアルゴリズム監査について議論することで締めくくっている。
論文 参考訳(メタデータ) (2021-02-03T19:21:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。