論文の概要: A Game-Theoretic Analysis of Auditing Differentially Private Algorithms with Epistemically Disparate Herd
- arxiv url: http://arxiv.org/abs/2404.16195v1
- Date: Wed, 24 Apr 2024 20:34:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-26 15:27:26.455131
- Title: A Game-Theoretic Analysis of Auditing Differentially Private Algorithms with Epistemically Disparate Herd
- Title(参考訳): 認識的異種群を用いた個人差分アルゴリズムのゲーム理論解析
- Authors: Ya-Ting Yang, Tao Zhang, Quanyan Zhu,
- Abstract要約: 本研究は,Stackelbergゲームアプローチを用いたアルゴリズム開発者に対する群集監査の効果について検討する。
透明性と説明責任を高めることで、Hed auditはプライバシ保護アルゴリズムの責任ある開発に寄与する。
- 参考スコア(独自算出の注目度): 16.10098472773814
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Privacy-preserving AI algorithms are widely adopted in various domains, but the lack of transparency might pose accountability issues. While auditing algorithms can address this issue, machine-based audit approaches are often costly and time-consuming. Herd audit, on the other hand, offers an alternative solution by harnessing collective intelligence. Nevertheless, the presence of epistemic disparity among auditors, resulting in varying levels of expertise and access to knowledge, may impact audit performance. An effective herd audit will establish a credible accountability threat for algorithm developers, incentivizing them to uphold their claims. In this study, our objective is to develop a systematic framework that examines the impact of herd audits on algorithm developers using the Stackelberg game approach. The optimal strategy for auditors emphasizes the importance of easy access to relevant information, as it increases the auditors' confidence in the audit process. Similarly, the optimal choice for developers suggests that herd audit is viable when auditors face lower costs in acquiring knowledge. By enhancing transparency and accountability, herd audit contributes to the responsible development of privacy-preserving algorithms.
- Abstract(参考訳): プライバシを保存するAIアルゴリズムは、さまざまな領域で広く採用されているが、透明性の欠如は説明責任の問題を引き起こす可能性がある。
監査アルゴリズムはこの問題に対処できるが、マシンベースの監査アプローチはしばしばコストと時間を要する。
一方、Herd auditは、集団知性を活用して代替のソリューションを提供する。
にもかかわらず、様々なレベルの専門知識と知識へのアクセスをもたらす監査者間の疫学的な格差の存在は、監査のパフォーマンスに影響を及ぼす可能性がある。
効果的な羊飼いの監査は、アルゴリズム開発者の信用可能な説明責任の脅威を確立し、彼らの主張を裏付けるインセンティブを与える。
本研究の目的は,Stackelbergのゲームアプローチを用いて,アルゴリズム開発者に対する監査が与える影響を調査する,体系的なフレームワークを開発することである。
監査人にとって最適な戦略は、監査プロセスにおける監査人の自信を高めるため、関連する情報への容易なアクセスの重要性を強調している。
同様に、ディベロッパにとって最適な選択は、監査人が知識獲得のコストを下げる場合、羊飼いの監査が実行可能であることを示唆している。
透明性と説明責任を高めることで、Hed auditはプライバシ保護アルゴリズムの責任ある開発に寄与する。
関連論文リスト
- A Framework for Assurance Audits of Algorithmic Systems [2.367447006657134]
ますます多くの規制が、AIシステムの透明性と説明責任を達成するための実施メカニズムとして、AI監査の概念を提案している。
さまざまな形のAI監査に関するいくつかの規範にもかかわらず、コンプライアンスと保証の目的のための監査は現在、プラクティス、手順、標準についてほとんど合意されていない。
本稿では,運用可能なコンプライアンスおよび保証外部監査フレームワークとして,基準監査を提案する。
論文 参考訳(メタデータ) (2024-01-26T14:38:54Z) - Black-Box Access is Insufficient for Rigorous AI Audits [26.32783273995606]
ブラックボックス監査の限界と、ホワイトボックスとアウトサイドボックス監査の利点について論じる。
また、これらの監査を最小限のセキュリティリスクで実施するための技術的、物理的、法的保護についても論じる。
論文 参考訳(メタデータ) (2024-01-25T18:58:05Z) - Who Audits the Auditors? Recommendations from a field scan of the
algorithmic auditing ecosystem [0.971392598996499]
AI監査エコシステムの最初の包括的なフィールドスキャンを提供する。
私たちは、新たなベストプラクティスと、一般的になりつつある方法やツールを特定します。
これらの監査の質と影響を改善するための政策勧告を概説する。
論文 参考訳(メタデータ) (2023-10-04T01:40:03Z) - The right to audit and power asymmetries in algorithm auditing [68.8204255655161]
IC2S2 2021でSandvig氏が言及した課題と漸近について詳しく説明する。
また、Sandvigがカバーしていない非対称性の議論にも貢献する。
本稿では,これらの非対称性がアルゴリズム監査研究に与える影響について論じる。
論文 参考訳(メタデータ) (2023-02-16T13:57:41Z) - Tight Auditing of Differentially Private Machine Learning [77.38590306275877]
プライベート機械学習では、既存の監査メカニズムは厳格である。
彼らは不確実な最悪の仮定の下でのみ厳密な見積もりを行う。
我々は、自然(逆向きではない)データセットの厳密なプライバシー推定を得られる改善された監査スキームを設計する。
論文 参考訳(メタデータ) (2023-02-15T21:40:33Z) - Having your Privacy Cake and Eating it Too: Platform-supported Auditing
of Social Media Algorithms for Public Interest [70.02478301291264]
ソーシャルメディアプラットフォームは、情報や機会へのアクセスをキュレートするので、公衆の言論を形成する上で重要な役割を果たす。
これまでの研究では、これらのアルゴリズムが偏見や差別的な結果をもたらすことを示すためにブラックボックス法が用いられてきた。
本稿では,提案法の目標を満たすプラットフォーム支援型監査手法を提案する。
論文 参考訳(メタデータ) (2022-07-18T17:32:35Z) - Algorithmic Fairness and Vertical Equity: Income Fairness with IRS Tax
Audit Models [73.24381010980606]
本研究は、IRSによる税務監査選択を通知するシステムの文脈におけるアルゴリズムフェアネスの問題について検討する。
監査を選択するための柔軟な機械学習手法が、垂直エクイティにどのように影響するかを示す。
この結果は,公共セクター全体でのアルゴリズムツールの設計に影響を及ぼす。
論文 参考訳(メタデータ) (2022-06-20T16:27:06Z) - Outsider Oversight: Designing a Third Party Audit Ecosystem for AI
Governance [3.8997087223115634]
我々は、現在のAIの状況におけるサードパーティの監視の課題について論じる。
このような監査の制度設計はモノリシックとは程遠い。
我々は,監査のみへの転換が,実際のアルゴリズム的説明責任を達成する可能性は低いと結論づける。
論文 参考訳(メタデータ) (2022-06-09T19:18:47Z) - Debugging Differential Privacy: A Case Study for Privacy Auditing [60.87570714269048]
監査は、微分プライベートなスキームの欠陥を見つけるためにも利用できることを示す。
このケーススタディでは、微分プライベートなディープラーニングアルゴリズムの最近のオープンソース実装を監査し、99.9999999999%の信頼を得て、この実装が要求される差分プライバシー保証を満たさないことを発見した。
論文 参考訳(メタデータ) (2022-02-24T17:31:08Z) - Algorithmic audits of algorithms, and the law [3.9103337761169943]
対象アルゴリズムのユーザ側とのインタラクションによって実施される外部監査に注目した。
これらの監査が行われる法的な枠組みは、主にそれらを開発する研究者にとって曖昧である。
本稿では,アルゴリズム監査の進展する分野を構築するために,現在実施されている監査と法との関係を概説する。
論文 参考訳(メタデータ) (2022-02-15T14:20:53Z) - Confidence-Budget Matching for Sequential Budgeted Learning [69.77435313099366]
問合せ予算で意思決定問題を定式化する。
我々は,多腕バンディット,線形バンディット,強化学習問題を考察する。
我々は,CBMに基づくアルゴリズムが逆性の存在下で良好に動作することを示す。
論文 参考訳(メタデータ) (2021-02-05T19:56:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。