論文の概要: Regulation Games for Trustworthy Machine Learning
- arxiv url: http://arxiv.org/abs/2402.03540v1
- Date: Mon, 5 Feb 2024 21:54:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-07 17:51:16.326364
- Title: Regulation Games for Trustworthy Machine Learning
- Title(参考訳): 信頼できる機械学習のための規制ゲーム
- Authors: Mohammad Yaghini, Patty Liu, Franziska Boenisch, Nicolas Papernot
- Abstract要約: 本稿では,信頼性の高い機械学習を多目的マルチエージェント最適化問題とみなすフレームワークを提案する。
これは当然、私たちが規制ゲームと呼ぶゲーム理論の定式化に結びつく。
性別分類アプリケーションでは、規制当局がまず希望する保証を規定するイニシアチブを採れば、平均4.0以下の差分プライバシー予算を適用できることを示す。
- 参考スコア(独自算出の注目度): 36.650015454939414
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing work on trustworthy machine learning (ML) often concentrates on
individual aspects of trust, such as fairness or privacy. Additionally, many
techniques overlook the distinction between those who train ML models and those
responsible for assessing their trustworthiness. To address these issues, we
propose a framework that views trustworthy ML as a multi-objective multi-agent
optimization problem. This naturally lends itself to a game-theoretic
formulation we call regulation games. We illustrate a particular game instance,
the SpecGame in which we model the relationship between an ML model builder and
fairness and privacy regulators. Regulators wish to design penalties that
enforce compliance with their specification, but do not want to discourage
builders from participation. Seeking such socially optimal (i.e., efficient for
all agents) solutions to the game, we introduce ParetoPlay. This novel
equilibrium search algorithm ensures that agents remain on the Pareto frontier
of their objectives and avoids the inefficiencies of other equilibria.
Simulating SpecGame through ParetoPlay can provide policy guidance for ML
Regulation. For instance, we show that for a gender classification application,
regulators can enforce a differential privacy budget that is on average 4.0
lower if they take the initiative to specify their desired guarantee first.
- Abstract(参考訳): 信頼に値する機械学習(ML)に関する既存の作業は、公正さやプライバシなど、信頼の個々の側面に集中することが多い。
さらに、多くのテクニックは、MLモデルをトレーニングする人と、信頼性を評価する責任を持つ人との違いを見落としています。
これらの問題に対処するために,信頼性の高いMLを多目的マルチエージェント最適化問題とみなすフレームワークを提案する。
これは、レギュレーションゲームと呼ばれるゲーム理論の定式化に自然に役立ちます。
MLモデルビルダーと公正性とプライバシ規制の関係をモデル化する,特定のゲームインスタンスであるSpecGameについて説明する。
レギュレータは、仕様の遵守を強制する罰則を設計したいが、ビルダーへの参加を妨げたくない。
このような社会的に最適(つまり全てのエージェントに効率的)なソリューションをゲームに求め、ParetoPlayを紹介します。
この新しい平衡探索アルゴリズムは、エージェントがその目的のパレートフロンティアに留まり、他の平衡の非効率性を避けることを保証する。
paretoplayによるspecgameのシミュレーションは、ml規制のためのポリシーガイダンスを提供する。
例えば、性別分類のアプリケーションでは、規制当局が要求される保証を最初に指定するイニシアチブをとると、平均4.0未満のディファレンシャルプライバシー予算を強制できることを示します。
関連論文リスト
- Toward Optimal LLM Alignments Using Two-Player Games [86.39338084862324]
本稿では,対戦相手と防御エージェントの反復的相互作用を含む2エージェントゲームのレンズによるアライメントについて検討する。
この反復的強化学習最適化がエージェントによって誘導されるゲームに対するナッシュ平衡に収束することを理論的に実証する。
安全シナリオにおける実験結果から、このような競争環境下での学習は、完全に訓練するエージェントだけでなく、敵エージェントと防御エージェントの両方に対する一般化能力の向上したポリシーにつながることが示されている。
論文 参考訳(メタデータ) (2024-06-16T15:24:50Z) - Blending Data-Driven Priors in Dynamic Games [9.085463548798366]
Kullback-Leibler (KL) 正規化による非協調的ダイナミックゲームの解法を定式化する。
我々は,KLGameのNash平衡戦略を,マルチモーダル近似フィードバックをリアルタイムに計算するための効率的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-21T23:22:32Z) - Auto-Encoding Bayesian Inverse Games [36.06617326128679]
ゲームの性質が不明な逆ゲーム問題を考える。
既存の最大推定手法は、未知のパラメータの点推定のみを提供する。
ベイズ的視点を採り、ゲームパラメータの後方分布を構成する。
この構造化されたVAEは、観測された相互作用のラベルのないデータセットから訓練することができる。
論文 参考訳(メタデータ) (2024-02-14T02:17:37Z) - Optimistic Policy Gradient in Multi-Player Markov Games with a Single
Controller: Convergence Beyond the Minty Property [89.96815099996132]
単一コントローラを用いたマルチプレイヤーゲームにおいて,楽観的なポリシー勾配手法を特徴付ける新しいフレームワークを開発した。
我々のアプローチは、我々が導入する古典的なミニティの自然一般化に依存しており、マルコフゲームを超えてさらなる応用が期待できる。
論文 参考訳(メタデータ) (2023-12-19T11:34:10Z) - Provably Efficient Generalized Lagrangian Policy Optimization for Safe
Multi-Agent Reinforcement Learning [105.7510838453122]
制約付きマルコフゲームを用いたオンライン安全なマルチエージェント強化学習について検討する。
我々は,このラグランジアン問題を解くための高信頼強化学習アルゴリズムを開発した。
提案アルゴリズムは,オンラインミラー降下によるミニマックス決定主元変数と,投影勾配ステップによる双対変数を更新する。
論文 参考訳(メタデータ) (2023-05-31T22:09:24Z) - Learning with Impartiality to Walk on the Pareto Frontier of Fairness,
Privacy, and Utility [28.946180502706504]
機械学習パイプラインは、別の目的を優先すべきではない、と私たちは主張する。
本稿では,目的間の固有のトレードオフを示す,公平に特定されたモデルを提案する。
プライバシを意識したMLパイプラインに、公正さの緩和が組み込まれるべきかどうかという疑問に対する回答を提供する。
論文 参考訳(メタデータ) (2023-02-17T23:23:45Z) - Towards Multi-Agent Reinforcement Learning driven Over-The-Counter
Market Simulations [16.48389671789281]
オーバー・ザ・カウンタ市場において,流動性提供者と流動性取扱業者が相互作用するゲームについて検討した。
互いに対戦することで、深層強化学習主体のエージェントは創発的な行動を学ぶ。
遷移性仮定の下で,多エージェントポリシー勾配アルゴリズムの収束率を示す。
論文 参考訳(メタデータ) (2022-10-13T17:06:08Z) - Provably Efficient Fictitious Play Policy Optimization for Zero-Sum
Markov Games with Structured Transitions [145.54544979467872]
本研究では,ゼロサムマルコフゲームに対して,構造的だが未知の遷移を伴う架空のプレイポリシー最適化アルゴリズムを提案し,解析する。
我々は、2年制の競争ゲームシナリオで、$K$のエピソードに続き、$widetildemathcalO(sqrtK)$ regret boundsを証明した。
提案アルゴリズムは,アッパー信頼境界(UCB)型最適化と,同時政策最適化の範囲内での架空のプレイの組み合わせを特徴とする。
論文 参考訳(メタデータ) (2022-07-25T18:29:16Z) - Formalizing the Problem of Side Effect Regularization [81.97441214404247]
本稿では,補助ゲームフレームワークを用いたサイドエフェクト正規化のための公式な基準を提案する。
これらのゲームでは、エージェントは部分的に観測可能なマルコフ決定プロセスを解決する。
このPOMDPは、エージェントが将来的なタスクをこなす能力と、プロキシ報酬を交換することで解決されることを示す。
論文 参考訳(メタデータ) (2022-06-23T16:36:13Z) - Human-in-the-loop online multi-agent approach to increase
trustworthiness in ML models through trust scores and data augmentation [0.0]
本稿では,機械エージェントと人エージェントを併用したマルチエージェントシステムを提案する。
我々は,MNISTおよびFashionMNISTデータセットの劣化バージョンに基づくシステムの評価を行った。
論文 参考訳(メタデータ) (2022-04-29T17:33:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。