論文の概要: Data Poisoning Attacks on Off-Policy Policy Evaluation Methods
- arxiv url: http://arxiv.org/abs/2404.04714v1
- Date: Sat, 6 Apr 2024 19:27:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-09 20:00:13.083378
- Title: Data Poisoning Attacks on Off-Policy Policy Evaluation Methods
- Title(参考訳): オフ・ポリティィ政策評価手法におけるデータ・ポジショニング攻撃
- Authors: Elita Lobo, Harvineet Singh, Marek Petrik, Cynthia Rudin, Himabindu Lakkaraju,
- Abstract要約: 本研究は,OPE手法の差分摂動に対する感度を調査するための最初の試みである。
我々は、ロバストな統計から影響関数を活用する汎用データ中毒攻撃フレームワークを設計し、ポリシー値推定における誤差を最大化する摂動を慎重に構築する。
以上の結果から,多くの既存OPE法は, 逆方向の摂動であっても, データ中毒攻撃を受ける場合, 誤差が大きい値の推定値を生成する傾向が示唆された。
- 参考スコア(独自算出の注目度): 38.68161633374251
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Off-policy Evaluation (OPE) methods are a crucial tool for evaluating policies in high-stakes domains such as healthcare, where exploration is often infeasible, unethical, or expensive. However, the extent to which such methods can be trusted under adversarial threats to data quality is largely unexplored. In this work, we make the first attempt at investigating the sensitivity of OPE methods to marginal adversarial perturbations to the data. We design a generic data poisoning attack framework leveraging influence functions from robust statistics to carefully construct perturbations that maximize error in the policy value estimates. We carry out extensive experimentation with multiple healthcare and control datasets. Our results demonstrate that many existing OPE methods are highly prone to generating value estimates with large errors when subject to data poisoning attacks, even for small adversarial perturbations. These findings question the reliability of policy values derived using OPE methods and motivate the need for developing OPE methods that are statistically robust to train-time data poisoning attacks.
- Abstract(参考訳): オフ・ポリティ・アセスメント(OPE)手法は、医療などの高額な領域において、探索が不可能、非倫理的、あるいは高価である場合において、政策を評価するための重要なツールである。
しかし、データ品質に対する敵対的脅威の下で、そのような手法が信頼できる範囲は、明らかにされていない。
本研究は,OPE手法の差分摂動に対する感度を調査するための最初の試みである。
我々は、ロバストな統計から影響関数を活用する汎用データ中毒攻撃フレームワークを設計し、ポリシー値推定における誤差を最大化する摂動を慎重に構築する。
我々は、複数のヘルスケアおよびコントロールデータセットで広範な実験を行う。
以上の結果から,多くの既存OPE法は, 逆方向の摂動であっても, データ中毒攻撃を受ける場合, 誤差が大きい値の推定値を生成する傾向が示唆された。
これらの結果から, OPE法で導出された政策値の信頼性を疑問視し, 統計的にデータ中毒攻撃に対して堅牢なOPE法の開発の必要性を示唆した。
関連論文リスト
- Offline Recommender System Evaluation under Unobserved Confounding [5.4208903577329375]
オフライン推定手法により,ログデータから意思決定ポリシーを学習し,評価することができる。
この仕事を行う重要な前提は、観測されていない共同設立者がいないことである。
この研究は、保守されていない共同ファウンダーの存在下で、政治外の見積もりを行うときに生じる問題を強調することを目的としている。
論文 参考訳(メタデータ) (2023-09-08T09:11:26Z) - On Practical Aspects of Aggregation Defenses against Data Poisoning
Attacks [58.718697580177356]
悪意のあるトレーニングサンプルを持つディープラーニングモデルに対する攻撃は、データ中毒として知られている。
データ中毒に対する防衛戦略の最近の進歩は、認証された毒性の堅牢性を達成するためのアグリゲーション・スキームの有効性を強調している。
ここでは、Deep Partition Aggregation(ディープ・パーティション・アグリゲーション・アグリゲーション)、代表的アグリゲーション・ディフェンス(アグリゲーション・ディフェンス)に焦点を当て、効率、性能、堅牢性など、その実践的側面を評価する。
論文 参考訳(メタデータ) (2023-06-28T17:59:35Z) - Uncertainty-Aware Instance Reweighting for Off-Policy Learning [63.31923483172859]
本研究では,不確実性を考慮した逆確率スコア推定器 (UIPS) を提案する。
実世界の3つのレコメンデーションデータセットを用いた実験結果から,提案したUIPS推定器の有効サンプル効率が示された。
論文 参考訳(メタデータ) (2023-03-11T11:42:26Z) - Exploring the Limits of Model-Targeted Indiscriminate Data Poisoning
Attacks [31.339252233416477]
対象パラメータに対するデータ中毒攻撃の本質的な限界を探索するための技術ツールとして,モデル中毒の到達可能性の概念を紹介した。
我々は、一般的なMLモデルの中で驚くべき位相遷移現象を確立し、定量化するために、容易に計算可能なしきい値を得る。
我々の研究は, 有毒比がもたらす重要な役割を強調し, データ中毒における既存の経験的結果, 攻撃, 緩和戦略に関する新たな知見を隠蔽する。
論文 参考訳(メタデータ) (2023-03-07T01:55:26Z) - Temporal Robustness against Data Poisoning [69.01705108817785]
データ中毒は、悪意のあるトレーニングデータを通じて、敵対者が機械学習アルゴリズムの振る舞いを操作する場合を考慮している。
本研究では,攻撃開始時間と攻撃持続時間を測定する2つの新しい指標である耳線と持続時間を用いたデータ中毒の時間的脅威モデルを提案する。
論文 参考訳(メタデータ) (2023-02-07T18:59:19Z) - Analysis and Detectability of Offline Data Poisoning Attacks on Linear
Dynamical Systems [0.30458514384586405]
統計検査のレンズを用いて最小二乗推定値に有毒が及ぼす影響について検討した。
古典的な統計的テストから逃れることのできる最小二乗推定器に対するステルスデータ中毒攻撃を提案する。
論文 参考訳(メタデータ) (2022-11-16T10:01:03Z) - Reliable Off-policy Evaluation for Reinforcement Learning [53.486680020852724]
シーケンシャルな意思決定問題において、非政治評価は、目標政策の期待累積報酬を推定する。
本稿では、1つまたは複数のログデータを用いて、ロバストで楽観的な累積報酬推定を提供する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-08T23:16:19Z) - Interpretable Off-Policy Evaluation in Reinforcement Learning by
Highlighting Influential Transitions [48.91284724066349]
強化学習におけるオフ政治評価は、医療や教育などの領域における将来の成果を改善するために観察データを使用する機会を提供する。
信頼区間のような従来の尺度は、ノイズ、限られたデータ、不確実性のために不十分である可能性がある。
我々は,人間専門家が政策評価評価評価の妥当性を分析できるように,ハイブリッドAIシステムとして機能する手法を開発した。
論文 参考訳(メタデータ) (2020-02-10T00:26:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。