論文の概要: Manipulating hidden-Markov-model inferences by corrupting batch data
- arxiv url: http://arxiv.org/abs/2402.13287v1
- Date: Mon, 19 Feb 2024 12:22:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-22 18:36:54.261518
- Title: Manipulating hidden-Markov-model inferences by corrupting batch data
- Title(参考訳): バッチデータによる隠れマルコフモデル推論の操作
- Authors: William N. Caballero, Jose Manuel Camacho, Tahir Ekin, Roi Naveiro
- Abstract要約: 自己関心のある敵は、時系列データの腐敗にインセンティブを与え、意思決定者の推測を変えるかもしれない。
この研究は、隠れマルコフモデル推論の不正データによる操作に対する、新しい確率論的視点を提供する。
- 参考スコア(独自算出の注目度): 0.4915744683251149
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Time-series models typically assume untainted and legitimate streams of data.
However, a self-interested adversary may have incentive to corrupt this data,
thereby altering a decision maker's inference. Within the broader field of
adversarial machine learning, this research provides a novel, probabilistic
perspective toward the manipulation of hidden Markov model inferences via
corrupted data. In particular, we provision a suite of corruption problems for
filtering, smoothing, and decoding inferences leveraging an adversarial risk
analysis approach. Multiple stochastic programming models are set forth that
incorporate realistic uncertainties and varied attacker objectives. Three
general solution methods are developed by alternatively viewing the problem
from frequentist and Bayesian perspectives. The efficacy of each method is
illustrated via extensive, empirical testing. The developed methods are
characterized by their solution quality and computational effort, resulting in
a stratification of techniques across varying problem-instance architectures.
This research highlights the weaknesses of hidden Markov models under
adversarial activity, thereby motivating the need for robustification
techniques to ensure their security.
- Abstract(参考訳): 時系列モデルは典型的に不確定で正当なデータストリームを仮定する。
しかし、利害的な敵は、このデータを腐敗させ、意思決定者の推測を変えるインセンティブを持つかもしれない。
敵対的機械学習の広い分野において、この研究は腐敗したデータによる隠れマルコフモデル推論の操作に対する新しい確率論的視点を提供する。
特に,敵対的リスク分析アプローチを活用したフィルタリング,スムース化,デコード推論のための汚職問題のスイートを提供する。
複数の確率的プログラミングモデルは、現実的な不確実性と様々な攻撃目標を含む。
3つの一般的な解法は、頻度主義やベイズ的視点から問題を見ることによって開発される。
それぞれの方法の有効性は、広範な実証試験によって示される。
開発した手法は, 解法の品質と計算作業によって特徴付けられ, 様々な問題インスタンスアーキテクチャにまたがる技術が階層化される。
本研究は,敵活動下での隠れマルコフモデルの弱点を浮き彫りにして,その安全性を確保するための堅牢化技術の必要性を喚起するものである。
関連論文リスト
- Fin-Fed-OD: Federated Outlier Detection on Financial Tabular Data [11.027356898413139]
実世界のシナリオにおける異常検出は、動的でしばしば未知の異常分布による課題を引き起こす。
本稿では、データの機密性を損なうことなく、個々の組織における異常検出を強化するという課題に対処する。
本稿では,表現学習とフェデレーション学習技術を利用して未知の異常の検出を改善する手法を提案する。
論文 参考訳(メタデータ) (2024-04-23T11:22:04Z) - It's All in the Mix: Wasserstein Machine Learning with Mixed Features [5.739657897440173]
混合機能問題の解法として,実用的なアルゴリズムを提案する。
提案手法は, 個々の特徴が存在する場合の既存手法を著しく上回りうることを示す。
論文 参考訳(メタデータ) (2023-12-19T15:15:52Z) - Towards stable real-world equation discovery with assessing
differentiating quality influence [52.2980614912553]
一般的に用いられる有限差分法に代わる方法を提案する。
我々は,これらの手法を実問題と類似した問題に適用可能であること,および方程式発見アルゴリズムの収束性を確保する能力の観点から評価する。
論文 参考訳(メタデータ) (2023-11-09T23:32:06Z) - A Discrepancy Aware Framework for Robust Anomaly Detection [51.710249807397695]
本稿では,DAF(Disdisrepancy Aware Framework)を提案する。
本手法は,デコーダの欠陥同定に外見に依存しないキューを利用して,その合成外観への依存を緩和する。
単純な合成戦略の下では,既存の手法を大きなマージンで上回り,また,最先端のローカライゼーション性能も達成している。
論文 参考訳(メタデータ) (2023-10-11T15:21:40Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - Elucidating Noisy Data via Uncertainty-Aware Robust Learning [9.711326718689495]
提案手法は,汚れたデータセットからクリーンなターゲット分布を学習することができる。
我々は,2種類の予測不確かさを区別できる混合専門家モデルを活用する。
汚職パターン推定の性能を評価するための新しい検証手法を提案する。
論文 参考訳(メタデータ) (2021-11-02T14:44:50Z) - Learning while Respecting Privacy and Robustness to Distributional
Uncertainties and Adversarial Data [66.78671826743884]
分散ロバストな最適化フレームワークはパラメトリックモデルのトレーニングのために検討されている。
目的は、逆操作された入力データに対して頑健なトレーニングモデルを提供することである。
提案されたアルゴリズムは、オーバーヘッドがほとんどない堅牢性を提供する。
論文 参考訳(メタデータ) (2020-07-07T18:25:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。