論文の概要: Inverse Classification with Limited Budget and Maximum Number of
Perturbed Samples
- arxiv url: http://arxiv.org/abs/2009.14111v1
- Date: Tue, 29 Sep 2020 15:52:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 05:36:29.034271
- Title: Inverse Classification with Limited Budget and Maximum Number of
Perturbed Samples
- Title(参考訳): 限られた予算と最大摂動サンプル数による逆分類
- Authors: Jaehoon Koo, Diego Klabjan, Jean Utke
- Abstract要約: 逆分類は、最初に予測されたクラスを変更するサンプルの入力特徴の変化を見つけるためのポストモデリングプロセスである。
本研究では,摂動サンプル数を最大化する逆分類法を提案する。
我々は、勾配法、プロセス、ラグランジュ緩和、ガンベルトリックに基づいて、この問題を解決するアルゴリズムを設計する。
- 参考スコア(独自算出の注目度): 18.76745359031975
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most recent machine learning research focuses on developing new classifiers
for the sake of improving classification accuracy. With many well-performing
state-of-the-art classifiers available, there is a growing need for
understanding interpretability of a classifier necessitated by practical
purposes such as to find the best diet recommendation for a diabetes patient.
Inverse classification is a post modeling process to find changes in input
features of samples to alter the initially predicted class. It is useful in
many business applications to determine how to adjust a sample input data such
that the classifier predicts it to be in a desired class. In real world
applications, a budget on perturbations of samples corresponding to customers
or patients is usually considered, and in this setting, the number of
successfully perturbed samples is key to increase benefits. In this study, we
propose a new framework to solve inverse classification that maximizes the
number of perturbed samples subject to a per-feature-budget limits and
favorable classification classes of the perturbed samples. We design algorithms
to solve this optimization problem based on gradient methods, stochastic
processes, Lagrangian relaxations, and the Gumbel trick. In experiments, we
find that our algorithms based on stochastic processes exhibit an excellent
performance in different budget settings and they scale well.
- Abstract(参考訳): 最近の機械学習研究は、分類精度を向上させるために新しい分類器の開発に焦点を当てている。
多くの最先端の分類器が利用可能であり、糖尿病患者に最適な食事勧告を見つけるなど、実践的な目的によって必要とされる分類器の解釈可能性を理解する必要性が高まっている。
逆分類(inverse classification)は、初期予測クラスを変更するサンプルの入力特徴の変化を見つけるためのモデリングプロセスである。
多くのビジネスアプリケーションにおいて、分類器が所望のクラスにあると予測するようにサンプル入力データを調整する方法を決定するのに役立つ。
実世界のアプリケーションでは、顧客や患者に対応するサンプルの摂動に関する予算が考慮され、この環境では、十分な摂動サンプルの数が利益を高めるための鍵となる。
本研究では, 予算単位当たりの摂動サンプル数と, 摂動サンプルの好ましい分類クラスを最大化する, 逆分類を解くための新しい枠組みを提案する。
我々は,勾配法,確率過程,ラグランジュ緩和,ガムベルトリックに基づく最適化問題を解くアルゴリズムを設計した。
実験では,確率過程に基づくアルゴリズムは,異なる予算設定で優れた性能を示し,スケールが良好であることがわかった。
関連論文リスト
- Deep Imbalanced Regression via Hierarchical Classification Adjustment [50.19438850112964]
コンピュータビジョンにおける回帰タスクは、しばしば、対象空間をクラスに定量化することで分類される。
トレーニングサンプルの大多数は目標値の先頭にあるが、少数のサンプルは通常より広い尾幅に分布する。
不均衡回帰タスクを解くために階層型分類器を構築することを提案する。
不均衡回帰のための新しい階層型分類調整(HCA)は,3つのタスクにおいて優れた結果を示す。
論文 参考訳(メタデータ) (2023-10-26T04:54:39Z) - Efficient Failure Pattern Identification of Predictive Algorithms [15.02620042972929]
本稿では,人間のアノテータチームとシーケンシャルレコメンデーションアルゴリズムからなる人間機械協調フレームワークを提案する。
その結果、様々な信号対雑音比で複数のデータセット上でのフレームワークの競合性能を実証的に実証した。
論文 参考訳(メタデータ) (2023-06-01T14:54:42Z) - Variational Classification [51.2541371924591]
我々は,変分オートエンコーダの訓練に用いるエビデンスローバウンド(ELBO)に類似した,モデルの訓練を目的とした変分目的を導出する。
軟質マックス層への入力を潜伏変数のサンプルとして扱うことで, 抽象化された視点から, 潜在的な矛盾が明らかとなった。
我々は、標準ソフトマックス層に見られる暗黙の仮定の代わりに、選択された潜在分布を誘導する。
論文 参考訳(メタデータ) (2023-05-17T17:47:19Z) - Intra-class Adaptive Augmentation with Neighbor Correction for Deep
Metric Learning [99.14132861655223]
深層学習のためのクラス内適応拡張(IAA)フレームワークを提案する。
クラスごとのクラス内変動を合理的に推定し, 適応型合成試料を生成し, 硬質試料の採掘を支援する。
本手法は,検索性能の最先端手法を3%~6%向上させる。
論文 参考訳(メタデータ) (2022-11-29T14:52:38Z) - Bilevel Optimization for Feature Selection in the Data-Driven Newsvendor
Problem [8.281391209717105]
本稿では、意思決定者が過去のデータにアクセス可能な機能ベースのニュースベンダー問題について検討する。
そこで本研究では,スパースモデル,説明可能なモデル,およびアウト・オブ・サンプル性能の改善を目的とした特徴選択について検討する。
本稿では,2レベルプログラムに対する混合整数線形プログラムの修正について述べる。
論文 参考訳(メタデータ) (2022-09-12T08:52:26Z) - Imbalanced Classification via a Tabular Translation GAN [4.864819846886142]
本稿では,多数のサンプルを対応する合成マイノリティ標本にマッピングするために,新たな正規化損失を用いたジェネレーティブ・アドバイサル・ネットワークに基づくモデルを提案する。
提案手法は, 再加重法やオーバーサンプリング法と比較して, 平均精度を向上することを示す。
論文 参考訳(メタデータ) (2022-04-19T06:02:53Z) - Scalable Optimal Classifiers for Adversarial Settings under Uncertainty [10.90668635921398]
本稿では,攻撃者に対して目的が不明な攻撃者がクラス-1データを生成する対角的設定において,最適な分類器を見つけることの問題点を考察する。
この低次元キャラクタリゼーションにより,ほぼほぼ最適な分類器をスケーラブルに計算する訓練手法が開発可能であることを示す。
論文 参考訳(メタデータ) (2021-06-28T13:33:53Z) - Theoretical Insights Into Multiclass Classification: A High-dimensional
Asymptotic View [82.80085730891126]
線形多クラス分類の最初の現代的精度解析を行う。
分析の結果,分類精度は分布に依存していることがわかった。
得られた洞察は、他の分類アルゴリズムの正確な理解の道を開くかもしれない。
論文 参考訳(メタデータ) (2020-11-16T05:17:29Z) - Few-shot Classification via Adaptive Attention [93.06105498633492]
ごく少数の参照サンプルに基づいて,クエリサンプル表現を最適化し,高速に適応する新しい数ショット学習手法を提案する。
実験で実証したように,提案モデルでは,様々なベンチマーク数ショット分類と微粒化認識データセットを用いて,最先端の分類結果を達成している。
論文 参考訳(メタデータ) (2020-08-06T05:52:59Z) - Distributionally Robust Weighted $k$-Nearest Neighbors [21.537952410507483]
少数のサンプルから堅牢な分類器を学ぶことは、マシンラーニングにおける重要な課題である。
本稿では, 重み付き$k$-アネレスト近傍のミニマックス分布に頑健な定式化について検討する。
我々は,この関数最適化問題を効率的に解くアルゴリズムである textttDr.k-NN を開発した。
論文 参考訳(メタデータ) (2020-06-07T00:34:33Z) - Compressing Large Sample Data for Discriminant Analysis [78.12073412066698]
判別分析フレームワーク内での大きなサンプルサイズに起因する計算問題を考察する。
線形および二次判別分析のためのトレーニングサンプル数を削減するための新しい圧縮手法を提案する。
論文 参考訳(メタデータ) (2020-05-08T05:09:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。