論文の概要: Neural Pseudo-Label Optimism for the Bank Loan Problem
- arxiv url: http://arxiv.org/abs/2112.02185v1
- Date: Fri, 3 Dec 2021 22:46:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-07 17:07:29.242728
- Title: Neural Pseudo-Label Optimism for the Bank Loan Problem
- Title(参考訳): 銀行ローン問題に対するニューラル擬似ラベル最適化
- Authors: Aldo Pacchiano, Shaun Singh, Edward Chou, Alexander C. Berg, Jakob
Foerster
- Abstract要約: 本研究では,Emphbank 融資問題に最もよく表される分類問題について検討する。
線形モデルの場合、この問題はモデル予測に直接最適化を加えることで解決できる。
Pseudo-Label Optimism (PLOT)は,この設定をディープニューラルネットワークに適用するための概念的かつ計算学的にシンプルな手法である。
- 参考スコア(独自算出の注目度): 78.66533961716728
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study a class of classification problems best exemplified by the
\emph{bank loan} problem, where a lender decides whether or not to issue a
loan. The lender only observes whether a customer will repay a loan if the loan
is issued to begin with, and thus modeled decisions affect what data is
available to the lender for future decisions. As a result, it is possible for
the lender's algorithm to ``get stuck'' with a self-fulfilling model. This
model never corrects its false negatives, since it never sees the true label
for rejected data, thus accumulating infinite regret. In the case of linear
models, this issue can be addressed by adding optimism directly into the model
predictions. However, there are few methods that extend to the function
approximation case using Deep Neural Networks. We present Pseudo-Label Optimism
(PLOT), a conceptually and computationally simple method for this setting
applicable to DNNs. \PLOT{} adds an optimistic label to the subset of decision
points the current model is deciding on, trains the model on all data so far
(including these points along with their optimistic labels), and finally uses
the resulting \emph{optimistic} model for decision making. \PLOT{} achieves
competitive performance on a set of three challenging benchmark problems,
requiring minimal hyperparameter tuning. We also show that \PLOT{} satisfies a
logarithmic regret guarantee, under a Lipschitz and logistic mean label model,
and under a separability condition on the data.
- Abstract(参考訳): 我々は、融資者がローンを発行するか否かを判断する \emph{bank loan} 問題に最もよく代表される分類問題の種類について検討する。
融資者は、最初にローンが発行された場合、顧客がローンを返済するかどうかのみを観察し、モデル化された決定は、将来の決定のために融資者が利用できるデータに影響を与える。
結果として、貸し手のアルゴリズムが自己充足モデルで 'get stuck'' を行うことが可能となる。
このモデルは、拒否されたデータの真のラベルを見ることなく、無限の後悔を蓄積するため、偽陰性を修正することはない。
線形モデルの場合、この問題はモデル予測に直接最適化を加えることで解決できる。
しかし、ディープニューラルネットワークを用いた関数近似ケースに拡張する手法は少ない。
Pseudo-Label Optimism (PLOT) はDNNに適用可能な概念的かつ計算学的にシンプルな手法である。
PLOT{} は、現在のモデルが決定している決定点のサブセットに楽観的なラベルを追加し、これまでのすべてのデータ(これらのポイントと楽観的なラベルを含む)でモデルをトレーニングし、最終的に結果の \emph{optimistic} モデルを意思決定に使用する。
PLOT{}は3つの困難なベンチマーク問題に対して、最小限のハイパーパラメータチューニングを必要とする競争性能を実現する。
また,PLOT{}は,リプシッツおよびロジスティック平均ラベルモデルの下で,またデータの分離性条件下で,対数的後悔の保証を満たすことを示す。
関連論文リスト
- Label-Retrieval-Augmented Diffusion Models for Learning from Noisy
Labels [69.02206334152557]
ノイズの多いラベルからの学習は、実際のアプリケーションのための機械学習において、重要かつ長年にわたる問題である。
本稿では,生成モデルの観点からラベルノイズ問題を再構成する。
我々のモデルは、標準的な実世界のベンチマークデータセットで新しいSOTA(State-of-the-art)結果を達成する。
論文 参考訳(メタデータ) (2023-05-31T03:01:36Z) - Oracle Inequalities for Model Selection in Offline Reinforcement
Learning [105.74139523696284]
本稿では,値関数近似を用いたオフラインRLにおけるモデル選択の問題について検討する。
対数係数まで最小値の速度-最適不等式を実現するオフラインRLの最初のモデル選択アルゴリズムを提案する。
そこで本研究では,優れたモデルクラスを確実に選択できることを示す数値シミュレーションを行った。
論文 参考訳(メタデータ) (2022-11-03T17:32:34Z) - Evaluating State-of-the-Art Classification Models Against Bayes
Optimality [106.50867011164584]
正規化フローを用いて学習した生成モデルのベイズ誤差を正確に計算できることを示す。
われわれの手法を用いて、最先端の分類モデルについて徹底的な調査を行う。
論文 参考訳(メタデータ) (2021-06-07T06:21:20Z) - An exact counterfactual-example-based approach to tree-ensemble models
interpretability [0.0]
高性能モデルは、決定を完全に理解するために必要な透明性を示さない。
多次元間隔の集まりの形で、決定領域の正確な幾何学的特徴付けを導出できる。
回帰問題に対する推論への適応も考えられている。
論文 参考訳(メタデータ) (2021-05-31T09:32:46Z) - Modeling the Second Player in Distributionally Robust Optimization [90.25995710696425]
我々は、最悪のケース分布を特徴付けるために神経生成モデルを使うことを議論する。
このアプローチは多くの実装と最適化の課題をもたらします。
提案されたアプローチは、同等のベースラインよりも堅牢なモデルを生み出す。
論文 参考訳(メタデータ) (2021-03-18T14:26:26Z) - How to Learn when Data Reacts to Your Model: Performative Gradient
Descent [10.074466859579571]
性能的に最適な点に収束する最初のアルゴリズムであるPerfGD(Performative gradient descend)を紹介します。
PerfGDは、モデルの変更がデータ分布にどのように影響するかを明示的にキャプチャし、使いやすいです。
論文 参考訳(メタデータ) (2021-02-15T17:49:36Z) - Bayes DistNet -- A Robust Neural Network for Algorithm Runtime
Distribution Predictions [1.8275108630751844]
ランダム化アルゴリズムは制約満足度問題 (CSP) やブール満足度問題 (SAT) の多くの最先端の解法で用いられている。
従来の最先端の手法は、入力インスタンスが従う固定パラメトリック分布を直接予測しようとする。
この新モデルは,低観測環境下での堅牢な予測性能と,検閲された観測処理を実現する。
論文 参考訳(メタデータ) (2020-12-14T01:15:39Z) - Competition analysis on the over-the-counter credit default swap market [0.0]
両立関係の競合は, 相互の要求により検討する。
初期マージン要件をうまく見積もるモデルを提案する。
第2に、新しい半教師付き予測タスクを用いて、インターディーラー市場での選択肢をモデル化する。
論文 参考訳(メタデータ) (2020-12-03T13:02:53Z) - How do Decisions Emerge across Layers in Neural Models? Interpretation
with Differentiable Masking [70.92463223410225]
DiffMaskは、差分性を維持しながら入力のサブセットをマスクアウトすることを学ぶ。
入力トークンを包含または無視する決定は、中間隠蔽層に基づく単純なモデルで行われる。
これにより、属性のヒートマップをプロットするだけでなく、ネットワーク層間で意思決定がどのように形成されるかを分析することができます。
論文 参考訳(メタデータ) (2020-04-30T17:36:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。