論文の概要: Neural Pseudo-Label Optimism for the Bank Loan Problem
- arxiv url: http://arxiv.org/abs/2112.02185v1
- Date: Fri, 3 Dec 2021 22:46:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-07 17:07:29.242728
- Title: Neural Pseudo-Label Optimism for the Bank Loan Problem
- Title(参考訳): 銀行ローン問題に対するニューラル擬似ラベル最適化
- Authors: Aldo Pacchiano, Shaun Singh, Edward Chou, Alexander C. Berg, Jakob
Foerster
- Abstract要約: 本研究では,Emphbank 融資問題に最もよく表される分類問題について検討する。
線形モデルの場合、この問題はモデル予測に直接最適化を加えることで解決できる。
Pseudo-Label Optimism (PLOT)は,この設定をディープニューラルネットワークに適用するための概念的かつ計算学的にシンプルな手法である。
- 参考スコア(独自算出の注目度): 78.66533961716728
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study a class of classification problems best exemplified by the
\emph{bank loan} problem, where a lender decides whether or not to issue a
loan. The lender only observes whether a customer will repay a loan if the loan
is issued to begin with, and thus modeled decisions affect what data is
available to the lender for future decisions. As a result, it is possible for
the lender's algorithm to ``get stuck'' with a self-fulfilling model. This
model never corrects its false negatives, since it never sees the true label
for rejected data, thus accumulating infinite regret. In the case of linear
models, this issue can be addressed by adding optimism directly into the model
predictions. However, there are few methods that extend to the function
approximation case using Deep Neural Networks. We present Pseudo-Label Optimism
(PLOT), a conceptually and computationally simple method for this setting
applicable to DNNs. \PLOT{} adds an optimistic label to the subset of decision
points the current model is deciding on, trains the model on all data so far
(including these points along with their optimistic labels), and finally uses
the resulting \emph{optimistic} model for decision making. \PLOT{} achieves
competitive performance on a set of three challenging benchmark problems,
requiring minimal hyperparameter tuning. We also show that \PLOT{} satisfies a
logarithmic regret guarantee, under a Lipschitz and logistic mean label model,
and under a separability condition on the data.
- Abstract(参考訳): 我々は、融資者がローンを発行するか否かを判断する \emph{bank loan} 問題に最もよく代表される分類問題の種類について検討する。
融資者は、最初にローンが発行された場合、顧客がローンを返済するかどうかのみを観察し、モデル化された決定は、将来の決定のために融資者が利用できるデータに影響を与える。
結果として、貸し手のアルゴリズムが自己充足モデルで 'get stuck'' を行うことが可能となる。
このモデルは、拒否されたデータの真のラベルを見ることなく、無限の後悔を蓄積するため、偽陰性を修正することはない。
線形モデルの場合、この問題はモデル予測に直接最適化を加えることで解決できる。
しかし、ディープニューラルネットワークを用いた関数近似ケースに拡張する手法は少ない。
Pseudo-Label Optimism (PLOT) はDNNに適用可能な概念的かつ計算学的にシンプルな手法である。
PLOT{} は、現在のモデルが決定している決定点のサブセットに楽観的なラベルを追加し、これまでのすべてのデータ(これらのポイントと楽観的なラベルを含む)でモデルをトレーニングし、最終的に結果の \emph{optimistic} モデルを意思決定に使用する。
PLOT{}は3つの困難なベンチマーク問題に対して、最小限のハイパーパラメータチューニングを必要とする競争性能を実現する。
また,PLOT{}は,リプシッツおよびロジスティック平均ラベルモデルの下で,またデータの分離性条件下で,対数的後悔の保証を満たすことを示す。
関連論文リスト
- Accelerated zero-order SGD under high-order smoothness and overparameterized regime [79.85163929026146]
凸最適化問題を解くための新しい勾配のないアルゴリズムを提案する。
このような問題は医学、物理学、機械学習で発生する。
両種類の雑音下で提案アルゴリズムの収束保証を行う。
論文 参考訳(メタデータ) (2024-11-21T10:26:17Z) - Beyond Closure Models: Learning Chaotic-Systems via Physics-Informed Neural Operators [78.64101336150419]
カオスシステムの長期的挙動を予測することは、気候モデリングなどの様々な応用に不可欠である。
このような完全解法シミュレーションに対する別のアプローチは、粗いグリッドを使用して、時間テキストモデルによってエラーを修正することである。
この制限を克服する物理インフォームド・ニューラル演算子(PINO)を用いたエンド・ツー・エンドの学習手法を提案する。
論文 参考訳(メタデータ) (2024-08-09T17:05:45Z) - Dirichlet-Based Prediction Calibration for Learning with Noisy Labels [40.78497779769083]
雑音ラベルによる学習はディープニューラルネットワーク(DNN)の一般化性能を著しく損なう
既存のアプローチでは、損失補正やサンプル選択手法によってこの問題に対処している。
そこで我々は,textitDirichlet-based Prediction (DPC) 法を解法として提案する。
論文 参考訳(メタデータ) (2024-01-13T12:33:04Z) - A Pseudo-Semantic Loss for Autoregressive Models with Logical
Constraints [87.08677547257733]
ニューロシンボリックAIは、純粋にシンボリックな学習とニューラルな学習のギャップを埋める。
本稿では,ニューラルネットワークの出力分布に対するシンボリック制約の可能性を最大化する方法を示す。
また,スドクと最短経路予測の手法を自己回帰世代として評価した。
論文 参考訳(メタデータ) (2023-12-06T20:58:07Z) - Label-Retrieval-Augmented Diffusion Models for Learning from Noisy
Labels [61.97359362447732]
ノイズの多いラベルからの学習は、実際のアプリケーションのための機械学習において、重要かつ長年にわたる問題である。
本稿では,生成モデルの観点からラベルノイズ問題を再構成する。
我々のモデルは、標準的な実世界のベンチマークデータセットで新しいSOTA(State-of-the-art)結果を達成する。
論文 参考訳(メタデータ) (2023-05-31T03:01:36Z) - How to Learn when Data Reacts to Your Model: Performative Gradient
Descent [10.074466859579571]
性能的に最適な点に収束する最初のアルゴリズムであるPerfGD(Performative gradient descend)を紹介します。
PerfGDは、モデルの変更がデータ分布にどのように影響するかを明示的にキャプチャし、使いやすいです。
論文 参考訳(メタデータ) (2021-02-15T17:49:36Z) - Bayes DistNet -- A Robust Neural Network for Algorithm Runtime
Distribution Predictions [1.8275108630751844]
ランダム化アルゴリズムは制約満足度問題 (CSP) やブール満足度問題 (SAT) の多くの最先端の解法で用いられている。
従来の最先端の手法は、入力インスタンスが従う固定パラメトリック分布を直接予測しようとする。
この新モデルは,低観測環境下での堅牢な予測性能と,検閲された観測処理を実現する。
論文 参考訳(メタデータ) (2020-12-14T01:15:39Z) - How do Decisions Emerge across Layers in Neural Models? Interpretation
with Differentiable Masking [70.92463223410225]
DiffMaskは、差分性を維持しながら入力のサブセットをマスクアウトすることを学ぶ。
入力トークンを包含または無視する決定は、中間隠蔽層に基づく単純なモデルで行われる。
これにより、属性のヒートマップをプロットするだけでなく、ネットワーク層間で意思決定がどのように形成されるかを分析することができます。
論文 参考訳(メタデータ) (2020-04-30T17:36:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。