論文の概要: Gumbel-Softmax Selective Networks
- arxiv url: http://arxiv.org/abs/2211.10564v1
- Date: Sat, 19 Nov 2022 02:20:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 18:46:38.836104
- Title: Gumbel-Softmax Selective Networks
- Title(参考訳): Gumbel-Softmax選択ネットワーク
- Authors: Mahmoud Salem, Mohamed Osama Ahmed, Frederick Tung and Gabriel
Oliveira
- Abstract要約: 本稿では,エンド・ツー・エンドの差別化可能なトレーニングフレームワークの選択を可能にする,選択的ネットワークの学習方法を提案する。
公開データセットの実験は、選択的回帰と分類のためのガンベル-ソフトマックス選択ネットワークの可能性を示している。
- 参考スコア(独自算出の注目度): 10.074545631396385
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: ML models often operate within the context of a larger system that can adapt
its response when the ML model is uncertain, such as falling back on safe
defaults or a human in the loop. This commonly encountered operational context
calls for principled techniques for training ML models with the option to
abstain from predicting when uncertain. Selective neural networks are trained
with an integrated option to abstain, allowing them to learn to recognize and
optimize for the subset of the data distribution for which confident
predictions can be made. However, optimizing selective networks is challenging
due to the non-differentiability of the binary selection function (the discrete
decision of whether to predict or abstain). This paper presents a general
method for training selective networks that leverages the Gumbel-softmax
reparameterization trick to enable selection within an end-to-end
differentiable training framework. Experiments on public datasets demonstrate
the potential of Gumbel-softmax selective networks for selective regression and
classification.
- Abstract(参考訳): MLモデルは大規模なシステムのコンテキスト内で運用されることが多く、MLモデルが不確実な場合には、セーフデフォルトのフォールバックやループ内の人間など、その応答に適応することができる。
この一般的に遭遇する運用コンテキストは、不確実な時に予測を控えるオプションを備えたMLモデルをトレーニングするための原則化されたテクニックを要求する。
選択ニューラルネットワークは、吸収する統合的なオプションでトレーニングされ、信頼できる予測を行うことのできるデータディストリビューションのサブセットを認識し、最適化することを学ぶことができる。
しかし、二項選択関数の非微分性(予測するか否かの離散決定)のため、選択ネットワークの最適化は困難である。
本稿では,gumbel-softmax再パラメータ化手法を利用した選択ネットワークの訓練方法を提案する。
公開データセットに関する実験は、ガンベル・ソフトマックス選択ネットワークの選択的回帰と分類の可能性を示している。
関連論文リスト
- Model Agnostic Explainable Selective Regression via Uncertainty
Estimation [15.331332191290727]
本稿では,モデルに依存しない非パラメトリック不確実性推定を用いた選択回帰手法を提案する。
提案フレームワークは,最先端の選択的回帰器と比較して優れた性能を示す。
オープンソースPythonパッケージに選択的回帰法を実装し、実験を再現するために使用するコードをリリースする。
論文 参考訳(メタデータ) (2023-11-15T17:40:48Z) - A Neural Network Based Choice Model for Assortment Optimization [5.173001988341294]
ニューラルネットワークアーキテクチャが、さまざまなコンテキストからデータセットの購入確率を予測することができるかどうかを検討する。
次に,既製の整数計画解法で解けるアソシエーション最適化の定式化を開発する。
論文 参考訳(メタデータ) (2023-08-10T15:01:52Z) - Sparse-Input Neural Network using Group Concave Regularization [10.103025766129006]
ニューラルネットワークでは、同時特徴選択と非線形関数推定が困難である。
低次元と高次元の両方の設定における特徴選択のための群凹正規化を用いたスパースインプットニューラルネットワークの枠組みを提案する。
論文 参考訳(メタデータ) (2023-07-01T13:47:09Z) - Variational Classification [51.2541371924591]
我々は,変分オートエンコーダの訓練に用いるエビデンスローバウンド(ELBO)に類似した,モデルの訓練を目的とした変分目的を導出する。
軟質マックス層への入力を潜伏変数のサンプルとして扱うことで, 抽象化された視点から, 潜在的な矛盾が明らかとなった。
我々は、標準ソフトマックス層に見られる暗黙の仮定の代わりに、選択された潜在分布を誘導する。
論文 参考訳(メタデータ) (2023-05-17T17:47:19Z) - ASPEST: Bridging the Gap Between Active Learning and Selective
Prediction [56.001808843574395]
選択予測は、不確実な場合の予測を棄却する信頼性のあるモデルを学ぶことを目的としている。
アクティブラーニングは、最も有意義な例を問うことで、ラベリングの全体、すなわち人間の依存度を下げることを目的としている。
本研究では,移動対象領域からより情報のあるサンプルを検索することを目的とした,新たな学習パラダイムである能動的選択予測を導入する。
論文 参考訳(メタデータ) (2023-04-07T23:51:07Z) - MILO: Model-Agnostic Subset Selection Framework for Efficient Model
Training and Tuning [68.12870241637636]
モデル学習からサブセット選択を分離するモデルに依存しないサブセット選択フレームワークMILOを提案する。
実験結果から、MILOはモデルを3ドル(約3,300円)でトレーニングし、ハイパーパラメータを20ドル(約2,300円)でチューニングできます。
論文 参考訳(メタデータ) (2023-01-30T20:59:30Z) - Neural Networks beyond explainability: Selective inference for sequence
motifs [5.620334754517149]
抽出した特徴と予測表現型との関連性をテストするための選択的推論手法であるSEISMを紹介する。
我々は、この選択を無限集合から大きくても有限な格子に量子化することで、既存のサンプリングベース選択推論手法を適用する。
パラメータの特定の選択の下でのサンプリングは、通常選択推論に使用される合成ヌル仮説を特徴づけるのに十分であることを示す。
論文 参考訳(メタデータ) (2022-12-23T10:49:07Z) - Data-Driven Offline Decision-Making via Invariant Representation
Learning [97.49309949598505]
オフラインのデータ駆動意思決定は、アクティブなインタラクションなしで最適化された決定を合成する。
オフラインデータからトレーニングされたモデルへの入力に関して最適化する場合、誤って良いように見えるアウト・オブ・ディストリビューション(OOD)インプットを生成するのは簡単です。
本稿では、オフラインデータ駆動意思決定をドメイン適応として定式化し、最適化された決定値の正確な予測を行うことを目標とする。
論文 参考訳(メタデータ) (2022-11-21T11:01:37Z) - Correcting Model Bias with Sparse Implicit Processes [0.9187159782788579]
SIP(Sparse Implicit Processes)は,データ生成機構がモデルによって入力されるものと強く異なる場合,モデルバイアスを補正できることを示す。
合成データセットを用いて、SIPは、初期推定モデルの正確な予測よりもデータをよりよく反映する予測分布を提供することができることを示す。
論文 参考訳(メタデータ) (2022-07-21T18:00:01Z) - Uncertainty Modeling for Out-of-Distribution Generalization [56.957731893992495]
特徴統計を適切に操作することで、ディープラーニングモデルの一般化能力を向上させることができると論じる。
一般的な手法では、特徴統計を学習した特徴から測定された決定論的値とみなすことが多い。
我々は、学習中に合成された特徴統計を用いて、領域シフトの不確かさをモデル化することにより、ネットワークの一般化能力を向上させる。
論文 参考訳(メタデータ) (2022-02-08T16:09:12Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。