論文の概要: Towards Unbiased Exploration in Partial Label Learning
- arxiv url: http://arxiv.org/abs/2307.00465v1
- Date: Sun, 2 Jul 2023 03:47:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-05 15:54:23.208799
- Title: Towards Unbiased Exploration in Partial Label Learning
- Title(参考訳): 部分ラベル学習における不偏探究に向けて
- Authors: Zsolt Zombori and Agapi Rissaki and Krist\'of Szab\'o and Wolfgang
Gatterbauer and Michael Benedikt
- Abstract要約: 我々は、ソフトマックスを最終層とした標準的なニューラルネットワークアーキテクチャを用いて、部分的にラベル付けされた監視から確率的分類器を学習することを検討する。
単純なアーキテクチャであっても、ソフトマックス層から生じるバイアス現象を特定します。
代替出力の空間内での偏りのない探索を可能にする新しい損失関数を導入する。
- 参考スコア(独自算出の注目度): 7.438974521263664
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider learning a probabilistic classifier from partially-labelled
supervision (inputs denoted with multiple possibilities) using standard neural
architectures with a softmax as the final layer. We identify a bias phenomenon
that can arise from the softmax layer in even simple architectures that
prevents proper exploration of alternative options, making the dynamics of
gradient descent overly sensitive to initialisation. We introduce a novel loss
function that allows for unbiased exploration within the space of alternative
outputs. We give a theoretical justification for our loss function, and provide
an extensive evaluation of its impact on synthetic data, on standard partially
labelled benchmarks and on a contributed novel benchmark related to an existing
rule learning challenge.
- Abstract(参考訳): 我々は、ソフトマックスを最終層とする標準ニューラルアーキテクチャを用いて、部分ラベル付き監督(複数の可能性で表される入力)から確率的分類法を学ぶことを検討する。
我々は,単純なアーキテクチャであってもソフトマックス層から生じるバイアス現象を同定し,代替選択肢の適切な探索を防止し,勾配降下のダイナミクスを初期化に過度に敏感にする。
代替出力の空間における偏りのない探索を可能にする新しい損失関数を提案する。
我々は、損失関数の理論的正当性を示し、その合成データへの影響、標準部分ラベル付きベンチマーク、および既存のルール学習課題に関連する新たなベンチマークを広範囲に評価する。
関連論文リスト
- Hypothesis Testing for Class-Conditional Noise Using Local Maximum
Likelihood [1.8798171797988192]
教師付き学習では、学習が行われる前にラベルの質を自動的に評価することがオープンな研究課題である。
本稿では,本モデルが局所極大近似推定の積である場合,同様の手順を踏襲できることを示す。
この異なるビューは、よりリッチなモデルクラスへのアクセスを提供することで、テストのより広範な適用を可能にする。
論文 参考訳(メタデータ) (2023-12-15T22:14:58Z) - On the Dynamics Under the Unhinged Loss and Beyond [104.49565602940699]
我々は、閉形式力学を解析するための数学的機会を提供する、簡潔な損失関数であるアンヒンジド・ロスを導入する。
アンヒンジされた損失は、時間変化学習率や特徴正規化など、より実践的なテクニックを検討することができる。
論文 参考訳(メタデータ) (2023-12-13T02:11:07Z) - A Performance-Driven Benchmark for Feature Selection in Tabular Deep
Learning [131.2910403490434]
データサイエンティストは通常、データセットにできるだけ多くの機能を集め、既存の機能から新しい機能を設計する。
既存のタブ形式の特徴選択のためのベンチマークでは、古典的な下流モデル、おもちゃの合成データセット、あるいは下流のパフォーマンスに基づいて特徴セレクタを評価していない。
変換器を含む下流ニューラルネットワーク上で評価された課題のある特徴選択ベンチマークを構築した。
また,従来の特徴選択法よりも高い性能を有するニューラルネットワークのための,Lassoのインプット・グラディエント・ベース・アナログも提案する。
論文 参考訳(メタデータ) (2023-11-10T05:26:10Z) - Variational Classification [51.2541371924591]
我々は,変分オートエンコーダの訓練に用いるエビデンスローバウンド(ELBO)に類似した,モデルの訓練を目的とした変分目的を導出する。
軟質マックス層への入力を潜伏変数のサンプルとして扱うことで, 抽象化された視点から, 潜在的な矛盾が明らかとなった。
我々は、標準ソフトマックス層に見られる暗黙の仮定の代わりに、選択された潜在分布を誘導する。
論文 参考訳(メタデータ) (2023-05-17T17:47:19Z) - Boosting Differentiable Causal Discovery via Adaptive Sample Reweighting [62.23057729112182]
異なるスコアに基づく因果探索法は観測データから有向非巡回グラフを学習する。
本稿では,Reweighted Score関数ReScoreの適応重みを動的に学習することにより因果発見性能を向上させるためのモデルに依存しないフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-06T14:49:59Z) - Prototype-Anchored Learning for Learning with Imperfect Annotations [83.7763875464011]
不完全な注釈付きデータセットからバイアスのない分類モデルを学ぶことは困難である。
本稿では,様々な学習に基づく分類手法に容易に組み込むことができるプロトタイプ・アンコレッド学習法を提案する。
我々は,PALがクラス不均衡学習および耐雑音学習に与える影響を,合成および実世界のデータセットに関する広範な実験により検証した。
論文 参考訳(メタデータ) (2022-06-23T10:25:37Z) - Last Layer Marginal Likelihood for Invariance Learning [12.00078928875924]
我々は、より大きな確率関数のクラスに対する推論を行うことができるような、限界確率に対する新しい下界を導入する。
我々は、最後の層にガウス的プロセスを持つアーキテクチャを使用することで、このアプローチをニューラルネットワークに導入することに取り組んでいます。
論文 参考訳(メタデータ) (2021-06-14T15:40:51Z) - Attribute-Guided Adversarial Training for Robustness to Natural
Perturbations [64.35805267250682]
本稿では,属性空間への分類器の露出を最大化するために,新しいサンプルを生成することを学習する逆学習手法を提案する。
我々のアプローチは、ディープニューラルネットワークが自然に発生する摂動に対して堅牢であることを可能にする。
論文 参考訳(メタデータ) (2020-12-03T10:17:30Z) - Uses and Abuses of the Cross-Entropy Loss: Case Studies in Modern Deep
Learning [29.473503894240096]
我々は、厳密な分類ではなく、単純な表現の値を取るデータにカテゴリ横断エントロピー損失を用いることに焦点をあてる。
このプラクティスは、ラベルの平滑化やアクター/ミリ波強化学習など、ニューラルネットワークアーキテクチャにおいて標準的なものだ。
我々はこれらのモデルに対して確率論的に着想を得た代替案を提案し、より原理的で理論的に魅力的であるアプローチを提供する。
論文 参考訳(メタデータ) (2020-11-10T16:44:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。