論文の概要: Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision
- arxiv url: http://arxiv.org/abs/2004.09034v1
- Date: Mon, 20 Apr 2020 02:47:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-11 18:02:21.853840
- Title: Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision
- Title(参考訳): 実例とグラディエント・スーパービジョンの違いを学習する
- Authors: Damien Teney, Ehsan Abbasnedjad, Anton van den Hengel
- Abstract要約: ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
- 参考スコア(独自算出の注目度): 57.14468881854616
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One of the primary challenges limiting the applicability of deep learning is
its susceptibility to learning spurious correlations rather than the underlying
mechanisms of the task of interest. The resulting failure to generalise cannot
be addressed by simply using more data from the same distribution. We propose
an auxiliary training objective that improves the generalization capabilities
of neural networks by leveraging an overlooked supervisory signal found in
existing datasets. We use pairs of minimally-different examples with different
labels, a.k.a counterfactual or contrasting examples, which provide a signal
indicative of the underlying causal structure of the task. We show that such
pairs can be identified in a number of existing datasets in computer vision
(visual question answering, multi-label image classification) and natural
language processing (sentiment analysis, natural language inference). The new
training objective orients the gradient of a model's decision function with
pairs of counterfactual examples. Models trained with this technique
demonstrate improved performance on out-of-distribution test sets.
- Abstract(参考訳): 深層学習の適用性を制限する主な課題の1つは、興味のあるタスクの基本的なメカニズムではなく、スプリアス相関の学習に対する感受性である。
結果として生じる一般化の失敗は、単に同じ分布からより多くのデータを使用するだけでは解決できない。
本稿では,既存のデータセットに見られる見過ごされた監視信号を活用することで,ニューラルネットワークの一般化能力を向上させる補助訓練目標を提案する。
異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を用い、タスクの根底にある因果構造を示す信号を与える。
これらのペアはコンピュータビジョン(視覚質問応答、マルチラベル画像分類)や自然言語処理(強調分析、自然言語推論)において、既存のデータセットで識別可能であることを示す。
新しいトレーニング目標は、反事実の例のペアでモデルの決定関数の勾配を定式化する。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
関連論文リスト
- The Trade-off between Universality and Label Efficiency of
Representations from Contrastive Learning [32.15608637930748]
2つのデシダラタの間にはトレードオフがあることを示し、同時に両方を達成できない可能性があることを示す。
我々は、理論データモデルを用いて分析を行い、より多様な事前学習データにより、異なるタスクに対してより多様な機能が得られる一方で、タスク固有の機能に重点を置いていないことを示す。
論文 参考訳(メタデータ) (2023-02-28T22:14:33Z) - An Additive Instance-Wise Approach to Multi-class Model Interpretation [53.87578024052922]
解釈可能な機械学習は、ブラックボックスシステムの特定の予測を駆動する要因に関する洞察を提供する。
既存の手法は主に、局所的な加法的あるいはインスタンス的なアプローチに従う説明的入力特徴の選択に重点を置いている。
本研究は,両手法の長所を生かし,複数の対象クラスに対する局所的な説明を同時に学習するためのグローバルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-07T06:50:27Z) - Equivariance Allows Handling Multiple Nuisance Variables When Analyzing
Pooled Neuroimaging Datasets [53.34152466646884]
本稿では,構造空間上でインスタンス化された同変表現学習における最近の結果と,因果推論における古典的結果の簡易な利用が,いかに効果的に実現されたかを示す。
いくつかの仮定の下で、我々のモデルが複数のニュアンス変数を扱えることを実証し、そうでなければサンプルの大部分を取り除く必要のあるシナリオにおいて、プールされた科学データセットの分析を可能にする。
論文 参考訳(メタデータ) (2022-03-29T04:54:06Z) - Probing Representation Forgetting in Supervised and Unsupervised
Continual Learning [14.462797749666992]
破滅的な忘れ物は、以前にモデルで学んだ知識の急激な喪失と関係している。
表現を忘れることによって,モデル能力と損失関数が連続学習に与える影響について新たな知見が得られることを示す。
論文 参考訳(メタデータ) (2022-03-24T23:06:08Z) - Learning Debiased and Disentangled Representations for Semantic
Segmentation [52.35766945827972]
セマンティックセグメンテーションのためのモデルに依存しない訓練手法を提案する。
各トレーニングイテレーションで特定のクラス情報をランダムに除去することにより、クラス間の機能依存を効果的に削減する。
提案手法で訓練したモデルは,複数のセマンティックセグメンテーションベンチマークにおいて強い結果を示す。
論文 参考訳(メタデータ) (2021-10-31T16:15:09Z) - Towards Open-World Feature Extrapolation: An Inductive Graph Learning
Approach [80.8446673089281]
グラフ表現と学習を伴う新しい学習パラダイムを提案する。
本フレームワークは,1) 下位モデルとしてのバックボーンネットワーク(フィードフォワードニューラルネットなど)が,予測ラベルの入力および出力として機能を取り,2) 上位モデルとしてのグラフニューラルネットワークが,観測データから構築された特徴データグラフをメッセージパッシングすることで,新機能の埋め込みを外挿することを学ぶ。
論文 参考訳(メタデータ) (2021-10-09T09:02:45Z) - Adversarial Examples for Unsupervised Machine Learning Models [71.81480647638529]
回避予測を引き起こすアドリラルな例は、機械学習モデルの堅牢性を評価し改善するために広く利用されている。
教師なしモデルに対する逆例生成の枠組みを提案し,データ拡張への新たな応用を実証する。
論文 参考訳(メタデータ) (2021-03-02T17:47:58Z) - Analyzing Overfitting under Class Imbalance in Neural Networks for Image
Segmentation [19.259574003403998]
画像分割では、ニューラルネットワークは小さな構造物の前景サンプルに過剰に適合する可能性がある。
本研究では,ネットワークの動作を検査することにより,クラス不均衡下でのオーバーフィッティング問題に対する新たな知見を提供する。
論文 参考訳(メタデータ) (2021-02-20T14:57:58Z) - Adaptive Prototypical Networks with Label Words and Joint Representation
Learning for Few-Shot Relation Classification [17.237331828747006]
本研究は,少ショット関係分類(FSRC)に焦点を当てる。
クラスプロトタイプの表現にラベル単語を追加するための適応的混合機構を提案する。
FewRelでは、異なる数ショット(FS)設定で実験が行われた。
論文 参考訳(メタデータ) (2021-01-10T11:25:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。