論文の概要: Introspective Distillation for Robust Question Answering
- arxiv url: http://arxiv.org/abs/2111.01026v1
- Date: Mon, 1 Nov 2021 15:30:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-02 13:20:35.546276
- Title: Introspective Distillation for Robust Question Answering
- Title(参考訳): ロバストな質問応答のためのイントロスペクティブ蒸留
- Authors: Yulei Niu, Hanwang Zhang
- Abstract要約: 質問応答(QA)モデルは、例えば、視覚的QAに先行する言語や、読解における位置バイアスなど、データのバイアスを利用するためによく知られている。
近年の脱バイアス法は, 分配内(ID)性能のかなりの犠牲を伴い, 分配外(OOD)の一般化性を良好に達成している。
IntroD(Introspective Distillation)と呼ばれる新しい脱湿法を提案し,両者のQAを最大限に活用する。
- 参考スコア(独自算出の注目度): 70.18644911309468
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Question answering (QA) models are well-known to exploit data bias, e.g., the
language prior in visual QA and the position bias in reading comprehension.
Recent debiasing methods achieve good out-of-distribution (OOD)
generalizability with a considerable sacrifice of the in-distribution (ID)
performance. Therefore, they are only applicable in domains where the test
distribution is known in advance. In this paper, we present a novel debiasing
method called Introspective Distillation (IntroD) to make the best of both
worlds for QA. Our key technical contribution is to blend the inductive bias of
OOD and ID by introspecting whether a training sample fits in the factual ID
world or the counterfactual OOD one. Experiments on visual QA datasets VQA v2,
VQA-CP, and reading comprehension dataset SQuAD demonstrate that our proposed
IntroD maintains the competitive OOD performance compared to other debiasing
methods, while sacrificing little or even achieving better ID performance
compared to the non-debiasing ones.
- Abstract(参考訳): 質問応答(QA)モデルは、例えば、視覚的QAに先行する言語や、読解における位置バイアスといったデータバイアスを利用するためによく知られている。
近年の脱バイアス法は, 分配内(ID)性能を著しく犠牲にして, 分配外(OOD)の一般化性を向上している。
したがって、これらはテスト分布が事前に知られている領域にのみ適用できる。
本稿では,QAの両世界を最大限に活用するために,IntroD (Introspective Distillation) と呼ばれる新しい脱臭法を提案する。
我々は,OODとIDの帰納バイアスを,トレーニングサンプルが現実のIDの世界に適合するか,あるいは偽のOODに適合するかを検査することによってブレンドすることを目的とする。
視覚的QAデータセットのVQA v2, VQA-CP, 読解理解データセットのSQuAD実験により, 提案したIntroDは, 他のデバイアス手法と比較して競合性のあるOOD性能を維持しつつ, より優れたID性能を実現していることが示された。
関連論文リスト
- What If the Input is Expanded in OOD Detection? [77.37433624869857]
Out-of-distriion (OOD) 検出は未知のクラスからのOOD入力を特定することを目的としている。
In-distriion(ID)データと区別するために,様々なスコアリング関数を提案する。
入力空間に異なる共通の汚職を用いるという、新しい視点を導入する。
論文 参考訳(メタデータ) (2024-10-24T06:47:28Z) - Adaptive loose optimization for robust question answering [21.166930242285446]
適応的疎解最適化を用いた簡易かつ効果的な新規損失関数を提案する。
我々の主な技術的貢献は、前回の最適化状態と現在の最適化状態との比に応じて、損失を適応的に減少させることである。
提案手法は,ほとんどの場合,最先端のin-of-distriion性能とout-of-distriion性能が得られる。
論文 参考訳(メタデータ) (2023-05-06T08:09:46Z) - Towards Robust Visual Question Answering: Making the Most of Biased
Samples via Contrastive Learning [54.61762276179205]
我々は,ビザドサンプルを最大限に活用することで,ロバストなVQAモデルを構築するための新しいコントラスト学習手法 MMBS を提案する。
具体的には、元のトレーニングサンプルからスプリアス相関に関連する情報を排除し、比較学習のための正のサンプルを構築する。
我々は,OODデータセットのVQA-CP v2において,IDデータセットのVQA v2上での堅牢なパフォーマンスを維持しながら,競争性能を達成することで,コントリビューションを検証した。
論文 参考訳(メタデータ) (2022-10-10T11:05:21Z) - Out-of-Distribution Detection with Hilbert-Schmidt Independence
Optimization [114.43504951058796]
異常検出タスクはAIの安全性において重要な役割を担っている。
ディープニューラルネットワーク分類器は通常、アウト・オブ・ディストリビューション(OOD)の入力を、信頼性の高いイン・ディストリビューション・クラスに誤って分類する傾向がある。
我々は,OOD検出タスクにおいて実用的かつ理論的に有効な代替確率論的パラダイムを提案する。
論文 参考訳(メタデータ) (2022-09-26T15:59:55Z) - MUTANT: A Training Paradigm for Out-of-Distribution Generalization in
Visual Question Answering [58.30291671877342]
MUTANTは、モデルが知覚的に類似しているが意味的に異なる入力の変異に露出する訓練パラダイムである。
MUTANTは、VQA-CPに新しい最先端の精度を確立し、10.57%$改善した。
論文 参考訳(メタデータ) (2020-09-18T00:22:54Z) - On the Value of Out-of-Distribution Testing: An Example of Goodhart's
Law [78.10523907729642]
VQA-CPは視覚的質問応答の標準OODベンチマークとなっている。
ほとんどの公表された手法は、OOD分割の構成に関する明示的な知識に依存している。
ランダムに回答を生成できる手法を含む、恥ずかしいほど単純な手法が、いくつかの質問タイプで芸術の状態を超越していることを示す。
論文 参考訳(メタデータ) (2020-05-19T06:45:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。