論文の概要: A Semantic-based Method for Unsupervised Commonsense Question Answering
- arxiv url: http://arxiv.org/abs/2105.14781v1
- Date: Mon, 31 May 2021 08:21:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-01 17:22:07.304090
- Title: A Semantic-based Method for Unsupervised Commonsense Question Answering
- Title(参考訳): 教師なしコモンセンス質問応答のための意味的手法
- Authors: Yilin Niu, Fei Huang, Jiaming Liang, Wenkai Chen, Xiaoyan Zhu, Minlie
Huang
- Abstract要約: ラベル付きタスクデータに依存しないため、教師なしのコモンセンス質問応答は魅力的である。
教師なしコモンセンス質問応答のためのSemantic-based Question Answering法(SEQA)を提案する。
- 参考スコア(独自算出の注目度): 40.18557352036813
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised commonsense question answering is appealing since it does not
rely on any labeled task data. Among existing work, a popular solution is to
use pre-trained language models to score candidate choices directly conditioned
on the question or context. However, such scores from language models can be
easily affected by irrelevant factors, such as word frequencies, sentence
structures, etc. These distracting factors may not only mislead the model to
choose a wrong answer but also make it oversensitive to lexical perturbations
in candidate answers.
In this paper, we present a novel SEmantic-based Question Answering method
(SEQA) for unsupervised commonsense question answering. Instead of directly
scoring each answer choice, our method first generates a set of plausible
answers with generative models (e.g., GPT-2), and then uses these plausible
answers to select the correct choice by considering the semantic similarity
between each plausible answer and each choice. We devise a simple, yet sound
formalism for this idea and verify its effectiveness and robustness with
extensive experiments. We evaluate the proposed method on four benchmark
datasets, and our method achieves the best results in unsupervised settings.
Moreover, when attacked by TextFooler with synonym replacement, SEQA
demonstrates much less performance drops than baselines, thereby indicating
stronger robustness.
- Abstract(参考訳): ラベル付きタスクデータに依存しないため、教師なしのコモンセンス質問応答は魅力的である。
既存の研究の中で、一般的な解決策は、事前訓練された言語モデルを使用して、質問や文脈で直接条件付けられた候補の選択をスコアすることである。
しかし、そのような言語モデルからのスコアは、単語の頻度や文構造などの無関係な要因の影響を受けやすい。
これらの邪魔な要因は、間違った解答を選択するためにモデルを誤解させるだけでなく、候補解答の語彙的摂動に過敏にさせる。
本稿では,教師なしコモンセンス質問応答のためのSemantic-based Question Answering(SEQA)を提案する。
提案手法は,各解選択を直接スコアリングする代わりに,まず生成モデル(GPT-2など)を用いて,各解と各解のセマンティックな類似性を考慮することによって,これらの可算解を用いて正しい解を選択する。
我々は、このアイデアに対して単純で健全な形式を考案し、その有効性と堅牢性を広範な実験で検証する。
本研究では,提案手法を4つのベンチマークデータセットで評価し,教師なし設定で最良の結果を得る。
さらに、TextFoolerに同義の置換で攻撃された場合、SEQAはベースラインよりもパフォーマンス低下がはるかに少なく、強い堅牢性を示す。
関連論文リスト
- Look at the Text: Instruction-Tuned Language Models are More Robust Multiple Choice Selectors than You Think [27.595110330513567]
テキスト回答は、最初のトークン確率よりも、摂動に疑問を呈するほど堅牢であることを示す。
本研究は,第1トークン確率評価よりもテキスト応答評価が有効であることを示す。
論文 参考訳(メタデータ) (2024-04-12T10:36:15Z) - "My Answer is C": First-Token Probabilities Do Not Match Text Answers in Instruction-Tuned Language Models [40.867655189493924]
言語生成のオープンな性質は、大規模言語モデル(LLM)の評価を困難にしている。
1つの一般的な評価手法は、応答空間を制限するためにMulti-choice Question (MCQ) を用いる。
そこで本研究では,テキストの出力を数次元で評価する。
論文 参考訳(メタデータ) (2024-02-22T12:47:33Z) - Answering Ambiguous Questions via Iterative Prompting [84.3426020642704]
オープンドメインの質問応答では、質問のあいまいさのため、複数の妥当な回答が存在する可能性がある。
ひとつのアプローチは、すべての有効な回答を直接予測することですが、これは、妥当性と多様性のバランスに苦労する可能性があります。
本稿では,あいまいな疑問に答える既存手法の欠陥に対処するため,AmbigPromptを提案する。
論文 参考訳(メタデータ) (2023-07-08T04:32:17Z) - Momentum Contrastive Pre-training for Question Answering [54.57078061878619]
MCROSSはモーメントコントラスト学習フレームワークを導入し、クローゼのような解答確率と自然な問合せのサンプルペアを一致させる。
本手法は,教師付きシナリオとゼロショットシナリオの両方において,すべてのベースラインと比較して顕著な改善を実現している。
論文 参考訳(メタデータ) (2022-12-12T08:28:22Z) - TASA: Deceiving Question Answering Models by Twin Answer Sentences
Attack [93.50174324435321]
本稿では,質問応答(QA)モデルに対する敵対的攻撃手法であるTASA(Twin Answer Sentences Attack)を提案する。
TASAは、金の回答を維持しながら、流動的で文法的な逆境を生み出す。
論文 参考訳(メタデータ) (2022-10-27T07:16:30Z) - A Mutual Information Maximization Approach for the Spurious Solution
Problem in Weakly Supervised Question Answering [60.768146126094955]
弱々しい教師付き質問応答は通常、最終的な答えのみを監督信号として持つ。
偶然に正解を導出する刺激的な解が多数存在するかもしれないが、そのような解の訓練はモデルの性能を損なう可能性がある。
本稿では,質問応答対と予測解間の相互情報の最大化により,このような意味的相関を明示的に活用することを提案する。
論文 参考訳(メタデータ) (2021-06-14T05:47:41Z) - Generative Context Pair Selection for Multi-hop Question Answering [60.74354009152721]
マルチホップ質問応答のための生成コンテキスト選択モデルを提案する。
提案した生成経路選択モデルは,対向保留集合上でのより良い性能(ベースラインより4.9%高い)を有する。
論文 参考訳(メタデータ) (2021-04-18T07:00:48Z) - A Wrong Answer or a Wrong Question? An Intricate Relationship between
Question Reformulation and Answer Selection in Conversational Question
Answering [15.355557454305776]
会話の文脈における質問書き直し(QR)は、この現象により多くの光を放つことができることを示す。
TREC CAsT と QuAC (CANARD) のデータセットを用いて解析を行った。
論文 参考訳(メタデータ) (2020-10-13T06:29:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。