論文の概要: Interpreting Indirect Answers to Yes-No Questions in Multiple Languages
- arxiv url: http://arxiv.org/abs/2310.13290v1
- Date: Fri, 20 Oct 2023 05:43:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 00:16:09.645733
- Title: Interpreting Indirect Answers to Yes-No Questions in Multiple Languages
- Title(参考訳): 複数の言語におけるイエスノー質問に対する間接回答の解釈
- Authors: Zijie Wang, Md Mosharaf Hossain, Shivam Mathur, Terry Cruz Melo, Kadir
Bulut Ozler, Keun Hee Park, Jacob Quintero, MohammadHossein Rezaei, Shreya
Nupur Shakya, Md Nayem Uddin, Eduardo Blanco
- Abstract要約: この難しい問題に集中し、8つの言語で新しいベンチマークをリリースします。
直接解答(すなわち極性キーワード)は、間接解答を解釈するモデルを訓練するのに有用であることを示す。
- 参考スコア(独自算出の注目度): 10.786408005081993
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Yes-no questions expect a yes or no for an answer, but people often skip
polar keywords. Instead, they answer with long explanations that must be
interpreted. In this paper, we focus on this challenging problem and release
new benchmarks in eight languages. We present a distant supervision approach to
collect training data. We also demonstrate that direct answers (i.e., with
polar keywords) are useful to train models to interpret indirect answers (i.e.,
without polar keywords). Experimental results demonstrate that monolingual
fine-tuning is beneficial if training data can be obtained via distant
supervision for the language of interest (5 languages). Additionally, we show
that cross-lingual fine-tuning is always beneficial (8 languages).
- Abstract(参考訳): 答えにはイエスかノーを期待する質問はないが、人々はしばしば極性のキーワードをスキップする。
その代わりに、解釈しなければならない長い説明で答える。
本稿では,この問題に焦点をあて,8言語で新しいベンチマークをリリースする。
トレーニングデータ収集のための遠隔監視手法を提案する。
また,直接解答(極性キーワードを含む)は,間接解答を解釈するモデル(極性キーワードなし)の訓練に有用であることを示す。
実験の結果,利害関係言語(5言語)の遠隔監視により学習データが得られる場合,単言語の微調整が有効であることが示された。
さらに、言語間の微調整は常に有益である(8言語)。
関連論文リスト
- Interpreting Answers to Yes-No Questions in Dialogues from Multiple Domains [13.057934487969522]
多くの場合、イエス、ノー、または同様の極性キーワードを明示せずにイエスノー質問に答える。
我々は,映画脚本,テニスインタビュー,航空顧客サービスという3つの領域に新たなベンチマークを提示する。
論文 参考訳(メタデータ) (2024-04-25T00:13:00Z) - Question Translation Training for Better Multilingual Reasoning [108.10066378240879]
大規模言語モデルは推論タスクにおいて魅力的なパフォーマンスを示すが、英語以外の言語ではより悪いパフォーマンスを示す傾向がある。
典型的な解決策は、命令データを興味のあるすべての言語に翻訳し、結果の多言語データをトレーニングすることである。
本稿では,X- English parallel question dataを微調整することで,推論する質問を英語に翻訳するモデルを訓練する。
論文 参考訳(メタデータ) (2024-01-15T16:39:10Z) - Overinformative Question Answering by Humans and Machines [26.31070412632125]
人間の回答における過剰な表現性は、質問者の目標に対する関連性を考えることによって引き起こされることを示す。
本研究は, GPT-3が, 実例と認知動機のある説明によって導かれるときの, 刺激的かつ人間的な回答パターンの形式に非常に敏感であることを示す。
論文 参考訳(メタデータ) (2023-05-11T21:41:41Z) - Learn to Explain: Multimodal Reasoning via Thought Chains for Science
Question Answering [124.16250115608604]
本稿では,SQA(Science Question Answering)について紹介する。SQA(Science Question Answering)は,21万のマルチモーダルな複数選択質問と多様な科学トピックと,それに対応する講義や説明による回答の注釈からなる新しいベンチマークである。
また,SQAでは,数ショットのGPT-3では1.20%,微調整のUnifiedQAでは3.99%の改善が見られた。
我々の分析は、人間に似た言語モデルは、より少ないデータから学習し、わずか40%のデータで同じパフォーマンスを達成するのに、説明の恩恵を受けることを示している。
論文 参考訳(メタデータ) (2022-09-20T07:04:24Z) - Delving Deeper into Cross-lingual Visual Question Answering [115.16614806717341]
標準学習装置に簡単な修正を加えることで、モノリンガル英語のパフォーマンスへの移行ギャップを大幅に減らすことができることを示す。
多言語マルチモーダル変換器の多言語間VQAを多言語間VQAで解析する。
論文 参考訳(メタデータ) (2022-02-15T18:22:18Z) - XOR QA: Cross-lingual Open-Retrieval Question Answering [75.20578121267411]
この作業は、言語横断的な設定に応答するオープン検索の質問を拡張します。
我々は,同じ回答を欠いた質問に基づいて,大規模なデータセットを構築した。
論文 参考訳(メタデータ) (2020-10-22T16:47:17Z) - "I'd rather just go to bed": Understanding Indirect Answers [61.234722570671686]
我々は,質問に対する間接的応答の理解という,現実的な推論問題をダイアログで再検討する。
最初の大規模英語コーパス「Circa」を34,268対(極性質問,間接回答)で作成・リリースする。
本稿では,質問応答対のカテゴリを予測するためにBERTに基づくニューラルモデルを提案する。
論文 参考訳(メタデータ) (2020-10-07T14:41:40Z) - MKQA: A Linguistically Diverse Benchmark for Multilingual Open Domain
Question Answering [6.452012363895865]
このデータセットは、質問応答を評価するために、現在最も広い範囲の言語を提供する。
生成的および抽出的質問応答のための様々な最先端手法とベースラインをベンチマークする。
結果は、このデータセットが英語でも、特に低リソース言語では挑戦的であることを示している。
論文 参考訳(メタデータ) (2020-07-30T03:33:46Z) - Counterfactual VQA: A Cause-Effect Look at Language Bias [117.84189187160005]
VQAモデルは、ショートカットとして言語バイアスに依存し、視覚と言語の両方からマルチモーダルな知識を十分に学ばない傾向にある。
本稿では,質問に対する直接的な因果的影響として,言語バイアスを捉えることのできる,新たな反事実推論フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-08T01:49:27Z) - TyDi QA: A Benchmark for Information-Seeking Question Answering in
Typologically Diverse Languages [27.588857710802113]
TyDi QAは、204Kの問合せ対を持つ11の類型的多様言語をカバーする質問応答データセットである。
本稿では,観測された言語現象のデータ品質と例レベルの定性言語分析について定量的に分析する。
論文 参考訳(メタデータ) (2020-03-10T21:11:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。