論文の概要: Ranking Facts for Explaining Answers to Elementary Science Questions
- arxiv url: http://arxiv.org/abs/2110.09036v1
- Date: Mon, 18 Oct 2021 06:15:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-19 13:59:08.763498
- Title: Ranking Facts for Explaining Answers to Elementary Science Questions
- Title(参考訳): 小学校理科の質問に対する回答のランク付け
- Authors: Jennifer D'Souza and Isaiah Onando Mulang' and Soeren Auer
- Abstract要約: 小学校の理科試験では、学生は通常4つの選択肢の中から1つの答えを選び、なぜその選択をしたのかを説明することができる。
我々は,人間による事実から回答を導き出す新しい課題について考察する。
説明は、WorldTree corpus内の5000近い候補事実の人間による注釈付きセットから作成されます。
- 参考スコア(独自算出の注目度): 1.4091801425319965
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In multiple-choice exams, students select one answer from among typically
four choices and can explain why they made that particular choice. Students are
good at understanding natural language questions and based on their domain
knowledge can easily infer the question's answer by 'connecting the dots'
across various pertinent facts.
Considering automated reasoning for elementary science question answering, we
address the novel task of generating explanations for answers from
human-authored facts. For this, we examine the practically scalable framework
of feature-rich support vector machines leveraging domain-targeted,
hand-crafted features. Explanations are created from a human-annotated set of
nearly 5,000 candidate facts in the WorldTree corpus. Our aim is to obtain
better matches for valid facts of an explanation for the correct answer of a
question over the available fact candidates. To this end, our features offer a
comprehensive linguistic and semantic unification paradigm. The machine
learning problem is the preference ordering of facts, for which we test
pointwise regression versus pairwise learning-to-rank.
Our contributions are: (1) a case study in which two preference ordering
approaches are systematically compared; (2) it is a practically competent
approach that can outperform some variants of BERT-based reranking models; and
(3) the human-engineered features make it an interpretable machine learning
model for the task.
- Abstract(参考訳): 複数選択試験では、学生は通常4つの選択の中から1つの答えを選択し、なぜその選択をしたのかを説明することができる。
学生は自然言語の質問を理解するのが得意で、ドメインの知識に基づいて、様々な関連する事実にまたがって「点をつなげる」ことで簡単に質問の答えを推測することができる。
小学校理科の質問応答における自動推論を考慮し,人間公認事実から解答の説明を生成する新しい課題に対処する。
そこで本研究では,ドメインをターゲットとした手作り機能を活用した機能豊富なサポートベクトルマシンの実用的拡張性について検討する。
説明は、WorldTree corpus内の5000近い候補事実の人間による注釈付きセットから作成されます。
本研究の目的は, 事実候補に対する質問の正解に対する説明の有効事実について, より優れたマッチングを得ることである。
この目的のために、我々の機能は包括的言語的・意味的統一パラダイムを提供する。
機械学習の問題は事実の優先順序であり、ポイントワイド回帰とペアワイド学習を比較検討する。
本研究は,(1)2つの選好順序付け手法を体系的に比較するケーススタディ,(2)BERTに基づくリグレードモデルの変種を克服する実用的なアプローチ,(3)人間工学的特徴により,タスクの解釈可能な機械学習モデルとなっている。
関連論文リスト
- RECKONING: Reasoning through Dynamic Knowledge Encoding [51.076603338764706]
言語モデルは、文脈の一部として提供される知識について推論することで、質問に答えることができることを示す。
これらの状況では、モデルは質問に答えるために必要な知識を区別することができない。
我々は、与えられた文脈知識をモデルのパラメータに折り畳み、より堅牢に推論するようにモデルに教えることを提案する。
論文 参考訳(メタデータ) (2023-05-10T17:54:51Z) - STREET: A Multi-Task Structured Reasoning and Explanation Benchmark [56.555662318619135]
マルチタスクとマルチドメインの自然言語推論と説明ベンチマークを統一的に導入する。
我々は、モデルが質問に答えるだけでなく、ある解の正しさを証明できる中間的な結論を生成するために、問題の前提がどのように使われているかを記述する、段階的に構造化された説明を生成することを期待している。
論文 参考訳(メタデータ) (2023-02-13T22:34:02Z) - Explanation Selection Using Unlabeled Data for Chain-of-Thought
Prompting [80.9896041501715]
非専門家によって書かれたオフ・ザ・シェルフの説明のように、タスクのために"チューニング"されていない説明は、中途半端なパフォーマンスをもたらす可能性がある。
本稿では,ブラックボックス方式で説明拡散プロンプトを最適化する方法の課題に対処する。
論文 参考訳(メタデータ) (2023-02-09T18:02:34Z) - Learn to Explain: Multimodal Reasoning via Thought Chains for Science
Question Answering [124.16250115608604]
本稿では,SQA(Science Question Answering)について紹介する。SQA(Science Question Answering)は,21万のマルチモーダルな複数選択質問と多様な科学トピックと,それに対応する講義や説明による回答の注釈からなる新しいベンチマークである。
また,SQAでは,数ショットのGPT-3では1.20%,微調整のUnifiedQAでは3.99%の改善が見られた。
我々の分析は、人間に似た言語モデルは、より少ないデータから学習し、わずか40%のデータで同じパフォーマンスを達成するのに、説明の恩恵を受けることを示している。
論文 参考訳(メタデータ) (2022-09-20T07:04:24Z) - Single-Turn Debate Does Not Help Humans Answer Hard
Reading-Comprehension Questions [29.932543276414602]
議論スタイルのセットアップにおいて、正しい答えオプションと間違った回答オプションの両方に対して、単一の引数のデータセットを構築します。
私たちは長いコンテキストを使用します -- コンテキストに精通した人間は、事前に選択された正解と誤解に対する説得力のある説明を書きます。
これらの説明によって、完全な文脈を読まない人間が正しい答えをより正確に決定できるかどうかをテストする。
論文 参考訳(メタデータ) (2022-04-11T15:56:34Z) - REX: Reasoning-aware and Grounded Explanation [30.392986232906107]
我々は,画像中の推論プロセスとグラウンド化キーワードをトラバースすることで,意思決定を説明する,新しいタイプのマルチモーダルな説明を開発する。
第2に、意思決定を説明するために、視覚的およびテキスト的モダリティに重要なコンポーネントを密に結合する必要があることを特定する。
第3に、単語と興味のある領域のペアワイズ対応を明示的にモデル化する、新しい説明生成手法を提案する。
論文 参考訳(メタデータ) (2022-03-11T17:28:42Z) - Rethinking Explainability as a Dialogue: A Practitioner's Perspective [57.87089539718344]
医師、医療専門家、政策立案者に対して、説明を求めるニーズと欲求について尋ねる。
本研究は, 自然言語対話の形での対話的説明を, 意思決定者が強く好むことを示唆する。
これらのニーズを考慮して、インタラクティブな説明を設計する際に、研究者が従うべき5つの原則を概説する。
論文 参考訳(メタデータ) (2022-02-03T22:17:21Z) - Tell me why! -- Explanations support learning of relational and causal
structure [24.434551113103105]
説明は人間の学習において重要な役割を担い、特にAIにとって大きな課題が残る分野においてである。
我々は、強化学習エージェントが説明の恩恵を受ける可能性があることを示す。
我々の結果は、説明からの学習が強力な原則であり、より堅牢で一般的な機械学習システムのトレーニングに有望な道筋を提供することを示唆している。
論文 参考訳(メタデータ) (2021-12-07T15:09:06Z) - ExplanationLP: Abductive Reasoning for Explainable Science Question
Answering [4.726777092009554]
本稿では,帰納的推論問題としての質問応答について考察する。
それぞれの選択に対して妥当な説明を構築し、最終回答として最適な説明で候補を選択する。
提案システムであるExplainationLPは,各候補の回答に対して,関連事実の重み付きグラフを構築して説明を行う。
論文 参考訳(メタデータ) (2020-10-25T14:49:24Z) - Information-Theoretic Probing for Linguistic Structure [74.04862204427944]
本稿では,相互情報を推定するための情報理論による探索運用手法を提案する。
我々は,NLP研究でしばしば不足している10の型的多様言語について評価した。
論文 参考訳(メタデータ) (2020-04-07T01:06:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。