論文の概要: Rationale-Inspired Natural Language Explanations with Commonsense
- arxiv url: http://arxiv.org/abs/2106.13876v1
- Date: Fri, 25 Jun 2021 20:31:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-30 14:14:41.975984
- Title: Rationale-Inspired Natural Language Explanations with Commonsense
- Title(参考訳): コモンセンスを用いたRationale-Inspireed Natural Language Explanations
- Authors: Bodhisattwa Prasad Majumder, Oana-Maria Camburu, Thomas Lukasiewicz,
Julian McAuley
- Abstract要約: 我々は,コモンセンス知識が抽出的理性とNLEの間の橋渡しとして機能することを示す。
我々のフレームワークは、NLEの生成における過去の最先端よりも大きなマージンを超越しています。
本研究は,コモンセンスに基づく説明がタスク性能と合理性抽出能力を両立させることを示す。
- 参考スコア(独自算出の注目度): 36.34346592790999
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainable machine learning models primarily justify predicted labels using
either extractive rationales (i.e., subsets of input features) or free-text
natural language explanations (NLEs) as abstractive justifications. While NLEs
can be more comprehensive than extractive rationales, machine-generated NLEs
have been shown to sometimes lack commonsense knowledge. Here, we show that
commonsense knowledge can act as a bridge between extractive rationales and
NLEs, rendering both types of explanations better. More precisely, we introduce
a unified framework, called RExC (Rationale-Inspired Explanations with
Commonsense), that (1) extracts rationales as a set of features responsible for
machine predictions, (2) expands the extractive rationales using available
commonsense resources, and (3) uses the expanded knowledge to generate natural
language explanations. Our framework surpasses by a large margin the previous
state-of-the-art in generating NLEs across five tasks in both natural language
processing and vision-language understanding, with human annotators
consistently rating the explanations generated by RExC to be more
comprehensive, grounded in commonsense, and overall preferred compared to
previous state-of-the-art models. Moreover, our work shows that
commonsense-grounded explanations can enhance both task performance and
rationales extraction capabilities.
- Abstract(参考訳): 説明可能な機械学習モデルは、主に、抽出的論理(入力特徴のサブセット)または抽象的正当化として自由テキスト自然言語説明(NLE)を用いて予測されたラベルを正当化する。
NLEは抽出的理性よりも包括的であるが、機械生成のNLEは時に常識的知識を欠いていることが示されている。
ここでは,コモンセンス知識が抽出的合理性とnlesの橋渡しとして機能し,両タイプの説明をより良くすることを示す。
より正確には、(1)機械予測に責任のある特徴の集合として有理を抽出し、(2)利用可能なコモンセンスリソースを用いて抽出有理を拡大し、(3)拡張された知識を用いて自然言語の説明を生成する、RExC(Rationale-Inspired Explanations with Commonsense)と呼ばれる統一的なフレームワークを導入する。
我々のフレームワークは、自然言語処理と視覚言語理解の両方において5つのタスクにまたがるNLEの生成において、これまでの最先端よりも大きなマージンを上回り、人間のアノテータは、RExCが生成した説明をより包括的で、常識に根ざし、従来の最先端モデルよりも全体的に好まれていることを常に評価している。
さらに,コモンセンスに基づく説明により,作業性能と合理化抽出能力が向上することを示す。
関連論文リスト
- Characterizing Large Language Models as Rationalizers of
Knowledge-intensive Tasks [6.51301154858045]
大規模言語モデル(LLM)は、タスク固有の最小限の監督力を持つ流動的なテキストを生成するのに熟練している。
専門家による事例を数ショットで表現することで,自然言語における知識誘導的合理化の課題を考察する。
驚いたことに、群衆労働者はクラウドソースの合理化よりも知識に基づく合理化を好んだ。
論文 参考訳(メタデータ) (2023-11-09T01:04:44Z) - Commonsense Knowledge Transfer for Pre-trained Language Models [83.01121484432801]
ニューラルコモンセンス知識モデルに格納されたコモンセンス知識を汎用的な事前学習言語モデルに転送するフレームワークであるコモンセンス知識伝達を導入する。
まず、一般的なテキストを利用して、ニューラルコモンセンス知識モデルからコモンセンス知識を抽出するクエリを形成する。
次に、コモンセンスマスクの埋め込みとコモンセンスの関係予測という2つの自己教師対象で言語モデルを洗練する。
論文 参考訳(メタデータ) (2023-06-04T15:44:51Z) - Complementary Explanations for Effective In-Context Learning [77.83124315634386]
大規模言語モデル (LLM) は、説明のインプロンプトから学習する際、顕著な能力を示した。
この研究は、文脈内学習に説明が使用されるメカニズムをよりよく理解することを目的としている。
論文 参考訳(メタデータ) (2022-11-25T04:40:47Z) - NELLIE: A Neuro-Symbolic Inference Engine for Grounded, Compositional, and Explainable Reasoning [59.16962123636579]
本稿では,Prologベースの推論エンジンを新たに提案する。
我々は手作りのルールを、ニューラルネットワークモデリング、ガイド付き生成、半密検索の組み合わせで置き換える。
我々の実装であるNELLIEは、完全に解釈可能なエンドツーエンドの基底QAを示す最初のシステムである。
論文 参考訳(メタデータ) (2022-09-16T00:54:44Z) - Scientific Explanation and Natural Language: A Unified
Epistemological-Linguistic Perspective for Explainable AI [2.7920304852537536]
本稿では,理論と実践のギャップを科学的説明の概念に埋めることを目的として,科学的領域に焦点を当てた。
定量的および定性的手法の混合により、本研究では以下の主要な結論を導出することができる。
論文 参考訳(メタデータ) (2022-05-03T22:31:42Z) - Inherently Explainable Reinforcement Learning in Natural Language [14.117921448623342]
本稿では,本質的に説明可能な強化学習エージェントの開発に焦点をあてる。
この階層的説明可能な強化学習エージェントは、インタラクティブフィクション、テキストベースのゲーム環境で動作する。
私たちのエージェントは、説明責任を第一級市民として扱うように設計されています。
論文 参考訳(メタデータ) (2021-12-16T14:24:35Z) - Generated Knowledge Prompting for Commonsense Reasoning [53.88983683513114]
本稿では,汎用的なプロンプト形式を用いて,言語モデルから直接知識文を生成することを提案する。
このアプローチは、4つのコモンセンス推論タスクにおいて、既製の言語モデルと微調整された言語モデルの両方のパフォーマンスを向上させる。
特に、モデルが生成した知識を使用することで、予測が改善できることが分かる。
論文 参考訳(メタデータ) (2021-10-15T21:58:03Z) - Towards Interpretable Natural Language Understanding with Explanations
as Latent Variables [146.83882632854485]
そこで本研究では,人間に注釈付き説明文の小さなセットだけを必要とする自然言語理解の枠組みを構築した。
我々のフレームワークは、ニューラルネットワークの基本的な推論過程をモデル化する潜在変数として、自然言語の説明を扱う。
論文 参考訳(メタデータ) (2020-10-24T02:05:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。