論文の概要: Generating Commonsense Explanation by Extracting Bridge Concepts from
Reasoning Paths
- arxiv url: http://arxiv.org/abs/2009.11753v1
- Date: Thu, 24 Sep 2020 15:27:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-15 04:48:23.065343
- Title: Generating Commonsense Explanation by Extracting Bridge Concepts from
Reasoning Paths
- Title(参考訳): 推論経路からの橋梁概念抽出による常識的説明の生成
- Authors: Haozhe Ji, Pei Ke, Shaohan Huang, Furu Wei, Minlie Huang
- Abstract要約: 本稿では、まず、推論チェーンでテキストブリッジとして機能する基礎概念を抽出する手法を提案する。
推論プロセスを容易にするために,文と橋梁の概念の関連性を構築するために,外部コモンセンス知識を利用する。
橋梁の概念抽出モデルを設計し,まず三重奏を採点し,その経路を導出し,さらに弱い監督で橋梁の概念を選定する。
- 参考スコア(独自算出の注目度): 128.13034600968257
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Commonsense explanation generation aims to empower the machine's sense-making
capability by generating plausible explanations to statements against
commonsense. While this task is easy to human, the machine still struggles to
generate reasonable and informative explanations. In this work, we propose a
method that first extracts the underlying concepts which are served as
\textit{bridges} in the reasoning chain and then integrates these concepts to
generate the final explanation. To facilitate the reasoning process, we utilize
external commonsense knowledge to build the connection between a statement and
the bridge concepts by extracting and pruning multi-hop paths to build a
subgraph. We design a bridge concept extraction model that first scores the
triples, routes the paths in the subgraph, and further selects bridge concepts
with weak supervision at both the triple level and the concept level. We
conduct experiments on the commonsense explanation generation task and our
model outperforms the state-of-the-art baselines in both automatic and human
evaluation.
- Abstract(参考訳): Commonsense説明生成は、Commonsenseに対するステートメントに対するもっともらしい説明を生成することによって、マシンのセンス作成能力を高めることを目的としている。
このタスクは人間にとって簡単ですが、マシンは理にかなった情報的な説明を生み出すのに苦労しています。
そこで本研究では,まず推論チェインで \textit{bridges} として機能する基礎概念を抽出し,これらの概念を統合して最終説明を生成する手法を提案する。
推論プロセスを容易にするために,複数のホップ経路を抽出してサブグラフを作成することにより,外部コモンセンス知識を用いて文とブリッジ概念の接続を構築する。
橋梁の概念抽出モデルを設計し,まず三重グラフの経路を導出し,さらに三重レベルと概念レベルの両方で弱い監督で橋梁の概念を選択する。
我々は,コモンセンス説明生成タスクの実験を行い,本モデルは自動評価と人間評価の両方において最先端のベースラインを上回っている。
関連論文リスト
- Conceptual and Unbiased Reasoning in Language Models [98.90677711523645]
本稿では,抽象的質問に対する概念的推論をモデルに強制する,新しい概念化フレームワークを提案する。
既存の大規模言語モデルは概念的推論では不足しており、様々なベンチマークでは9%から28%に低下している。
ハイレベルな抽象的推論が不偏で一般化可能な意思決定の鍵となるので、モデルがどのように改善できるかについて議論する。
論文 参考訳(メタデータ) (2024-03-30T00:53:53Z) - DiConStruct: Causal Concept-based Explanations through Black-Box
Distillation [9.735426765564474]
本稿では,概念ベースと因果性の両方を考慮した説明手法であるDiConStructを提案する。
本報告では, ブラックボックス機械学習モデルに対する蒸留モデルとして, その予測を近似し, それぞれの説明を生成する。
論文 参考訳(メタデータ) (2024-01-16T17:54:02Z) - Interpretable Neural-Symbolic Concept Reasoning [7.1904050674791185]
概念に基づくモデルは、人間の理解可能な概念のセットに基づいてタスクを学習することでこの問題に対処することを目的としている。
本稿では,概念埋め込みに基づく最初の解釈可能な概念ベースモデルであるDeep Concept Reasoner (DCR)を提案する。
論文 参考訳(メタデータ) (2023-04-27T09:58:15Z) - Automatic Concept Extraction for Concept Bottleneck-based Video
Classification [58.11884357803544]
本稿では,概念に基づくビデオ分類に必要かつ十分な概念抽象セットを厳格に構成する概念発見抽出モジュールを提案する。
提案手法は,自然言語における概念概念の抽象概念を応用し,複雑なタスクに概念ボトルネック法を一般化する。
論文 参考訳(メタデータ) (2022-06-21T06:22:35Z) - Human-Centered Concept Explanations for Neural Networks [47.71169918421306]
概念活性化ベクトル(Concept Activation Vectors, CAV)のクラスを含む概念的説明を紹介する。
次に、自動的に概念を抽出するアプローチと、それらの注意事項に対処するアプローチについて議論する。
最後に、このような概念に基づく説明が、合成設定や実世界の応用において有用であることを示すケーススタディについて論じる。
論文 参考訳(メタデータ) (2022-02-25T01:27:31Z) - Abstract Reasoning via Logic-guided Generation [65.92805601327649]
抽象的推論、すなわち、与えられた観測から複雑なパターンを推測することは、人工知能の中心的な構成要素である。
本稿では,後者のアプローチの枠組みを設計し,人工知能と人間の知能のギャップを埋めることを目的とする。
本稿では,提案する論理の最適化問題として,抽象的推論を削減した新しい生成型DNNフレームワークであるLoGeを提案する。
論文 参考訳(メタデータ) (2021-07-22T07:28:24Z) - Rationalization through Concepts [27.207067974031805]
ConRATという,新しい自己解釈モデルを提案する。
高レベルの決定に対する人間の説明は、しばしば鍵となる概念に基づいており、ConRATはドキュメントに記述されているものを想定している。
2つの正規化器がConRATを駆動して解釈可能な概念を構築する。
論文 参考訳(メタデータ) (2021-05-11T07:46:48Z) - What Did You Think Would Happen? Explaining Agent Behaviour Through
Intended Outcomes [30.056732656973637]
本稿では,意図した結果の概念に基づく強化学習の新たな説明方法を提案する。
これらの説明は、エージェントがそのアクションによって達成しようとしている結果を記述している。
従来の強化学習では,この性質のポストホックな説明のための一般的な手法は不可能であることを示す。
論文 参考訳(メタデータ) (2020-11-10T12:05:08Z) - Commonsense Evidence Generation and Injection in Reading Comprehension [57.31927095547153]
本稿では,CEGI と命名された理解を読み取るためのコモンセンス・エビデンス・ジェネレーション・インジェクション・フレームワークを提案する。
この枠組みは、2種類の補助的コモンセンス証拠を包括的読解に注入し、機械に合理的思考能力を持たせる。
CosmosQAデータセットの実験では、提案されたCEGIモデルが現在の最先端アプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2020-05-11T16:31:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。