論文の概要: ExplaGraphs: An Explanation Graph Generation Task for Structured
Commonsense Reasoning
- arxiv url: http://arxiv.org/abs/2104.07644v2
- Date: Sat, 17 Apr 2021 23:34:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-20 14:53:28.763956
- Title: ExplaGraphs: An Explanation Graph Generation Task for Structured
Commonsense Reasoning
- Title(参考訳): ExplaGraphs: 構造化コモンセンス推論のための説明グラフ生成タスク
- Authors: Swarnadeep Saha, Prateek Yadav, Lisa Bauer, Mohit Bansal
- Abstract要約: スタンス予測のための説明グラフ生成の新しい生成および構造化コモンセンスリゾニングタスク(および関連するデータセット)を紹介します。
具体的には、信念と議論が与えられた場合、モデルは、議論が信念を支持しているかどうかを予測し、予測されたスタンスに対する非自明で完全で曖昧な説明として機能する常識強化グラフを生成する必要がある。
グラフの83%は、様々な構造と推論深度を持つ外部のコモンセンスノードを含んでいる。
- 参考スコア(独自算出の注目度): 65.15423587105472
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent commonsense-reasoning tasks are typically discriminative in nature,
where a model answers a multiple-choice question for a certain context.
Discriminative tasks are limiting because they fail to adequately evaluate the
model's ability to reason and explain predictions with underlying commonsense
knowledge. They also allow such models to use reasoning shortcuts and not be
"right for the right reasons". In this work, we present ExplaGraphs, a new
generative and structured commonsense-reasoning task (and an associated
dataset) of explanation graph generation for stance prediction. Specifically,
given a belief and an argument, a model has to predict whether the argument
supports or counters the belief and also generate a commonsense-augmented graph
that serves as non-trivial, complete, and unambiguous explanation for the
predicted stance. The explanation graphs for our dataset are collected via
crowdsourcing through a novel Collect-Judge-And-Refine graph collection
framework that improves the graph quality via multiple rounds of verification
and refinement. A significant 83% of our graphs contain external commonsense
nodes with diverse structures and reasoning depths. We also propose a
multi-level evaluation framework that checks for the structural and semantic
correctness of the generated graphs and their plausibility with human-written
graphs. We experiment with state-of-the-art text generation models like BART
and T5 to generate explanation graphs and observe that there is a large gap
with human performance, thereby encouraging useful future work for this new
commonsense graph-based explanation generation task.
- Abstract(参考訳): 最近のcommonsense-reasoningタスクは、モデルが特定のコンテキストに対してマルチチョイスの質問に答える自然界において、通常差別的である。
識別タスクは、モデルの推論と予測を基礎となるコモンセンス知識で適切に評価できないため、制限されている。
また、そのようなモデルが「正しい理由」ではなく、推論ショートカットを使用することも可能にします。
本研究では,姿勢予測のための説明グラフ生成のための新しい生成および構造化コモンセンス推論タスク(および関連するデータセット)であるExplaGraphsを提案する。
具体的には、信念と議論が与えられた場合、モデルは、議論が信念を支持しているかどうかを予測し、予測されたスタンスに対する非自明で完全で曖昧な説明として機能する常識強化グラフを生成する必要がある。
データセットの説明グラフはクラウドソーシングを通じて収集され、新たなグラフ収集フレームワークにより、複数の検証と精細化ラウンドを通じてグラフの品質が向上します。
グラフの83%は、様々な構造と推論深度を持つ外部の常識ノードを含んでいる。
また,生成したグラフの構造的および意味的正確性と,そのヒューマン・ライティング・グラフとの適合性をチェックするマルチレベル評価フレームワークを提案する。
我々は,bart や t5 のような最先端テキスト生成モデルを用いて説明グラフを生成し,人間のパフォーマンスに大きなギャップがあることを観察し,この新たなコモンセンスグラフに基づく説明生成タスクに有用な作業を促す。
関連論文リスト
- Motif-Consistent Counterfactuals with Adversarial Refinement for Graph-Level Anomaly Detection [30.618065157205507]
本稿では,グラフレベルの異常検出のための新しい手法Motif-consistent Counterfactuals with Adversarial Refinement (MotifCAR)を提案する。
このモデルは、あるグラフのモチーフと、識別(カテゴリ)情報を含むコアサブグラフと、別のグラフのコンテキストサブグラフを組み合わせて、生の反事実グラフを生成する。
MotifCARは高品質な反ファクトグラフを生成することができる。
論文 参考訳(メタデータ) (2024-07-18T08:04:57Z) - CLEAR: Generative Counterfactual Explanations on Graphs [60.30009215290265]
グラフ上での対実的説明生成の問題について検討する。
グラフに関する反実的な説明を調査する研究はいくつかあるが、この問題の多くの課題はまだ十分に適応されていない。
本稿では,グラフレベルの予測モデルに対して,グラフ上の反実的説明を生成するための新しいフレームワークCLEARを提案する。
論文 参考訳(メタデータ) (2022-10-16T04:35:32Z) - Reinforced Causal Explainer for Graph Neural Networks [112.57265240212001]
グラフニューラルネットワーク(GNN)の探索には説明可能性が不可欠である
我々は強化学習エージェントReinforced Causal Explainer (RC-Explainer)を提案する。
RC-Explainerは忠実で簡潔な説明を生成し、グラフを見えなくするより優れたパワーを持つ。
論文 参考訳(メタデータ) (2022-04-23T09:13:25Z) - Explanation Graph Generation via Pre-trained Language Models: An
Empirical Study with Contrastive Learning [84.35102534158621]
エンドツーエンドで説明グラフを生成する事前学習言語モデルについて検討する。
本稿では,ノードとエッジの編集操作によるグラフ摂動の簡易かつ効果的な方法を提案する。
提案手法は,説明グラフの構造的精度と意味的精度を両立させる。
論文 参考訳(メタデータ) (2022-04-11T00:58:27Z) - GraphOpt: Learning Optimization Models of Graph Formation [72.75384705298303]
本稿では,グラフ構造形成の暗黙的モデルを学ぶエンドツーエンドフレームワークを提案し,その基盤となる最適化機構を明らかにする。
学習した目的は、観測されたグラフプロパティの説明として機能し、ドメイン内の異なるグラフを渡すために自分自身を貸すことができる。
GraphOptは、グラフ内のリンク生成をシーケンシャルな意思決定プロセスとして、最大エントロピー逆強化学習アルゴリズムを用いて解決する。
論文 参考訳(メタデータ) (2020-07-07T16:51:39Z) - Out-of-Sample Representation Learning for Multi-Relational Graphs [8.956321788625894]
非分散知識グラフに対するアウトオブサンプル表現学習問題について検討する。
このタスクのためのベンチマークデータセットを作成し、いくつかのモデルとベースラインを開発し、提案したモデルとベースラインの実証分析と比較を提供する。
論文 参考訳(メタデータ) (2020-04-28T00:53:01Z) - A Survey of Adversarial Learning on Graphs [59.21341359399431]
本稿では,グラフ逆学習タスクに関する既存の研究を考察し,要約する。
具体的には、グラフ解析タスクにおける攻撃と防御に関する既存の作業を調査し、統一する。
我々は、関連する評価指標の重要性を強調し、それらを総合的に調査し、要約する。
論文 参考訳(メタデータ) (2020-03-10T12:48:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。