論文の概要: Learning to Deceive Knowledge Graph Augmented Models via Targeted
Perturbation
- arxiv url: http://arxiv.org/abs/2010.12872v6
- Date: Mon, 3 May 2021 18:38:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-03 11:52:26.714398
- Title: Learning to Deceive Knowledge Graph Augmented Models via Targeted
Perturbation
- Title(参考訳): 目標摂動を用いた知識グラフ拡張モデルの学習
- Authors: Mrigank Raman, Aaron Chan, Siddhant Agarwal, Peifeng Wang, Hansen
Wang, Sungchul Kim, Ryan Rossi, Handong Zhao, Nedim Lipka, Xiang Ren
- Abstract要約: 知識グラフ(KG)は、ニューラルネットワークが様々な知識集約タスクのパフォーマンスを向上させるのに役立つ。
強化学習政策により, 知覚的に摂動するKGを生成できることを示す。
以上の結果から,KGを付加したモデルがKG情報を解析し,合理的な説明を行う能力に疑問が生じる。
- 参考スコア(独自算出の注目度): 42.407209719347286
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge graphs (KGs) have helped neural models improve performance on
various knowledge-intensive tasks, like question answering and item
recommendation. By using attention over the KG, such KG-augmented models can
also "explain" which KG information was most relevant for making a given
prediction. In this paper, we question whether these models are really behaving
as we expect. We show that, through a reinforcement learning policy (or even
simple heuristics), one can produce deceptively perturbed KGs, which maintain
the downstream performance of the original KG while significantly deviating
from the original KG's semantics and structure. Our findings raise doubts about
KG-augmented models' ability to reason about KG information and give sensible
explanations.
- Abstract(参考訳): 知識グラフ(KG)は、質問応答やアイテムレコメンデーションなど、さまざまな知識集約タスクにおけるニューラルネットワークのパフォーマンス向上を支援する。
KGに注意を払って、そのようなKG強化されたモデルは、KG情報が与えられた予測に最も関係していることを示すこともできる。
本稿では,これらのモデルが期待どおりに動作しているかどうかを問う。
強化学習政策(あるいは単純なヒューリスティックス)により、元のKGの下流性能を維持しつつ、元のKGのセマンティクスや構造から著しく逸脱した、知覚的に摂動したKGを生成できることが示される。
以上の結果から,KGを付加したモデルがKG情報について理解し,合理的な説明を行う能力に疑問が生じる。
関連論文リスト
- Decoding on Graphs: Faithful and Sound Reasoning on Knowledge Graphs through Generation of Well-Formed Chains [66.55612528039894]
知識グラフ(KG)は質問応答(QA)のための信頼できる知識ソースとして機能する。
我々は、LLMとKGの深い相乗効果を促進する新しいフレームワークであるDoG(Decoding on Graphs)を提案する。
様々なKGQAタスクに対して異なるバックグラウンドKGを用いた実験により、DoGが優れた、堅牢なパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2024-10-24T04:01:40Z) - Graph-constrained Reasoning: Faithful Reasoning on Knowledge Graphs with Large Language Models [83.28737898989694]
大規模言語モデル(LLM)は知識ギャップと幻覚のために忠実な推論に苦しむ。
グラフ制約推論(GCR)は、KGにおける構造的知識とLLMにおける非構造的推論を橋渡しする新しいフレームワークである。
GCRは最先端のパフォーマンスを達成し、追加のトレーニングをすることなく、見えないKGに対して強力なゼロショット一般化性を示す。
論文 参考訳(メタデータ) (2024-10-16T22:55:17Z) - Context Graph [8.02985792541121]
本稿では,大規模言語モデル(LLM)を活用して候補エンティティや関連するコンテキストを検索する,コンテキストグラフ推論のtextbfCGR$3$パラダイムを提案する。
実験の結果、CGR$3$はKG完了(KGC)およびKG質問応答(KGQA)タスクの性能を著しく向上させることが示された。
論文 参考訳(メタデータ) (2024-06-17T02:59:19Z) - Generate-on-Graph: Treat LLM as both Agent and KG in Incomplete Knowledge Graph Question Answering [87.67177556994525]
我々は、知識グラフ(KG)を探索しながら、新しい実写トリプルを生成する、Generate-on-Graph(GoG)と呼ばれる学習自由な手法を提案する。
GoGはIKGQAでLLMをエージェントとKGの両方として扱うThinking-Searching-Generatingフレームワークを通じて推論を行う。
論文 参考訳(メタデータ) (2024-04-23T04:47:22Z) - Knowledge Graphs are not Created Equal: Exploring the Properties and
Structure of Real KGs [2.28438857884398]
多様な領域から得られた29個の実知識グラフデータセットを解析し,その特性と構造パターンを解析する。
我々は、KGsに含まれる豊富な構造情報は、フィールド全体にわたるより良いKGモデルの開発に役立つと考えている。
論文 参考訳(メタデータ) (2023-11-10T22:18:09Z) - Retrieve-Rewrite-Answer: A KG-to-Text Enhanced LLMs Framework for
Knowledge Graph Question Answering [16.434098552925427]
本稿では,知識グラフ質問応答(KGQA)課題を解決するために,KG拡張言語モデルアプローチについて検討する。
そこで本研究では,KGの知識をテキスト化された文に変換する,応答に敏感なKG-to-Textアプローチを提案する。
論文 参考訳(メタデータ) (2023-09-20T10:42:08Z) - Explainable Sparse Knowledge Graph Completion via High-order Graph
Reasoning Network [111.67744771462873]
本稿では,スパース知識グラフ(KG)のための新しい説明可能なモデルを提案する。
高次推論をグラフ畳み込みネットワーク、すなわちHoGRNに結合する。
情報不足を緩和する一般化能力を向上させるだけでなく、解釈可能性も向上する。
論文 参考訳(メタデータ) (2022-07-14T10:16:56Z) - SalKG: Learning From Knowledge Graph Explanations for Commonsense
Reasoning [29.148731802458983]
知識グラフ(KG)による言語モデルの強化は、様々な常識推論タスクで成功した。
両粗いKG説明から学習するフレームワークであるSalKGを提案する(KGは健全か?)。
そして、良い(KGのどの部分がうんざりですか?
SalKGのトレーニングプロセスはモデルの性能を継続的に改善できることがわかった。
論文 参考訳(メタデータ) (2021-04-18T09:59:46Z) - Language Models are Open Knowledge Graphs [75.48081086368606]
近年の深層言語モデルは,事前学習を通じて大規模コーパスから知識を自動取得する。
本稿では,言語モデルに含まれる知識をKGにキャストするための教師なし手法を提案する。
KGは、コーパス上の(微調整なしで)事前訓練された言語モデルの1つの前方パスで構築されていることを示す。
論文 参考訳(メタデータ) (2020-10-22T18:01:56Z) - IterefinE: Iterative KG Refinement Embeddings using Symbolic Knowledge [10.689559910656474]
テキストソースから抽出された知識グラフ(KG)は、しばしばノイズが多く、KGベースの質問応答のような下流アプリケーションタスクではパフォーマンスが低下する。
最も成功したKG精製技術は、推論規則と推論監督の過剰な利用である。
本稿では,2つの手法を反復的に組み合わせたIterefinEというKG精製フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-03T14:05:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。