論文の概要: Learning to Deceive Knowledge Graph Augmented Models via Targeted
Perturbation
- arxiv url: http://arxiv.org/abs/2010.12872v6
- Date: Mon, 3 May 2021 18:38:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-03 11:52:26.714398
- Title: Learning to Deceive Knowledge Graph Augmented Models via Targeted
Perturbation
- Title(参考訳): 目標摂動を用いた知識グラフ拡張モデルの学習
- Authors: Mrigank Raman, Aaron Chan, Siddhant Agarwal, Peifeng Wang, Hansen
Wang, Sungchul Kim, Ryan Rossi, Handong Zhao, Nedim Lipka, Xiang Ren
- Abstract要約: 知識グラフ(KG)は、ニューラルネットワークが様々な知識集約タスクのパフォーマンスを向上させるのに役立つ。
強化学習政策により, 知覚的に摂動するKGを生成できることを示す。
以上の結果から,KGを付加したモデルがKG情報を解析し,合理的な説明を行う能力に疑問が生じる。
- 参考スコア(独自算出の注目度): 42.407209719347286
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge graphs (KGs) have helped neural models improve performance on
various knowledge-intensive tasks, like question answering and item
recommendation. By using attention over the KG, such KG-augmented models can
also "explain" which KG information was most relevant for making a given
prediction. In this paper, we question whether these models are really behaving
as we expect. We show that, through a reinforcement learning policy (or even
simple heuristics), one can produce deceptively perturbed KGs, which maintain
the downstream performance of the original KG while significantly deviating
from the original KG's semantics and structure. Our findings raise doubts about
KG-augmented models' ability to reason about KG information and give sensible
explanations.
- Abstract(参考訳): 知識グラフ(KG)は、質問応答やアイテムレコメンデーションなど、さまざまな知識集約タスクにおけるニューラルネットワークのパフォーマンス向上を支援する。
KGに注意を払って、そのようなKG強化されたモデルは、KG情報が与えられた予測に最も関係していることを示すこともできる。
本稿では,これらのモデルが期待どおりに動作しているかどうかを問う。
強化学習政策(あるいは単純なヒューリスティックス)により、元のKGの下流性能を維持しつつ、元のKGのセマンティクスや構造から著しく逸脱した、知覚的に摂動したKGを生成できることが示される。
以上の結果から,KGを付加したモデルがKG情報について理解し,合理的な説明を行う能力に疑問が生じる。
関連論文リスト
- Knowledge Graphs are not Created Equal: Exploring the Properties and
Structure of Real KGs [2.28438857884398]
多様な領域から得られた29個の実知識グラフデータセットを解析し,その特性と構造パターンを解析する。
我々は、KGsに含まれる豊富な構造情報は、フィールド全体にわたるより良いKGモデルの開発に役立つと考えている。
論文 参考訳(メタデータ) (2023-11-10T22:18:09Z) - On the Sweet Spot of Contrastive Views for Knowledge-enhanced
Recommendation [49.18304766331156]
KG強化推薦のための新しいコントラスト学習フレームワークを提案する。
我々は、KGとIGのための2つの異なるコントラストビューを構築し、それらの相互情報を最大化する。
実世界の3つのデータセットに対する大規模な実験結果から,本手法の有効性と有効性が確認された。
論文 参考訳(メタデータ) (2023-09-23T14:05:55Z) - Retrieve-Rewrite-Answer: A KG-to-Text Enhanced LLMs Framework for
Knowledge Graph Question Answering [16.434098552925427]
本稿では,知識グラフ質問応答(KGQA)課題を解決するために,KG拡張言語モデルアプローチについて検討する。
そこで本研究では,KGの知識をテキスト化された文に変換する,応答に敏感なKG-to-Textアプローチを提案する。
論文 参考訳(メタデータ) (2023-09-20T10:42:08Z) - Lifelong Embedding Learning and Transfer for Growing Knowledge Graphs [22.88552158340435]
既存の知識グラフ埋め込みモデルは、主に静的KGに焦点を当てている。
新たな事実やそれまで目に見えない存在や関係が絶えず現れ、成長を通じて新しい知識を素早く学び、伝達できる埋め込みモデルが必要になります。
我々は,KGのスナップショットをスクラッチから学習することなく,学習の知識伝達と保持を考察する。
提案モデルでは,学習と更新のマスク付きKGオートエンコーダと,学習知識を新たなエンティティや関係埋め込みに注入するための埋め込み転送戦略と,破滅的忘れを避けるための埋め込み正規化手法を備える。
論文 参考訳(メタデータ) (2022-11-29T00:43:44Z) - Explainable Sparse Knowledge Graph Completion via High-order Graph
Reasoning Network [111.67744771462873]
本稿では,スパース知識グラフ(KG)のための新しい説明可能なモデルを提案する。
高次推論をグラフ畳み込みネットワーク、すなわちHoGRNに結合する。
情報不足を緩和する一般化能力を向上させるだけでなく、解釈可能性も向上する。
論文 参考訳(メタデータ) (2022-07-14T10:16:56Z) - MEKER: Memory Efficient Knowledge Embedding Representation for Link
Prediction and Question Answering [65.62309538202771]
知識グラフ(KG)は、事実を象徴的に構造化した記憶装置である。
KG埋め込みには、実世界の暗黙的な情報を必要とするNLPタスクで使用される簡潔なデータが含まれている。
リンク予測タスクとKGに基づく質問応答においてSOTAに比較可能な性能をもたらすメモリ効率のよいKG埋め込みモデルを提案する。
論文 参考訳(メタデータ) (2022-04-22T10:47:03Z) - SalKG: Learning From Knowledge Graph Explanations for Commonsense
Reasoning [29.148731802458983]
知識グラフ(KG)による言語モデルの強化は、様々な常識推論タスクで成功した。
両粗いKG説明から学習するフレームワークであるSalKGを提案する(KGは健全か?)。
そして、良い(KGのどの部分がうんざりですか?
SalKGのトレーニングプロセスはモデルの性能を継続的に改善できることがわかった。
論文 参考訳(メタデータ) (2021-04-18T09:59:46Z) - Language Models are Open Knowledge Graphs [75.48081086368606]
近年の深層言語モデルは,事前学習を通じて大規模コーパスから知識を自動取得する。
本稿では,言語モデルに含まれる知識をKGにキャストするための教師なし手法を提案する。
KGは、コーパス上の(微調整なしで)事前訓練された言語モデルの1つの前方パスで構築されていることを示す。
論文 参考訳(メタデータ) (2020-10-22T18:01:56Z) - IterefinE: Iterative KG Refinement Embeddings using Symbolic Knowledge [10.689559910656474]
テキストソースから抽出された知識グラフ(KG)は、しばしばノイズが多く、KGベースの質問応答のような下流アプリケーションタスクではパフォーマンスが低下する。
最も成功したKG精製技術は、推論規則と推論監督の過剰な利用である。
本稿では,2つの手法を反復的に組み合わせたIterefinEというKG精製フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-03T14:05:54Z) - Toward Subgraph-Guided Knowledge Graph Question Generation with Graph
Neural Networks [53.58077686470096]
知識グラフ(KG)質問生成(QG)は,KGから自然言語質問を生成することを目的とする。
本研究は,KGサブグラフから質問を生成し,回答をターゲットとする,より現実的な環境に焦点を当てる。
論文 参考訳(メタデータ) (2020-04-13T15:43:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。