論文の概要: Learning Collaborative Agents with Rule Guidance for Knowledge Graph
Reasoning
- arxiv url: http://arxiv.org/abs/2005.00571v2
- Date: Tue, 6 Oct 2020 10:13:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 22:33:59.146536
- Title: Learning Collaborative Agents with Rule Guidance for Knowledge Graph
Reasoning
- Title(参考訳): 知識グラフ推論のためのルールガイダンスを用いた協調エージェントの学習
- Authors: Deren Lei and Gangrong Jiang and Xiaotao Gu and Kexuan Sun and Yuning
Mao and Xiang Ren
- Abstract要約: 本稿では,シンボルベースの手法によって生成される高品質なルールを利用して,歩行型エージェントの報酬管理を行うルールガイドを提案する。
ベンチマークデータセットの実験では、Re RuleGuiderは解釈可能性を失うことなく、ウォークベースのモデルのパフォーマンスを改善する。
- 参考スコア(独自算出の注目度): 30.2906948014669
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Walk-based models have shown their advantages in knowledge graph (KG)
reasoning by achieving decent performance while providing interpretable
decisions. However, the sparse reward signals offered by the KG during
traversal are often insufficient to guide a sophisticated walk-based
reinforcement learning (RL) model. An alternate approach is to use traditional
symbolic methods (e.g., rule induction), which achieve good performance but can
be hard to generalize due to the limitation of symbolic representation. In this
paper, we propose RuleGuider, which leverages high-quality rules generated by
symbolic-based methods to provide reward supervision for walk-based agents.
Experiments on benchmark datasets show that RuleGuider improves the performance
of walk-based models without losing interpretability.
- Abstract(参考訳): ウォークベースのモデルは、解釈可能な決定を行いながら、十分なパフォーマンスを達成し、知識グラフ推論(KG)の利点を示している。
しかし、交通中のKGが提示するスパース報酬信号は、洗練された歩行に基づく強化学習(RL)モデルを導くには不十分であることが多い。
別のアプローチは、従来の記号法(例:ルール帰納法)を使用することで、優れた性能を達成するが、記号表現の制限により一般化が難しい。
本稿では,シンボルベースの手法によって生成される高品質なルールを利用して,歩行型エージェントの報酬管理を行うルールガイドを提案する。
ベンチマークデータセットの実験では、Re RuleGuiderは解釈可能性を失うことなく、ウォークベースモデルのパフォーマンスを改善する。
関連論文リスト
- Disentangled Generative Graph Representation Learning [51.59824683232925]
本稿では,自己教師型学習フレームワークであるDiGGR(Disentangled Generative Graph Representation Learning)を紹介する。
潜伏要因を学習し、それをグラフマスクモデリングのガイドとして活用することを目的としている。
2つの異なるグラフ学習タスクのための11の公開データセットの実験は、DiGGRが従来よりも一貫して多くの自己教師付きメソッドを上回っていることを示している。
論文 参考訳(メタデータ) (2024-08-24T05:13:02Z) - Balancing the Scales: Reinforcement Learning for Fair Classification [2.262217900462841]
分類タスクの公平性は、伝統的に神経表現からのバイアス除去に焦点を当ててきた。
最近の傾向は、トレーニングプロセスに公正さを埋め込むアルゴリズム的手法を好んでいる。
我々は、コンテキスト的マルチアーム・バンディット・フレームワークを採用し、我々の目的に合うように3つの人気のあるRLアルゴリズムを適用した。
論文 参考訳(メタデータ) (2024-07-15T11:28:16Z) - iQRL -- Implicitly Quantized Representations for Sample-efficient Reinforcement Learning [24.684363928059113]
自己教師付き潜在状態整合性損失のみを用いた効率的な表現学習法を提案する。
我々は,潜在表現を定量化することにより,高い性能を実現し,表現崩壊を防止する。
iQRL:暗黙的に量子化強化学習(Quantized Reinforcement Learning)という手法は,任意のモデルフリーなRLアルゴリズムと互換性がある。
論文 参考訳(メタデータ) (2024-06-04T18:15:44Z) - Path-based Explanation for Knowledge Graph Completion [17.541247786437484]
GNNベースの知識グラフ補完モデルの結果に対する適切な説明は、モデルの透明性を高める。
KGCタスクを説明するための既存のプラクティスは、インスタンス/サブグラフベースのアプローチに依存している。
我々は、GNNベースのモデルを探索する最初のパスベースのKGC説明器であるPower-Linkを提案する。
論文 参考訳(メタデータ) (2024-01-04T14:19:37Z) - Faithful Path Language Modeling for Explainable Recommendation over Knowledge Graph [15.40937702266105]
PEARLM (Path-based Explainable-Accurate Recommender based on Language Modelling) を導入し,知識グラフ制約デコーディング(KGCD)機構を改良した。
この機構は、復号レベルで有効なKG接続に付着させることにより、劣化した経路のゼロ発生を保証する。
本手法の有効性を厳密な経験的評価により検証し,説明経路の整合性を定量化する指標を新たに提案した。
論文 参考訳(メタデータ) (2023-10-25T08:14:49Z) - Rule By Example: Harnessing Logical Rules for Explainable Hate Speech
Detection [13.772240348963303]
Rule By Example(RBE)は、テキストコンテンツモデレーションのタスクに対する論理規則から学習するための、新規なコントラスト学習手法である。
RBEはルール基底の予測を提供することができ、典型的なディープラーニングベースのアプローチと比較して説明可能でカスタマイズ可能な予測を可能にする。
論文 参考訳(メタデータ) (2023-07-24T16:55:37Z) - Studying How to Efficiently and Effectively Guide Models with Explanations [52.498055901649025]
「モデルガイダンス」とは「正しい理由のために正しい」ことを保証するためにモデルの説明を規則化する考え方である。
PASCAL VOC 2007 および MS COCO 2014 データセット上で, 各種損失関数, 帰属方法, モデル, 誘導深度について詳細な評価を行う。
具体的には、一般的に使用されるセグメンテーションマスクよりもはるかに安価で入手可能なバウンディングボックスアノテーションを用いてモデルをガイドする。
論文 参考訳(メタデータ) (2023-03-21T15:34:50Z) - Reinforcement Learning based Path Exploration for Sequential Explainable
Recommendation [57.67616822888859]
強化学習(TMER-RL)を活用した新しい時間的メタパスガイド型説明可能な勧告を提案する。
TMER-RLは, 動的知識グラフ上での動的ユーザ・イテム進化を逐次モデル化するために, 注意機構を持つ連続項目間の強化項目・イテムパスをモデル化する。
2つの実世界のデータセットに対するTMERの大規模な評価は、最近の強いベースラインと比較して最先端のパフォーマンスを示している。
論文 参考訳(メタデータ) (2021-11-24T04:34:26Z) - Generative Adversarial Reward Learning for Generalized Behavior Tendency
Inference [71.11416263370823]
ユーザの行動嗜好モデルのための生成的逆強化学習を提案する。
我々のモデルは,差別的アクター批判ネットワークとWasserstein GANに基づいて,ユーザの行動から報酬を自動的に学習することができる。
論文 参考訳(メタデータ) (2021-05-03T13:14:25Z) - Distilling Interpretable Models into Human-Readable Code [71.11328360614479]
人間可読性は機械学習モデル解釈可能性にとって重要で望ましい標準である。
従来の方法を用いて解釈可能なモデルを訓練し,それを簡潔で可読なコードに抽出する。
本稿では,幅広いユースケースで効率的に,確実に高品質な結果を生成する分別線形曲線フィッティングアルゴリズムについて述べる。
論文 参考訳(メタデータ) (2021-01-21T01:46:36Z) - Nested-Wasserstein Self-Imitation Learning for Sequence Generation [158.19606942252284]
分布意味マッチングのためのネスト・ワッサーシュタイン距離の概念を提案する。
ネストされたワッサーシュタインの自己想像学習フレームワークを開発し、歴史ある高次列を利用するようモデルに奨励する。
論文 参考訳(メタデータ) (2020-01-20T02:19:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。