論文の概要: MPRM: A Markov Path-based Rule Miner for Efficient and Interpretable Knowledge Graph Reasoning
- arxiv url: http://arxiv.org/abs/2505.12329v1
- Date: Sun, 18 May 2025 09:48:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:11.168059
- Title: MPRM: A Markov Path-based Rule Miner for Efficient and Interpretable Knowledge Graph Reasoning
- Title(参考訳): MPRM: 能率的で解釈可能な知識グラフ推論のためのマルコフパスに基づくルールマイナ
- Authors: Mingyang Li, Song Wang, Ning Cai,
- Abstract要約: MPRMは規則に基づく推論をマルコフ連鎖としてモデル化する新しいルールマイニング手法である。
知識グラフを100万以上の事実で効率的にマイニングし、1つのCPUで22秒で1%未満の事実をサンプリングすると同時に、解釈可能性を保持し、ベースラインよりも最大11%の精度で推論する。
- 参考スコア(独自算出の注目度): 15.639263651618107
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Rule mining in knowledge graphs enables interpretable link prediction. However, deep learning-based rule mining methods face significant memory and time challenges for large-scale knowledge graphs, whereas traditional approaches, limited by rigid confidence metrics, incur high computational costs despite sampling techniques. To address these challenges, we propose MPRM, a novel rule mining method that models rule-based inference as a Markov chain and uses an efficient confidence metric derived from aggregated path probabilities, significantly lowering computational demands. Experiments on multiple datasets show that MPRM efficiently mines knowledge graphs with over a million facts, sampling less than 1% of facts on a single CPU in 22 seconds, while preserving interpretability and boosting inference accuracy by up to 11% over baselines.
- Abstract(参考訳): 知識グラフにおけるルールマイニングは、解釈可能なリンク予測を可能にする。
しかし、ディープラーニングに基づくルールマイニング手法は、大規模な知識グラフにおいて重要な記憶と時間の課題に直面している。
これらの課題に対処するために,ルールベースの推論をマルコフ連鎖としてモデル化する新しいルールマイニング手法MPRMを提案する。
複数のデータセットの実験によると、MPRMは知識グラフを100万以上の事実で効率的にマイニングし、1つのCPU上の事実の1%未満を22秒でサンプリングする。
関連論文リスト
- Do NOT Think That Much for 2+3=? On the Overthinking of o1-Like LLMs [76.43407125275202]
o1のようなモデルは、推論中に人間のような長時間の思考をエミュレートすることができる。
本論文は,これらのモデルにおける過度な考察の課題に関する,最初の包括的研究である。
精度を損なうことなく、過剰思考を緩和し、推論プロセスを合理化するための戦略を提案する。
論文 参考訳(メタデータ) (2024-12-30T18:55:12Z) - Harnessing the Power of Large Language Model for Uncertainty Aware Graph Processing [24.685942503019948]
本稿では,大言語モデル(LLM)のパワーを生かした新しい手法を提案する。
筆者らは,2つのグラフ処理タスク,すなわち知識グラフ補完とグラフ分類について実験を行った。
LLM が生成した回答の正確性を予測するため,10 つのデータセットのうち 7 つに対して 0.8 以上の AUC を達成した。
論文 参考訳(メタデータ) (2024-03-31T07:38:39Z) - Minimally Supervised Learning using Topological Projections in
Self-Organizing Maps [55.31182147885694]
自己組織化マップ(SOM)におけるトポロジカルプロジェクションに基づく半教師付き学習手法を提案する。
提案手法は,まずラベル付きデータ上でSOMを訓練し,最小限のラベル付きデータポイントをキーベストマッチングユニット(BMU)に割り当てる。
提案した最小教師付きモデルが従来の回帰手法を大幅に上回ることを示す。
論文 参考訳(メタデータ) (2024-01-12T22:51:48Z) - Large-scale Bayesian Structure Learning for Gaussian Graphical Models using Marginal Pseudo-likelihood [0.26249027950824516]
我々は2つの新しいマルコフ連鎖モンテカルロ探索アルゴリズムを導入する。
これらのアルゴリズムは、1000変数の大規模問題であっても、標準コンピュータ上でわずか数分で信頼性の高い結果を提供できる。
また,ヒトおよびマウスの遺伝子発現研究における中・大規模応用における本手法の有用性について述べる。
論文 参考訳(メタデータ) (2023-06-30T20:37:40Z) - Benchmarking Node Outlier Detection on Graphs [90.29966986023403]
グラフの外れ値検出は、多くのアプリケーションにおいて、新しいが重要な機械学習タスクである。
UNODと呼ばれるグラフに対して、最初の包括的教師なしノード外乱検出ベンチマークを示す。
論文 参考訳(メタデータ) (2022-06-21T01:46:38Z) - Bayesian graph convolutional neural networks via tempered MCMC [0.41998444721319217]
畳み込みニューラルネットワークのようなディープラーニングモデルは、画像やマルチメディアタスクに長い間適用されてきた。
最近では、グラフで表現できる非構造化データにもっと注意が払われている。
これらのタイプのデータは、健康と医学、ソーシャルネットワーク、および研究データリポジトリでよく見られます。
論文 参考訳(メタデータ) (2021-04-17T04:03:25Z) - Graph Sampling Based Deep Metric Learning for Generalizable Person
Re-Identification [114.56752624945142]
我々は、最も一般的なランダムサンプリング手法である有名なpkサンプリングは、深層メトリック学習にとって有益で効率的ではないと主張する。
大規模計量学習のためのグラフサンプリング(GS)と呼ばれる効率的なミニバッチサンプリング手法を提案する。
論文 参考訳(メタデータ) (2021-04-04T06:44:15Z) - Data-Driven Factor Graphs for Deep Symbol Detection [107.63351413549992]
本稿では,因子グラフ法をデータ駆動方式で実装することを提案する。
特に,機械学習(ML)ツールを用いて因子グラフの学習を提案する。
我々は,BCJRNetと呼ばれる提案システムにおいて,BCJRアルゴリズムを小さなトレーニングセットから実装することを実証した。
論文 参考訳(メタデータ) (2020-01-31T09:23:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。