論文の概要: Is Architectural Complexity Overrated? Competitive and Interpretable Knowledge Graph Completion with RelatE
- arxiv url: http://arxiv.org/abs/2505.18971v1
- Date: Sun, 25 May 2025 04:36:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:42.798229
- Title: Is Architectural Complexity Overrated? Competitive and Interpretable Knowledge Graph Completion with RelatE
- Title(参考訳): アーキテクチャの複雑さは過大評価されているか? RelatEによる競合的で解釈可能な知識グラフ補完
- Authors: Abhijit Chakraborty, Chahana Dahal, Ashutosh Balasubramaniam, Tejas Anvekar, Vivek Gupta,
- Abstract要約: RelatEは、エンティティとリレーションの二重表現を効率的に統合する、解釈可能でモジュラーな方法である。
標準ベンチマークにおいて、競争力や優れたパフォーマンスを達成する。
摂動実験では、MRRはTransEと比較して最大61%、RotatEと比較して最大19%減少し、ロバスト性が改善された。
- 参考スコア(独自算出の注目度): 6.959701672059059
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We revisit the efficacy of simple, real-valued embedding models for knowledge graph completion and introduce RelatE, an interpretable and modular method that efficiently integrates dual representations for entities and relations. RelatE employs a real-valued phase-modulus decomposition, leveraging sinusoidal phase alignments to encode relational patterns such as symmetry, inversion, and composition. In contrast to recent approaches based on complex-valued embeddings or deep neural architectures, RelatE preserves architectural simplicity while achieving competitive or superior performance on standard benchmarks. Empirically, RelatE outperforms prior methods across several datasets: on YAGO3-10, it achieves an MRR of 0.521 and Hit@10 of 0.680, surpassing all baselines. Additionally, RelatE offers significant efficiency gains, reducing training time by 24%, inference latency by 31%, and peak GPU memory usage by 22% compared to RotatE. Perturbation studies demonstrate improved robustness, with MRR degradation reduced by up to 61% relative to TransE and by up to 19% compared to RotatE under structural edits such as edge removals and relation swaps. Formal analysis further establishes the model's full expressiveness and its capacity to represent essential first-order logical inference patterns. These results position RelatE as a scalable and interpretable alternative to more complex architectures for knowledge graph completion.
- Abstract(参考訳): 知識グラフ補完のための単純で実数値な埋め込みモデルの有効性を再考し、エンティティとリレーションの二重表現を効率的に統合する解釈可能でモジュラーな方法であるRelatEを紹介した。
RelatEは、正弦波位相アライメントを利用して、対称性、反転、組成などの関係パターンを符号化する実数値位相モジュラー分解を用いる。
複雑な数値の埋め込みやディープニューラルネットワークに基づく最近のアプローチとは対照的に、RelatEはアーキテクチャの単純さを維持しながら、標準ベンチマーク上での競争力や優れたパフォーマンスを実現している。
YAGO3-10では、0.521のMRRと0.680のHit@10を達成し、すべてのベースラインを超える。
さらに、RelatEは大幅な効率向上を提供し、トレーニング時間を24%削減し、推論遅延を31%削減し、RotatEと比較してGPUメモリ使用量のピークを22%削減した。
摂動実験により, エッジ除去やリレースワップなどの構造編集において, MRRの劣化はTransEと比較して最大61%, RotatEと比較して最大19%減少した。
形式解析により、モデルの完全な表現性と、一階述語論理推論パターンを表現する能力がさらに確立される。
これらの結果はRelatEを知識グラフ補完のためのより複雑なアーキテクチャのスケーラブルで解釈可能な代替品として位置づけている。
関連論文リスト
- RelGNN: Composite Message Passing for Relational Deep Learning [56.48834369525997]
本稿では,リレーショナルデータベースの特徴を捉えた新しいGNNフレームワークであるRelGNNを紹介する。
我々のアプローチの核となるのは、高次三部構造を形成するノードの列である原子経路の導入である。
RelGNNは、最先端の精度を最大25%改善して一貫して達成している。
論文 参考訳(メタデータ) (2025-02-10T18:58:40Z) - Transformer^-1: Input-Adaptive Computation for Resource-Constrained Deployment [3.6219999155937113]
本稿では,動的シナリオ下でのディープラーニングモデルにおける固定計算パラダイムによる資源無駄に対処するためのTransformer$-1$アーキテクチャを提案する。
ベンチマークテストでは,標準的なTransformerと比較してFLOPを42.7%削減し,ピークメモリ使用率を3%削減した。
また,いくつかの自然言語処理タスクの実験を行い,資源効率の大幅な向上を実現した。
論文 参考訳(メタデータ) (2025-01-26T15:31:45Z) - Rethinking Relation Extraction: Beyond Shortcuts to Generalization with a Debiased Benchmark [53.876493664396506]
ベンチマークは、機械学習アルゴリズムのパフォーマンスの評価、比較の促進、優れたソリューションの特定に不可欠である。
本稿では,関係抽出タスクにおけるエンティティバイアスの問題に対処する。
本稿では,エンティティの代替によって,エンティティ参照と関係型との擬似相関を破る不偏関係抽出ベンチマークDREBを提案する。
DREBの新たなベースラインを確立するために,データレベルとモデルトレーニングレベルを組み合わせたデバイアス手法であるMixDebiasを導入する。
論文 参考訳(メタデータ) (2025-01-02T17:01:06Z) - Inference Scaling vs Reasoning: An Empirical Analysis of Compute-Optimal LLM Problem-Solving [0.0]
大規模言語モデル(LLM)の最近の進歩は、精度と推論能力の最大化に重点を置いている。
本稿では,2つの対照的なアプローチの統合を解析することにより,推論の強化と計算効率の相乗効果について検討する。
論文 参考訳(メタデータ) (2024-12-20T08:42:45Z) - Graph Structure Refinement with Energy-based Contrastive Learning [56.957793274727514]
グラフの構造と表現を学習するための生成訓練と識別訓練のジョイントに基づく教師なし手法を提案する。
本稿では,ECL-GSR(Energy-based Contrastive Learning)によるグラフ構造再構成(GSR)フレームワークを提案する。
ECL-GSRは、主要なベースラインに対するサンプルやメモリの少ない高速なトレーニングを実現し、下流タスクの単純さと効率性を強調している。
論文 参考訳(メタデータ) (2024-12-20T04:05:09Z) - SmoothNets: Optimizing CNN architecture design for differentially
private deep learning [69.10072367807095]
DPSGDは、サンプルごとの勾配の切り抜きとノイズ付けを必要とする。
これにより、非プライベートトレーニングと比較してモデルユーティリティが削減される。
SmoothNetと呼ばれる新しいモデルアーキテクチャを蒸留し,DP-SGDトレーニングの課題に対するロバスト性の向上を特徴とした。
論文 参考訳(メタデータ) (2022-05-09T07:51:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。