論文の概要: Every Little Helps: Building Knowledge Graph Foundation Model with Fine-grained Transferable Multi-modal Tokens
- arxiv url: http://arxiv.org/abs/2602.15896v1
- Date: Wed, 11 Feb 2026 13:32:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-19 15:58:30.374618
- Title: Every Little Helps: Building Knowledge Graph Foundation Model with Fine-grained Transferable Multi-modal Tokens
- Title(参考訳): あらゆる小さな助け:細粒度転送可能なマルチモーダルトークンを用いた知識グラフ基盤モデルの構築
- Authors: Yichi Zhang, Zhuo Chen, Lingbing Guo, Wen Zhang, Huajun Chen,
- Abstract要約: マルチモーダル知識グラフ推論(MMKGR)は、グラフ構造情報とマルチモーダルエンティティコンテンツの両方を活用することで、欠落したリンクを予測することを目的としている。
本稿では,MMKGR のトークンベース基盤モデル (TOFU) を提案する。
17のトランスダクティブ, インダクティブ, フルインダクティブMMKGによる実験結果から, TOFUは強いKGFM, MMKGRベースラインより一貫して優れていた。
- 参考スコア(独自算出の注目度): 60.15844119489298
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Multi-modal knowledge graph reasoning (MMKGR) aims to predict the missing links by exploiting both graph structure information and multi-modal entity contents. Most existing works are designed for a transductive setting, which learns dataset-specific embeddings and struggles to generalize to new KGs. Recent knowledge graph foundation models (KGFMs) improve cross-KG transfer, but they mainly exploit structural patterns and ignore rich multi-modal signals. We address these gaps by proposing a token-based foundation model (TOFU) for MMKGR, which exhibits strong generalization across different MMKGs. TOFU discretizes structural, visual, and textual information into modality-specific tokens. TOFU then employs a hierarchical fusion architecture with mixture-of-message mechanisms, aiming to process these tokens and obtain transferable features for MMKGR. Experimental results on 17 transductive, inductive, and fully-inductive MMKGs show that TOFU consistently outperforms strong KGFM and MMKGR baselines, delivering strong performance on unseen MMKGs.
- Abstract(参考訳): マルチモーダル知識グラフ推論(MMKGR)は、グラフ構造情報とマルチモーダルエンティティコンテンツの両方を活用することで、欠落したリンクを予測することを目的としている。
既存のほとんどの作品は、データセット固有の埋め込みを学び、新しいKGに一般化するのに苦労するトランスダクティブな設定のために設計されている。
近年の知識グラフ基礎モデル (KGFM) は, クロスKG転送を改善するが, 構造パターンを主に活用し, リッチなマルチモーダル信号を無視している。
MMKGRのトークンベースファンデーションモデル(TOFU)を提案することで,これらのギャップに対処する。
TOFUは構造情報、視覚情報、テキスト情報をモダリティ固有のトークンに識別する。
TOFUは、これらのトークンを処理し、MMKGRの転送可能な機能を得るために、メッセージの混合機構を備えた階層的な融合アーキテクチャを採用する。
17個のトランスダクティブ, インダクティブ, フルインダクティブMMKGの実験結果から, TOFUは強いKGFMおよびMMKGRベースラインを一貫して上回り, 目に見えないMMKGに強い性能をもたらすことが示された。
関連論文リスト
- Graph4MM: Weaving Multimodal Learning with Structural Information [52.16646463590474]
グラフは、モーダル内およびモーダル間関係をモデル化するための強力な構造情報を提供する。
それまでの作業では、マルチホップの隣人を区別できず、グラフをスタンドアローンのモダリティとして扱う。
グラフベースのマルチモーダル学習フレームワークであるGraph4MMを提案する。
論文 参考訳(メタデータ) (2025-10-19T20:13:03Z) - MMGraphRAG: Bridging Vision and Language with Interpretable Multimodal Knowledge Graphs [6.165053219836395]
本稿では,シーングラフを通して視覚コンテンツを洗練し,マルチモーダルな知識グラフを構築するMMGraphRAGを提案する。
スペクトルクラスタリングを用いてクロスモーダルなエンティティリンクを実現し、推論経路に沿ってコンテキストを取得して生成プロセスを導く。
実験結果から,MMGraphRAGはDocBenchとMMLongBenchのデータセット上で最先端の性能を実現することがわかった。
論文 参考訳(メタデータ) (2025-07-28T13:16:23Z) - HERGC: Heterogeneous Experts Representation and Generative Completion for Multimodal Knowledge Graphs [6.615362280237532]
マルチモーダル知識グラフ(MMKG)は、画像やテキストなどの多様なモダリティを統合することで、伝統的な知識グラフ(KG)を豊かにする。
マルチモーダル知識グラフ補完(MMKGC)は、欠落した事実を推測するためにこれらの異種信号を活用する。
HERGCはMMKGのためのフレキシブルな異種エキスパート表現および生成コンプリートフレームワークである。
論文 参考訳(メタデータ) (2025-06-01T04:12:25Z) - Decoding on Graphs: Faithful and Sound Reasoning on Knowledge Graphs through Generation of Well-Formed Chains [66.55612528039894]
知識グラフ(KG)は質問応答(QA)のための信頼できる知識ソースとして機能する。
我々は、LLMとKGの深い相乗効果を促進する新しいフレームワークであるDoG(Decoding on Graphs)を提案する。
様々なKGQAタスクに対して異なるバックグラウンドKGを用いた実験により、DoGが優れた、堅牢なパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2024-10-24T04:01:40Z) - Tokenization, Fusion, and Augmentation: Towards Fine-grained Multi-modal Entity Representation [51.80447197290866]
マルチモーダル知識グラフ補完(MMKGC)は、与えられた知識グラフから観測されていない知識を発見することを目的としている。
既存のMMKGCメソッドは通常、事前訓練されたモデルでマルチモーダルな特徴を抽出する。
エンティティの微細なマルチモーダル表現をトークン化し、融合し、拡張する新しいフレームワークであるMyGOを紹介します。
論文 参考訳(メタデータ) (2024-04-15T05:40:41Z) - Noise-powered Multi-modal Knowledge Graph Representation Framework [52.95468915728721]
マルチモーダル・プレトレーニングの台頭は、統合されたマルチモーダル知識グラフ表現学習フレームワークの必要性を強調している。
モードレベルのノイズマスキングを備えたトランスフォーマーアーキテクチャを用いた新しいSNAG手法を提案する。
提案手法は10個のデータセットにまたがってSOTA性能を実現し,その汎用性を実証する。
論文 参考訳(メタデータ) (2024-03-11T15:48:43Z) - MACO: A Modality Adversarial and Contrastive Framework for
Modality-missing Multi-modal Knowledge Graph Completion [18.188971531961663]
本稿では,MMKGCにおけるモダリティ欠落問題を解決するために,モダリティ対向・コントラッシブ・フレームワーク(MACO)を提案する。
MACOは、MMKGCモデルに組み込むことができる欠落したモダリティ特徴を生成するために、ジェネレータと識別器を逆さまに訓練する。
論文 参考訳(メタデータ) (2023-08-13T06:29:38Z) - Structure Guided Multi-modal Pre-trained Transformer for Knowledge Graph
Reasoning [41.691551152718745]
SGMPTと呼ばれる知識グラフ推論のためのグラフ構造案内型マルチモーダル事前学習変換器を提案する。
我々の知る限り、SGMPTは知識グラフの基盤となる構造情報をマイニングするマルチモーダルKGRのための最初のMPTモデルである。
我々のSGMPTは、既存の最先端モデルよりも優れており、設計戦略の有効性が証明されている。
論文 参考訳(メタデータ) (2023-07-06T16:04:56Z) - Hybrid Transformer with Multi-level Fusion for Multimodal Knowledge
Graph Completion [112.27103169303184]
マルチモーダル知識グラフ(MKG)は、視覚テキストの事実知識を整理する。
MKGformerは、マルチモーダルリンク予測、マルチモーダルRE、マルチモーダルNERの4つのデータセット上でSOTA性能を得ることができる。
論文 参考訳(メタデータ) (2022-05-04T23:40:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。