論文の概要: FusionAdapter for Few-Shot Relation Learning in Multimodal Knowledge Graphs
- arxiv url: http://arxiv.org/abs/2510.00894v1
- Date: Wed, 01 Oct 2025 13:36:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.588588
- Title: FusionAdapter for Few-Shot Relation Learning in Multimodal Knowledge Graphs
- Title(参考訳): マルチモーダル知識グラフにおけるFew-Shot関係学習のためのFusionAdapter
- Authors: Ran Liu, Yuan Fang, Xiaoli Li,
- Abstract要約: マルチモーダル知識グラフ(MMKG)は、エンティティと関係表現を強化するために、テキストや画像を含む様々なモダリティを組み込んでいる。
MMKGにおける少数ショット関係の学習のためのFusionAdapterを提案する。
多様なモダリティからの情報を効果的に適応・融合することにより、FusionAdapterは最小限の監督力を持つ新しい関係への一般化を改善する。
- 参考スコア(独自算出の注目度): 15.157416257109809
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multimodal Knowledge Graphs (MMKGs) incorporate various modalities, including text and images, to enhance entity and relation representations. Notably, different modalities for the same entity often present complementary and diverse information. However, existing MMKG methods primarily align modalities into a shared space, which tends to overlook the distinct contributions of specific modalities, limiting their performance particularly in low-resource settings. To address this challenge, we propose FusionAdapter for the learning of few-shot relationships (FSRL) in MMKG. FusionAdapter introduces (1) an adapter module that enables efficient adaptation of each modality to unseen relations and (2) a fusion strategy that integrates multimodal entity representations while preserving diverse modality-specific characteristics. By effectively adapting and fusing information from diverse modalities, FusionAdapter improves generalization to novel relations with minimal supervision. Extensive experiments on two benchmark MMKG datasets demonstrate that FusionAdapter achieves superior performance over state-of-the-art methods.
- Abstract(参考訳): マルチモーダル知識グラフ(MMKG)は、エンティティと関係表現を強化するために、テキストや画像を含む様々なモダリティを組み込んでいる。
特に、同じ実体に対する異なるモダリティは、しばしば相補的で多様な情報を示す。
しかし、既存のMMKG法は主にモダリティを共有空間に整列し、特定のモダリティの異なるコントリビューションを見落とし、特に低リソース環境での性能を制限する傾向にある。
この課題に対処するため,MMKGにおけるFSRL学習のためのFusionAdapterを提案する。
FusionAdapterは,(1)モダリティの効率よく適用可能なアダプタモジュール,(2)マルチモーダルなエンティティ表現を統合し,多様なモダリティ固有の特性を保ちつつ,融合戦略を導入する。
多様なモダリティからの情報を効果的に適応・融合することにより、FusionAdapterは最小限の監督力を持つ新しい関係への一般化を改善する。
2つのベンチマークMMKGデータセットに対する大規模な実験は、FusionAdapterが最先端の手法よりも優れたパフォーマンスを達成することを示した。
関連論文リスト
- StitchFusion: Weaving Any Visual Modalities to Enhance Multimodal Semantic Segmentation [63.31007867379312]
我々は,大規模な事前学習モデルを直接エンコーダや機能フューザとして統合するフレームワークであるStitchFusionを提案する。
我々は,エンコーディング中に多方向アダプタモジュール(MultiAdapter)を導入し,モーダル間情報転送を実現する。
本モデルは,最小限の追加パラメータを持つ4つのマルチモーダルセグメンテーションデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2024-08-02T15:41:16Z) - NativE: Multi-modal Knowledge Graph Completion in the Wild [51.80447197290866]
本研究では,MMKGCを実現するための包括的フレームワークNativEを提案する。
NativEは、任意のモダリティに対して適応的な融合を可能にするリレーショナル誘導デュアルアダプティブフュージョンモジュールを提案する。
提案手法を評価するために,5つのデータセットを用いたWildKGCという新しいベンチマークを構築した。
論文 参考訳(メタデータ) (2024-03-28T03:04:00Z) - Task-Customized Mixture of Adapters for General Image Fusion [51.8742437521891]
一般画像融合は、マルチソース画像から重要な情報を統合することを目的としている。
本稿では, 汎用画像融合用アダプタ(TC-MoA)を新たに提案し, 統一モデルにおける様々な融合タスクを適応的に促進する。
論文 参考訳(メタデータ) (2024-03-19T07:02:08Z) - MEAformer: Multi-modal Entity Alignment Transformer for Meta Modality
Hybrid [40.745848169903105]
マルチモーダル・エンティティ・アライメント(MMEA)は、異なる知識グラフにまたがる同一のエンティティを発見することを目的としている。
MMEAアルゴリズムはマルチモーダル実体表現のためのKGレベルのモダリティ融合戦略に依存している。
本稿ではメタモダリティハイブリッドのためのマルチモーダルエンティティアライメントトランスであるMEAformerを紹介する。
論文 参考訳(メタデータ) (2022-12-29T20:49:58Z) - Hybrid Transformer with Multi-level Fusion for Multimodal Knowledge
Graph Completion [112.27103169303184]
マルチモーダル知識グラフ(MKG)は、視覚テキストの事実知識を整理する。
MKGformerは、マルチモーダルリンク予測、マルチモーダルRE、マルチモーダルNERの4つのデータセット上でSOTA性能を得ることができる。
論文 参考訳(メタデータ) (2022-05-04T23:40:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。