論文の概要: OpenMAG: A Comprehensive Benchmark for Multimodal-Attributed Graph
- arxiv url: http://arxiv.org/abs/2602.05576v1
- Date: Thu, 05 Feb 2026 11:59:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 18:49:08.914596
- Title: OpenMAG: A Comprehensive Benchmark for Multimodal-Attributed Graph
- Title(参考訳): OpenMAG: マルチモーダルなグラフのための総合ベンチマーク
- Authors: Chenxi Wan, Xunkai Li, Yilong Zuo, Haokun Deng, Sihan Li, Bowen Fan, Hongchao Qin, Ronghua Li, Guoren Wang,
- Abstract要約: Multimodal-Attributed Graph (MAG) 学習は、複雑な現実世界のシステムのモデリングにおいて顕著な成功を収めた。
OpenMAGは6つのドメインに19のデータセットを統合し、静的およびトレーニング可能な機能エンコーディングをサポートするために16のエンコーダを組み込むベンチマークである。
- 参考スコア(独自算出の注目度): 32.46774691187835
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Multimodal-Attributed Graph (MAG) learning has achieved remarkable success in modeling complex real-world systems by integrating graph topology with rich attributes from multiple modalities. With the rapid proliferation of novel MAG models capable of handling intricate cross-modal semantics and structural dependencies, establishing a rigorous and unified evaluation standard has become imperative. Although existing benchmarks have facilitated initial progress, they exhibit critical limitations in domain coverage, encoder flexibility, model diversity, and task scope, presenting significant challenges to fair evaluation. To bridge this gap, we present OpenMAG, a comprehensive benchmark that integrates 19 datasets across 6 domains and incorporates 16 encoders to support both static and trainable feature encoding. OpenMAG further implements a standardized library of 24 state-of-the-art models and supports 8 downstream tasks, enabling fair comparisons within a unified framework. Through systematic assessment of necessity, data quality, effectiveness, robustness, and efficiency, we derive 14 fundamental insights into MAG learning to guide future advancements. Our code is available at https://github.com/YUKI-N810/OpenMAG.
- Abstract(参考訳): マルチモーダル-分散グラフ(MAG)学習は、グラフトポロジを複数のモーダルからリッチな属性と統合することにより、複雑な実世界のシステムのモデリングにおいて顕著な成功を収めた。
複雑なクロスモーダルなセマンティクスと構造的依存関係を扱える新しいMAGモデルの急速な普及に伴い、厳密で統一された評価基準の確立が不可欠となった。
既存のベンチマークは初期の進展を促進するが、ドメインカバレッジ、エンコーダの柔軟性、モデルの多様性、タスクスコープに重大な制限があり、公正な評価に重大な課題が提示されている。
このギャップを埋めるため、OpenMAGは6つのドメインに19のデータセットを統合し、静的およびトレーニング可能な機能エンコーディングをサポートするために16のエンコーダを組み込んだ包括的なベンチマークである。
OpenMAGはさらに24の最先端モデルの標準化されたライブラリを実装し、8つのダウンストリームタスクをサポートし、統一されたフレームワーク内で公正な比較を可能にする。
必要条件,データ品質,有効性,堅牢性,効率の体系的な評価を通じて,MAG学習に関する14の基本的な知見を導き,今後の進歩を導く。
私たちのコードはhttps://github.com/YUKI-N810/OpenMAGで公開されています。
関連論文リスト
- MM-OpenFGL: A Comprehensive Benchmark for Multimodal Federated Graph Learning [33.909733872102656]
MMAG(Multimodal-attributed graph)は、不均一なモジュラリティをグラフ構造に統合することにより、複雑な関係データをモデリングするための統一的なフレームワークを提供する。
MM-OpenFGLはMMFGLパラダイムを体系的に形式化し、厳密な評価を可能にする最初の総合ベンチマークである。
MM-OpenFGLは、7つのアプリケーションドメインにまたがる19のマルチモーダルデータセット、モダリティとトポロジの変動を計測する8つのシミュレーション戦略、6つのダウンストリームタスク、そしてモジュールAPIを通じて実装された57の最先端メソッドで構成されている。
論文 参考訳(メタデータ) (2026-01-29T23:59:13Z) - An Efficient and Mixed Heterogeneous Model for Image Restoration [71.85124734060665]
現在の主流のアプローチは、CNN、Transformers、Mambasの3つのアーキテクチャパラダイムに基づいている。
混合構造融合に基づく効率的で汎用的なIRモデルであるRestorMixerを提案する。
論文 参考訳(メタデータ) (2025-04-15T08:19:12Z) - When Graph meets Multimodal: Benchmarking and Meditating on Multimodal Attributed Graphs Learning [28.555788831123447]
マルチモーダル分散グラフ(MAG)は、ノードにアタッチされたマルチモーダル属性を通じて広範囲にわたる知識を含む、現実世界のアプリケーションにおいてユビキタスである。
ソーシャルネットワークやeコマースといった多様な研究分野を前進させる可能性にもかかわらず、MAG表現学習(MAGRL)はいまだに未調査である。
我々はまず,テキスト属性と視覚属性の両方を持つ様々な領域からのキュレートされたグラフを特徴付ける,包括的なMAGベンチマークデータセットであるMAGBを提案する。
論文 参考訳(メタデータ) (2024-10-11T13:24:57Z) - NativE: Multi-modal Knowledge Graph Completion in the Wild [51.80447197290866]
本研究では,MMKGCを実現するための包括的フレームワークNativEを提案する。
NativEは、任意のモダリティに対して適応的な融合を可能にするリレーショナル誘導デュアルアダプティブフュージョンモジュールを提案する。
提案手法を評価するために,5つのデータセットを用いたWildKGCという新しいベンチマークを構築した。
論文 参考訳(メタデータ) (2024-03-28T03:04:00Z) - Noise-powered Multi-modal Knowledge Graph Representation Framework [52.95468915728721]
マルチモーダル・プレトレーニングの台頭は、統合されたマルチモーダル知識グラフ表現学習フレームワークの必要性を強調している。
モードレベルのノイズマスキングを備えたトランスフォーマーアーキテクチャを用いた新しいSNAG手法を提案する。
提案手法は10個のデータセットにまたがってSOTA性能を実現し,その汎用性を実証する。
論文 参考訳(メタデータ) (2024-03-11T15:48:43Z) - Pink: Unveiling the Power of Referential Comprehension for Multi-modal
LLMs [49.88461345825586]
本稿では,MLLMの微細な画像理解能力を高めるための新しい枠組みを提案する。
本稿では,既存のデータセットのアノテーションを活用して,命令チューニングデータセットを低コストで構築する手法を提案する。
本研究では,Qwen-VLよりも5.2%精度が向上し,Kosmos-2の精度が24.7%向上したことを示す。
論文 参考訳(メタデータ) (2023-10-01T05:53:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。