論文の概要: The Underappreciated Power of Vision Models for Graph Structural Understanding
- arxiv url: http://arxiv.org/abs/2510.24788v1
- Date: Mon, 27 Oct 2025 05:11:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-30 15:50:44.490839
- Title: The Underappreciated Power of Vision Models for Graph Structural Understanding
- Title(参考訳): グラフ構造理解のための視覚モデルの過小評価力
- Authors: Xinjian Zhao, Wei Pang, Zhongkai Xue, Xiangru Jian, Lei Zhang, Yaoyao Xu, Xiaozhuang Song, Shu Wu, Tianshu Yu,
- Abstract要約: グラフニューラルネットワークはボトムアップメッセージパッシングを通じて動作し、人間の視覚的知覚と根本的に異なる。
グラフ理解のための視覚モデルの未熟な可能性について検討し、既存のベンチマークでGNNに匹敵する性能を実現する。
- 参考スコア(独自算出の注目度): 28.781392309798672
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Networks operate through bottom-up message-passing, fundamentally differing from human visual perception, which intuitively captures global structures first. We investigate the underappreciated potential of vision models for graph understanding, finding they achieve performance comparable to GNNs on established benchmarks while exhibiting distinctly different learning patterns. These divergent behaviors, combined with limitations of existing benchmarks that conflate domain features with topological understanding, motivate our introduction of GraphAbstract. This benchmark evaluates models' ability to perceive global graph properties as humans do: recognizing organizational archetypes, detecting symmetry, sensing connectivity strength, and identifying critical elements. Our results reveal that vision models significantly outperform GNNs on tasks requiring holistic structural understanding and maintain generalizability across varying graph scales, while GNNs struggle with global pattern abstraction and degrade with increasing graph size. This work demonstrates that vision models possess remarkable yet underutilized capabilities for graph structural understanding, particularly for problems requiring global topological awareness and scale-invariant reasoning. These findings open new avenues to leverage this underappreciated potential for developing more effective graph foundation models for tasks dominated by holistic pattern recognition.
- Abstract(参考訳): Graph Neural Networksはボトムアップのメッセージパッシングを通じて動作し、人間の視覚的知覚とは根本的に異なり、グローバルな構造を直感的にキャプチャする。
グラフ理解のための視覚モデルの未熟な可能性について検討し、既存のベンチマークでGNNに匹敵する性能を示しながら、異なる学習パターンを示す。
これらの相違した振る舞いと、ドメイン機能とトポロジ的な理解を両立させる既存のベンチマークの制限が組み合わさって、GraphAbstractの導入を動機付けています。
このベンチマークは、組織的アーキタイプを認識し、対称性を検出し、接続性を感知し、重要な要素を識別する、グローバルグラフ特性を人間と同じように知覚するモデルの能力を評価する。
その結果,GNNはグローバルなパターンの抽象化に苦慮し,グラフサイズが増大するにつれて劣化するのに対して,全体的構造的理解と一般化性の維持が要求されるタスクにおいて,視覚モデルはGNNを著しく上回っていることが明らかとなった。
この研究は、特にグローバルトポロジカルな認識とスケール不変な推論を必要とする問題に対して、視覚モデルがグラフ構造理解において顕著に未利用の能力を持っていることを示した。
これらの知見は、全体的パターン認識に支配されるタスクのためのより効果的なグラフ基盤モデルを開発するための、この未承認のポテンシャルを活用するための新たな道を開く。
関連論文リスト
- GLANCE: Graph Logic Attention Network with Cluster Enhancement for Heterophilous Graph Representation Learning [47.674647127050186]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから学習する上で大きな成功を収めている。
本稿では,論理誘導推論,動的グラフ改善,適応クラスタリングを統合し,グラフ表現学習を強化する新しいフレームワークであるGLANCEを提案する。
論文 参考訳(メタデータ) (2025-07-24T15:45:26Z) - Revisiting Graph Neural Networks on Graph-level Tasks: Comprehensive Experiments, Analysis, and Improvements [54.006506479865344]
グラフレベルグラフニューラルネットワーク(GNN)のための統一評価フレームワークを提案する。
このフレームワークは、さまざまなデータセットにわたるGNNを評価するための標準化された設定を提供する。
また,表現性の向上と一般化機能を備えた新しいGNNモデルを提案する。
論文 参考訳(メタデータ) (2025-01-01T08:48:53Z) - Towards Graph Foundation Models: Training on Knowledge Graphs Enables Transferability to General Graphs [26.477872205199667]
知識グラフをトレーニングするために設計された統合グラフ推論フレームワークであるSCRを紹介する。
本稿では,従来のKG推論における意味的分離に対処する新しいメカニズムであるセマンティックコンディショニングメッセージパッシングを提案する。
以上の結果から,既存の基礎モデルよりも大幅な性能向上が見られた。
論文 参考訳(メタデータ) (2024-10-16T14:26:08Z) - On the Topology Awareness and Generalization Performance of Graph Neural Networks [6.598758004828656]
我々は,GNNのトポロジ的認識をいかなるトポロジ的特徴においても特徴付けるための包括的枠組みを導入する。
本研究は,各ベンチマークデータセットの経路距離を最短とする内在グラフを用いたケーススタディである。
論文 参考訳(メタデータ) (2024-03-07T13:33:30Z) - DGNN: Decoupled Graph Neural Networks with Structural Consistency
between Attribute and Graph Embedding Representations [62.04558318166396]
グラフニューラルネットワーク(GNN)は、複雑な構造を持つグラフ上での表現学習の堅牢性を示す。
ノードのより包括的な埋め込み表現を得るために、Decoupled Graph Neural Networks (DGNN)と呼ばれる新しいGNNフレームワークが導入された。
複数のグラフベンチマークデータセットを用いて、ノード分類タスクにおけるDGNNの優位性を検証した。
論文 参考訳(メタデータ) (2024-01-28T06:43:13Z) - Graph Foundation Models: Concepts, Opportunities and Challenges [66.37994863159861]
ファンデーションモデルは、さまざまな人工知能アプリケーションにおいて重要なコンポーネントとして現れてきた。
一般化と適応における基礎モデルの能力は、グラフ機械学習研究者を動機付け、新しいグラフ学習パラダイムを開発する可能性について議論する。
本稿では,グラフ基礎モデル(GFM)の概念を紹介し,その重要な特徴と基礎技術について概説する。
論文 参考訳(メタデータ) (2023-10-18T09:31:21Z) - Graph Information Bottleneck [77.21967740646784]
グラフニューラルネットワーク(GNN)は、ネットワーク構造とノード機能から情報を融合する表現的な方法を提供する。
GIBは、一般的なInformation Bottleneck (IB) を継承し、与えられたタスクに対する最小限の表現を学習することを目的としている。
提案したモデルが最先端のグラフ防御モデルよりも堅牢であることを示す。
論文 参考訳(メタデータ) (2020-10-24T07:13:00Z) - Towards Deeper Graph Neural Networks [63.46470695525957]
グラフ畳み込みは近傍の集約を行い、最も重要なグラフ操作の1つである。
いくつかの最近の研究で、この性能劣化は過度に滑らかな問題に起因している。
本研究では,大きな受容領域からの情報を適応的に組み込むディープ適応グラフニューラルネットワーク(DAGNN)を提案する。
論文 参考訳(メタデータ) (2020-07-18T01:11:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。