論文の概要: Graph Your Own Prompt
- arxiv url: http://arxiv.org/abs/2509.23373v1
- Date: Sat, 27 Sep 2025 15:45:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.19072
- Title: Graph Your Own Prompt
- Title(参考訳): 自分自身のプロンプトをグラフ化する
- Authors: Xi Ding, Lei Wang, Piotr Koniusz, Yongsheng Gao,
- Abstract要約: グラフ一貫性規則化(GCR)は、モデル予測から派生した関係グラフ構造を学習プロセスに注入するフレームワークである。
GCRは、よりクリーンな特徴構造、より強力なクラス内凝集、一般化を促進し、予測構造から学習する新しい視点を提供する。
- 参考スコア(独自算出の注目度): 44.358377952850994
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose Graph Consistency Regularization (GCR), a novel framework that injects relational graph structures, derived from model predictions, into the learning process to promote class-aware, semantically meaningful feature representations. Functioning as a form of self-prompting, GCR enables the model to refine its internal structure using its own outputs. While deep networks learn rich representations, these often capture noisy inter-class similarities that contradict the model's predicted semantics. GCR addresses this issue by introducing parameter-free Graph Consistency Layers (GCLs) at arbitrary depths. Each GCL builds a batch-level feature similarity graph and aligns it with a global, class-aware masked prediction graph, derived by modulating softmax prediction similarities with intra-class indicators. This alignment enforces that feature-level relationships reflect class-consistent prediction behavior, acting as a semantic regularizer throughout the network. Unlike prior work, GCR introduces a multi-layer, cross-space graph alignment mechanism with adaptive weighting, where layer importance is learned from graph discrepancy magnitudes. This allows the model to prioritize semantically reliable layers and suppress noisy ones, enhancing feature quality without modifying the architecture or training procedure. GCR is model-agnostic, lightweight, and improves semantic structure across various networks and datasets. Experiments show that GCR promotes cleaner feature structure, stronger intra-class cohesion, and improved generalization, offering a new perspective on learning from prediction structure. [Project website](https://darcyddx.github.io/gcr/) [Code](https://github.com/Darcyddx/graph-prompt)
- Abstract(参考訳): モデル予測から派生した関係グラフ構造を学習プロセスに注入し,クラス認識,意味論的に意味のある特徴表現を促進する新しいフレームワークであるグラフ一貫性規則化(GCR)を提案する。
GCRは自己プロンプティングの形式として機能し、モデルの内部構造を自身の出力で洗練することができる。
ディープネットワークはリッチな表現を学習する一方で、モデルが予測するセマンティクスと矛盾するノイズの多いクラス間類似性をキャプチャすることが多い。
GCRはパラメータフリーグラフ一貫性層(GCL)を任意の深さで導入することでこの問題に対処する。
各GCLは、バッチレベルの特徴類似性グラフを構築し、クラス内の指標とソフトマックス予測類似性を調整することによって導かれる、グローバルなクラス対応のマスク付き予測グラフと整列する。
このアライメントにより、機能レベルの関係は、ネットワーク全体を通してセマンティックレギュレータとして機能する、クラス一貫性のある予測動作を反映する。
従来の作業とは異なり、GCRは適応重み付けを備えた多層クロススペースグラフアライメント機構を導入し、グラフの差の大きさからレイヤーの重要性を学習する。
これにより、アーキテクチャやトレーニング手順を変更することなく、モデルがセマンティックに信頼できるレイヤを優先順位付けし、ノイズのあるレイヤを抑えることができる。
GCRはモデルに依存しず、軽量で、さまざまなネットワークやデータセットにまたがるセマンティック構造を改善している。
実験により、GCRはよりクリーンな特徴構造、より強いクラス内凝集、一般化を促進し、予測構造から学習する新しい視点を提供する。
[プロジェクトWebサイト](https://darcyddx.github.io/gcr/)[Code](https://github.com/Darcyddx/graph-prompt)
関連論文リスト
- Adaptive Homophily Clustering: Structure Homophily Graph Learning with Adaptive Filter for Hyperspectral Image [21.709368882043897]
ハイパースペクトル画像(HSI)クラスタリングは、ゼロトレーニングラベルによる基本的だが難しい課題である。
本稿では,HSIのための適応フィルタクラスタリング法(AHSGC)を用いたホモフィリ構造グラフ学習を提案する。
AHSGCには高いクラスタリング精度、低い計算複雑性、強い堅牢性が含まれています。
論文 参考訳(メタデータ) (2025-01-03T01:54:16Z) - Synergistic Deep Graph Clustering Network [14.569867830074292]
我々はSynC(Syngistic Deep Graph Clustering Network)というグラフクラスタリングフレームワークを提案する。
本稿では,構造拡張を導くための高品質な埋め込みを実現するために,TIGAE (Transform Input Graph Auto-Encoder) を設計する。
特に、表現学習と構造増強は重みを共有し、モデルパラメータの数を著しく減少させる。
論文 参考訳(メタデータ) (2024-06-22T09:40:34Z) - A Pure Transformer Pretraining Framework on Text-attributed Graphs [50.833130854272774]
グラフ構造を先行として扱うことで,特徴中心の事前学習の視点を導入する。
我々のフレームワークであるGraph Sequence Pretraining with Transformer (GSPT)はランダムウォークを通してノードコンテキストをサンプリングする。
GSPTはノード分類とリンク予測の両方に容易に適応でき、様々なデータセットで有望な経験的成功を示す。
論文 参考訳(メタデータ) (2024-06-19T22:30:08Z) - Generative and Contrastive Paradigms Are Complementary for Graph
Self-Supervised Learning [56.45977379288308]
Masked Autoencoder (MAE)は、マスク付きグラフエッジやノード機能の再構築を学ぶ。
Contrastive Learning (CL)は、同じグラフの拡張ビュー間の類似性を最大化する。
我々は,MAE と CL を統一するグラフコントラッシブマスク付きオートエンコーダ (GCMAE) フレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-24T05:06:06Z) - Self-supervised Semi-implicit Graph Variational Auto-encoders with
Masking [18.950919307926824]
自己教師付き変分グラフオートエンコーダ(VGAE)のファミリに基づくSeeeGeraモデルを提案する。
SeeGeraは、エンコーダのノードと機能の両方を同時に埋め込み、デコーダのリンクと機能の両方を再構築する。
われわれは、SeeGeraと9つの最先端ライバルを比較した広範な実験を行っている。
論文 参考訳(メタデータ) (2023-01-29T15:00:43Z) - Towards Unsupervised Deep Graph Structure Learning [67.58720734177325]
本稿では,学習したグラフトポロジを外部ガイダンスなしでデータ自身で最適化する,教師なしグラフ構造学習パラダイムを提案する。
具体的には、元のデータから"アンカーグラフ"として学習目標を生成し、対照的な損失を用いてアンカーグラフと学習グラフとの一致を最大化する。
論文 参考訳(メタデータ) (2022-01-17T11:57:29Z) - Learnable Structural Semantic Readout for Graph Classification [23.78861906423389]
位置レベルでのノード表現を要約するために,構造的セマンティック・リードアウト(SSRead)を提案する。
SSReadは、ノードと構造プロトタイプ間のセマンティックアライメントを使用することで、構造的に意味のある位置を特定することを目的としている。
実験の結果,SSReadはGNN分類器の分類性能と解釈可能性を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2021-11-22T20:44:27Z) - Self-supervised Graph-level Representation Learning with Local and
Global Structure [71.45196938842608]
自己教師付き全グラフ表現学習のためのローカル・インスタンスとグローバル・セマンティック・ラーニング(GraphLoG)という統合フレームワークを提案する。
GraphLoGは、局所的な類似点の保存に加えて、グローバルなセマンティッククラスタをキャプチャする階層的なプロトタイプも導入している。
モデル学習のための効率的なオンライン予測最大化(EM)アルゴリズムがさらに開発された。
論文 参考訳(メタデータ) (2021-06-08T05:25:38Z) - Adaptive Graph Auto-Encoder for General Data Clustering [90.8576971748142]
グラフベースのクラスタリングは、クラスタリング領域において重要な役割を果たす。
グラフ畳み込みニューラルネットワークに関する最近の研究は、グラフ型データにおいて驚くべき成功を収めている。
本稿では,グラフの生成的視点に応じて適応的にグラフを構成する汎用データクラスタリングのためのグラフ自動エンコーダを提案する。
論文 参考訳(メタデータ) (2020-02-20T10:11:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。