論文の概要: Modality-free Graph In-context Alignment
- arxiv url: http://arxiv.org/abs/2603.13434v1
- Date: Fri, 13 Mar 2026 07:45:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.202484
- Title: Modality-free Graph In-context Alignment
- Title(参考訳): モダリティフリーグラフインコンテキストアライメント
- Authors: Wei Zhuo, Siqiang Luo,
- Abstract要約: Modality-Free Graph In-Context Alignment (MF-GIA) は、不均質ドメイン間の数ショットの予測を迅速に行うための事前訓練されたグラフエンコーダを実現するフレームワークである。
MF-GIAは、光変換をパラメータ化する勾配指紋によってドメイン特性をキャプチャする。
実験により,MF-GIAは多種多様なグラフ領域にまたがって優れた撮影性能を発揮することが示された。
- 参考スコア(独自算出の注目度): 14.497854061852292
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In-context learning (ICL) converts static encoders into task-conditioned reasoners, enabling adaptation to new data from just a few examples without updating pretrained parameters. This capability is essential for graph foundation models (GFMs) to approach LLM-level generality. Yet current GFMs struggle with cross-domain alignment, typically relying on modality-specific encoders that fail when graphs are pre-vectorized or raw data is inaccessible. In this paper, we introduce Modality-Free Graph In-context Alignment (MF-GIA), a framework that makes a pretrained graph encoder promptable for few-shot prediction across heterogeneous domains without modality assumptions. MF-GIA captures domain characteristics through gradient fingerprints, which parameterize lightweight transformations that align pre-encoded features and indexed labels into unified semantic spaces. During pretraining, a dual prompt-aware attention mechanism with episodic objective learns to match queries against aligned support examples to establish prompt-based reasoning capabilities. At inference, MF-GIA performs parameter-update-free adaptation using only a few-shot support set to trigger cross-domain alignment and enable immediate prediction on unseen domains. Experiments demonstrate that MF-GIA achieves superior few-shot performance across diverse graph domains and strong generalization to unseen domains.
- Abstract(参考訳): In-context Learning (ICL)は、静的エンコーダをタスク条件付き推論器に変換し、事前訓練されたパラメータを更新することなく、いくつかの例から新しいデータに適応できるようにする。
この能力は、グラフ基礎モデル(GFM)が LLM レベルの一般性にアプローチするために必須である。
しかし、現在のGFMはクロスドメインアライメントに苦慮しており、グラフが事前にベクター化されたり、生データがアクセスできない場合に失敗するモダリティ固有のエンコーダに依存している。
本稿では、モーダリティを仮定せずに、不均一な領域にまたがって数ショットの予測が可能となる事前訓練されたグラフエンコーダを実現するフレームワークである、Modality-Free Graph In-context Alignment (MF-GIA)を紹介する。
MF-GIAは、事前エンコードされた特徴とインデックス付きラベルを統一的なセマンティック空間に整列する軽量な変換をパラメータ化するグラデーションフィンガーを通じて、ドメイン特性をキャプチャする。
事前学習中、エピソディックな目的を持った二重のプロンプト対応アテンションメカニズムは、アライメントされたサポート例とクエリを一致させることを学び、プロンプトベースの推論機能を確立する。
推論において、MF-GIAは、クロスドメインアライメントをトリガーし、未確認領域の即時予測を可能にするために、数ショットのサポートセットのみを使用してパラメータ更新なし適応を実行する。
実験により、MF-GIAは多様なグラフ領域にまたがる優れた数ショット性能と、目に見えない領域への強力な一般化を実現することが示された。
関連論文リスト
- GILT: An LLM-Free, Tuning-Free Graph Foundational Model for In-Context Learning [50.40400074353263]
グラフニューラルネットワーク(GNN)は、リレーショナルデータを先行する強力なツールであるが、しばしば目に見えないグラフに一般化するのに苦労する。
textbfGraph textbfIn-context textbfL textbfTransformer (GILT)を導入する。
論文 参考訳(メタデータ) (2025-10-06T08:09:15Z) - Towards Effective Federated Graph Foundation Model via Mitigating Knowledge Entanglement [9.87623531653534]
グラフ基礎モデル(GFM)は強力なドメイン一般化を提供するが、通常は単一のマシンで訓練される。
我々は,新しい分散GFMトレーニングパラダイムであるFedGFMを提案する。
主な課題は知識の絡み合いであり、多分野の知識は区別できない表現に融合する。
2つのコアモジュールを持つ拡張フレームワークであるFedGFM+を,知識の絡み合いを軽減するために提案する。
論文 参考訳(メタデータ) (2025-05-19T04:06:32Z) - Gradual Domain Adaptation for Graph Learning [15.648578809740414]
本稿では,適応時の情報損失を最小限に抑えるコンパクトなドメインシーケンスを構成するグラフ段階的ドメイン適応(GGDA)フレームワークを提案する。
我々のフレームワークは、拡張可能なドメイン間ワッサースタイン距離($W_p(mu_t,mu_t+1)$)に対して実装可能な上界と下界を提供し、最適なドメイン形成のための柔軟な調整を可能にする。
論文 参考訳(メタデータ) (2025-01-29T06:48:59Z) - Degree-Conscious Spiking Graph for Cross-Domain Adaptation [51.58506501415558]
Spiking Graph Networks (SGNs) はグラフ分類において大きな可能性を証明している。
DeSGraDA(Degree-Consicious Spiking Graph for Cross-Domain Adaptation)という新しいフレームワークを紹介する。
DeSGraDAは3つのキーコンポーネントを持つドメイン間の一般化を強化する。
論文 参考訳(メタデータ) (2024-10-09T13:45:54Z) - A Pure Transformer Pretraining Framework on Text-attributed Graphs [50.833130854272774]
グラフ構造を先行として扱うことで,特徴中心の事前学習の視点を導入する。
我々のフレームワークであるGraph Sequence Pretraining with Transformer (GSPT)はランダムウォークを通してノードコンテキストをサンプリングする。
GSPTはノード分類とリンク予測の両方に容易に適応でき、様々なデータセットで有望な経験的成功を示す。
論文 参考訳(メタデータ) (2024-06-19T22:30:08Z) - Learning Domain-invariant Graph for Adaptive Semi-supervised Domain
Adaptation with Few Labeled Source Samples [65.55521019202557]
ドメイン適応は、ソースドメインからモデルを一般化して、関連するが異なるターゲットドメインのタスクに取り組むことを目的としています。
従来のドメイン適応アルゴリズムは、事前知識として扱われる十分なラベル付きデータがソースドメインで利用できると仮定する。
少数のラベル付きソースサンプルを用いたドメイン適応のためのドメイン不変グラフ学習(DGL)手法を提案する。
論文 参考訳(メタデータ) (2020-08-21T08:13:25Z) - Cross-domain Detection via Graph-induced Prototype Alignment [114.8952035552862]
カテゴリレベルのドメインアライメントを求めるグラフ誘発プロトタイプアライメント(GPA)フレームワークを提案する。
さらに,クラス不均衡がドメイン適応に与える影響を軽減するために,クラス重み付きコントラスト損失を設計する。
我々のアプローチは、既存の手法よりも顕著なマージンで優れています。
論文 参考訳(メタデータ) (2020-03-28T17:46:55Z) - Supervised Domain Adaptation using Graph Embedding [86.3361797111839]
領域適応法は、2つの領域間の分布がシフトし、それを認識しようとすると仮定する。
グラフ埋め込みに基づく汎用フレームワークを提案する。
提案手法が強力なドメイン適応フレームワークにつながることを示す。
論文 参考訳(メタデータ) (2020-03-09T12:25:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。