論文の概要: Learning Noise-Resilient and Transferable Graph-Text Alignment via Dynamic Quality Assessment
- arxiv url: http://arxiv.org/abs/2510.19384v1
- Date: Wed, 22 Oct 2025 09:01:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:15.440876
- Title: Learning Noise-Resilient and Transferable Graph-Text Alignment via Dynamic Quality Assessment
- Title(参考訳): 動的品質評価による耐雑音性と伝達性のあるグラフテキストアライメントの学習
- Authors: Yuhang Liu, Minglai Shao, Zengyi Wo, Yunlong Chu, Bing Hao, Shengzhong Liu, Ruijie Wang, Jianxin Li,
- Abstract要約: テキスト分散グラフ(TAG)上のGFM(Pre-training Graph Foundation Models)は、検索、レコメンデーション、知識発見などのWebスケールアプリケーションの中心である。
ノードとテキスト間の厳密な1対1対応を前提としており、さまざまなデータ品質に適応できない静的アライメントの目標に依存しているため、ノイズの多い監視下では不安定である。
我々は,多対多の表現と保守的な一対一の目的を,監督品質に応じて動的に調整する品質対応グラフテキストアライメントフレームワークADAlignerを提案する。
- 参考スコア(独自算出の注目度): 19.204800655283744
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pre-training Graph Foundation Models (GFMs) on text-attributed graphs (TAGs) is central to web-scale applications such as search, recommendation, and knowledge discovery. However, existing CLIP-style graph-text aligners face two key limitations: they assume strict one-to-one correspondences between nodes and texts, overlooking the inherent many-to-many relations in real-world graphs; and they rely on static alignment objectives that cannot adapt to varying data quality, making them brittle under noisy supervision. Together, these limitations expose a core dilemma: embracing expressive many-to-many alignment amplifies noise, while reverting to strict one-to-one strategies sacrifices semantic diversity and fails to handle inherently mismatched pairs. To address these challenges, we propose ADAligner, a dynamic, quality-aware graph-text alignment framework that dynamically adjusts between expressive many-to-many and conservative one-to-one objectives according to supervision quality. ADAligner estimates batch-level alignment reliability in real time and adapts its optimization accordingly, promoting soft, subgraph-level many-to-many alignment when supervision is clean, while emphasizing reliable one-to-one alignment by dynamically filtering low-confidence pairs under noise. Theoretically, we prove that this dynamic mechanism forms a stable negative feedback process, ensuring convergence and robustness. Comprehensive experiments on nine diverse TAG datasets demonstrate that ADAligner consistently outperforms prior graph-text aligners on zero-/few-shot node classification, link prediction and cross-modal retrieval tasks. It maintains strong robustness under noisy supervision and accelerates pre-training by approximately 2 to 3 times compared to multimodal baselines, establishing a scalable and reliable foundation for graph-text representation learning in real-world web environments.
- Abstract(参考訳): テキスト分散グラフ(TAG)上のGFM(Pre-training Graph Foundation Models)は、検索、レコメンデーション、知識発見などのWebスケールアプリケーションの中心である。
しかし、既存のCLIPスタイルのグラフテキスト整合器は、ノードとテキスト間の厳密な1対1の対応を前提としており、実世界のグラフに固有の多対多の関係を見落としている。
表現力のある多対多のアライメントを受け入れることはノイズを増幅する一方で、厳密な1対1戦略への回帰はセマンティックな多様性を犠牲にして、本質的にミスマッチしたペアを扱うのに失敗する。
これらの課題に対処するために、動的で品質に配慮したグラフテキストアライメントフレームワークであるADAlignerを提案する。
ADAlignerは、バッチレベルのアライメントの信頼性をリアルタイムで推定し、それに応じて最適化を適応し、監督がクリーンになったときにソフトでサブグラフレベルの多対多元アライメントを促進すると同時に、低信頼ペアをノイズ下で動的にフィルタリングすることで信頼性の高いワンツーワンアライメントを強調する。
理論的には、この力学機構が安定な負のフィードバック過程を形成し、収束と堅牢性を保証する。
9つの多様なTAGデータセットに関する総合的な実験は、ADAlignerがゼロ/フェーショットノード分類、リンク予測、クロスモーダル検索タスクにおいて、先行のグラフテキスト整合器を一貫して上回っていることを示している。
ノイズの多い監視下で強い堅牢性を維持し、マルチモーダルベースラインと比較して約2~3倍の事前学習を加速し、現実世界のWeb環境でグラフテキスト表現学習のスケーラブルで信頼性の高い基盤を確立する。
関連論文リスト
- GILT: An LLM-Free, Tuning-Free Graph Foundational Model for In-Context Learning [50.40400074353263]
グラフニューラルネットワーク(GNN)は、リレーショナルデータを先行する強力なツールであるが、しばしば目に見えないグラフに一般化するのに苦労する。
textbfGraph textbfIn-context textbfL textbfTransformer (GILT)を導入する。
論文 参考訳(メタデータ) (2025-10-06T08:09:15Z) - Unsupervised Online 3D Instance Segmentation with Synthetic Sequences and Dynamic Loss [52.28880405119483]
教師なしのオンライン3Dインスタンスのセグメンテーションは、基本的だが難しい課題だ。
UNITのような既存の手法はこの方向に進んできたが、訓練の多様性が制限されているままである。
本稿では,合成点雲列生成によるトレーニング分布の強化を目的とした新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-09-27T08:53:27Z) - Graph Alignment via Dual-Pass Spectral Encoding and Latent Space Communication [31.43539830271355]
本稿では,ノードの特異性を同時に強化し,潜在空間間の幾何的整合性を実現する新しいグラフアライメントフレームワークを提案する。
提案手法では,低域通過スペクトルフィルタと高域通過スペクトルフィルタを組み合わせたデュアルパスエンコーダを導入し,構造認識と高判別の両方が可能な埋め込みを生成する。
論文 参考訳(メタデータ) (2025-09-11T16:36:16Z) - EGRA:Toward Enhanced Behavior Graphs and Representation Alignment for Multimodal Recommendation [50.848374648774374]
MMR(MultiModal Recommendation)システムは、リッチな項目側モダリティ情報を活用することで、推奨品質を改善するための有望なソリューションとして登場した。
本稿では,事前学習したMMRモデルにより生成された表現から構築されたアイテム-イムグラフの挙動グラフを組み込んだEGRAを提案する。
また、両レベルの動的アライメント重み付け機構を導入し、モダリティ・ビヘイビアのアライメントアライメントを改善する。
論文 参考訳(メタデータ) (2025-08-22T07:47:54Z) - Unsupervised Robust Cross-Lingual Entity Alignment via Neighbor Triple Matching with Entity and Relation Texts [17.477542644785483]
言語間エンティティアライメント(EA)は、異なる言語間での複数の知識グラフ(KG)の統合を可能にする。
近隣の3重マッチング戦略により、エンティティレベルとリレーレベルアライメントを共同で実行するEAパイプライン。
論文 参考訳(メタデータ) (2024-07-22T12:25:48Z) - Interactive Test-Time Adaptation with Reliable Spatial-Temporal Voxels for Multi-Modal Segmentation [56.70910056845503]
マルチモーダルテストタイム適応(MM-TTA)は、補完的なマルチモーダル入力をオンライン形式で活用することにより、ラベルのないターゲットドメインにモデルを適応させる。
従来のMM-TTA法は, 時間的不整合によるフレームワイドの不安定な予測と, 信頼度誘導の仮定に反する不正確な予測の2つの大きな限界に悩まされていた。
Latte++は、より情報的な幾何学的対応によって不安定なフレーム単位の予測をより抑制し、対話型テスト時間適応(ITTA)は、努力を伴わない人間のフィードバックを促進するフレキシブルなアドオンである。
論文 参考訳(メタデータ) (2024-03-11T06:56:08Z) - Multi-Label Meta Weighting for Long-Tailed Dynamic Scene Graph
Generation [55.429541407920304]
対象と対象のペア間の述語認識は、本質的に不均衡であり、複数ラベルである。
最近の最先端の手法は、主に最も頻繁に発生する述語クラスに焦点を当てている。
偏りのある述語分布を扱うために,多言語メタラーニングフレームワークを導入する。
論文 参考訳(メタデータ) (2023-06-16T18:14:23Z) - Progressively Guide to Attend: An Iterative Alignment Framework for
Temporal Sentence Grounding [53.377028000325424]
時間的文接地作業のための反復アライメントネットワーク(IA-Net)を提案する。
学習可能なパラメータを持つマルチモーダル特徴をパットすることで、非整合フレームワードペアの非整合問題を軽減する。
また、アライメントの知識を洗練させるために、各アライメントモジュールに従ってキャリブレーションモジュールを考案する。
論文 参考訳(メタデータ) (2021-09-14T02:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。