論文の概要: TAG-HGT: A Scalable and Cost-Effective Framework for Inductive Cold-Start Academic Recommendation
- arxiv url: http://arxiv.org/abs/2601.02381v1
- Date: Thu, 18 Dec 2025 17:25:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-11 18:48:17.557338
- Title: TAG-HGT: A Scalable and Cost-Effective Framework for Inductive Cold-Start Academic Recommendation
- Title(参考訳): TAG-HGT: 誘導型コールドスタート学術勧告のためのスケーラブルで費用効果の高いフレームワーク
- Authors: Zhexiang Li,
- Abstract要約: Heterogeneous Graph Transformer (HGT)は、生成品質と工業的スケーラビリティのギャップを埋めるための費用対効果の高いニューロシンボリックフレームワークである。
大規模言語モデルのセマンティクスは必要なグローバルリコールを提供するが、構造信号は有効なコラボレータを識別するために必要な重要な局所的識別を提供する。
TAG-HGTはSOTAシステムリコール@10の91.97%を獲得し、構造のみのベースラインを20.7%上回っている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Inductive cold-start recommendation remains the "Achilles' Heel" of industrial academic platforms, where thousands of new scholars join daily without historical interaction records. While recent Generative Graph Models (e.g., HiGPT, OFA) demonstrate promising semantic capabilities, their prohibitive inference latency (often exceeding 13 minutes per 1,000 requests) and massive computational costs render them practically undeployable for real-time, million-scale applications. To bridge this gap between generative quality and industrial scalability, we propose TAG-HGT, a cost-effective neuro-symbolic framework. Adopting a decoupled "Semantics-First, Structure-Refined" paradigm, TAG-HGT utilizes a frozen Large Language Model (DeepSeek-V3) as an offline semantic factory and distills its knowledge into a lightweight Heterogeneous Graph Transformer (HGT) via Cross-View Contrastive Learning (CVCL). We present a key insight: while LLM semantics provide necessary global recall, structural signals offer the critical local discrimination needed to distinguish valid collaborators from semantically similar but socially unreachable strangers in dense embedding spaces. Validated under a strict Time-Machine Protocol on the massive OpenAlex dataset, TAG-HGT achieves a SOTA System Recall@10 of 91.97%, outperforming structure-only baselines by 20.7%. Most significantly, from an industrial perspective, TAG-HGT reduces inference latency by five orders of magnitude ($4.5 \times 10^{5}\times$) compared to generative baselines (from 780s down to 1.73 ms), and slashes inference costs from $\sim$$1.50 to $<$$0.001 per 1k queries. This 99.9% cost reduction democratizes high-precision academic recommendation.
- Abstract(参考訳): インダクティブ・コールドスタート・レコメンデーションは産業学術の「アキレス・ヒール」として残っており、何千人もの新しい学者が歴史的な交流記録なしで毎日参加している。
最近の生成グラフモデル(例:HiGPT、OFA)は有望なセマンティック機能、その禁止推論遅延(1,000リクエストあたり13分以上)、膨大な計算コストにより、リアルタイムで百万規模のアプリケーションでは事実上デプロイ不可能である。
生成的品質と産業的スケーラビリティのギャップを埋めるため,コスト効率のよいニューロシンボリックフレームワークであるTAG-HGTを提案する。
分離された"Semantics-First, Structure-Refined"パラダイムを採用したTAG-HGTは,凍結した大規模言語モデル(DeepSeek-V3)をオフラインのセマンティックファクトリとして使用し,クロスビューコントラスト学習(CVCL)を通じて,その知識を軽量なヘテロジニアスグラフトランスフォーマー(HGT)に変換する。
LLMセマンティクスは、必要なグローバルリコールを提供するが、構造信号は、意味的に類似しているが、密着した埋め込み空間における社会的に到達不能な見知らぬ者と、有効な協力者を区別するために必要な重要な局所的識別を提供する。
大規模なOpenAlexデータセット上で厳格なTime-Machine Protocolの下で検証されたTAG-HGTは、SOTA System Recall@10の91.97%を達成し、構造のみのベースラインを20.7%上回る。
工業的には、TAG-HGTは、生成ベースライン(780sから1.73ms)と比較して、推論遅延を5桁(4.5 \times 10^{5}\times$)削減し、1kクエリあたりの推論コストを$\sim$1.50から$<0.001に削減する。
この99.9%のコスト削減は、高精度な学術勧告を民主化する。
関連論文リスト
- TARG: Training-Free Adaptive Retrieval Gating for Efficient RAG [46.122203287541005]
トレーニングフリーのAdaptive Retrieval Gating (TARG) は、ベースモデルからの短い非遅延ドラフトのみを使用していつ取得するかを決定する、単発のポリシーである。
NQ-Open、TriviaQA、PopQAでは、TARGは一貫して精度と効率のフロンティアをシフトさせる。
論文 参考訳(メタデータ) (2025-11-12T23:09:52Z) - Hierarchical Federated Graph Attention Networks for Scalable and Resilient UAV Collision Avoidance [0.5505634045241287]
衝突回避を実践するためにバランスをとる必要がある最も重要な指標は、リアルタイムのパフォーマンス、敵のレジリエンス、プライバシー保護である。
我々は適応型微分プライバシー機構を提案し,実時間脅威の評価に基づいて雑音レベル$(in [0.1, 1.0])$を動的に低減する。
このアーキテクチャは500UAVのスケーラブルなシナリオを提供し、衝突速度は2.0%$、ビザンティンの耐障害性は$f n/3$である。
論文 参考訳(メタデータ) (2025-11-05T12:01:00Z) - GRank: Towards Target-Aware and Streamlined Industrial Retrieval with a Generate-Rank Framework [47.25361445845229]
産業規模のレコメンデータシステムはカスケードパイプラインに依存しており、検索段階では何十億ものアイテムから設定されたハイリコール候補を厳格なレイテンシで返さなければならない。
本稿では,ユーザ中心の検索とターゲット認識学習をシームレスに統一する新しい構造化インデックスフリー検索パラダイムであるGRankを提案する。
論文 参考訳(メタデータ) (2025-10-17T04:15:09Z) - Rodimus*: Breaking the Accuracy-Efficiency Trade-Off with Efficient Attentions [26.025283259518936]
Rodimusは、新しいタイプの注目ベースの大規模言語モデル(LLM)である。
Rodimusは、線形アテンションベースで純粋にリカレントなフレームワーク内で、データ依存のテンプレート選択機構を採用している。
Rodimus$+$は、Rodimusと革新的なSliding Window Shared-Key Attention (SW-SKA)をハイブリッドアプローチで組み合わせている。
実験の結果,1兆トークンでトレーニングしたRodimus$+$-1.6Bは,より多くのトークンでトレーニングしたモデルに対して,より優れたダウンストリーム性能を実現することがわかった。
論文 参考訳(メタデータ) (2024-10-09T06:22:36Z) - PanGu-$\pi$: Enhancing Language Model Architectures via Nonlinearity
Compensation [97.78045712375047]
大規模言語モデル(LLM)のための新しい効率的なモデルアーキテクチャを提案する。
そこで,PanGu-$pi$-7Bは,約10%の推論速度を持つベンチマークに匹敵する性能が得られることを示す。
さらに,PanGu-$pi$-7Bを金融法と法律の高価値領域に導入し,実践的応用のためにYunShanというLLMを開発した。
論文 参考訳(メタデータ) (2023-12-27T11:49:24Z) - H$_2$O: Heavy-Hitter Oracle for Efficient Generative Inference of Large
Language Models [110.06476624089679]
メモリフットプリントを大幅に削減する新しいKVキャッシュの実装手法を提案する。
我々のアプローチは、トークンのごく一部が、注意点の計算において、ほとんどの価値に寄与する、という観察に基づいている。
我々は,最近のトークンとH$のバランスを動的に保持するKVキャッシュ消去ポリシーであるヘビーヒッター(H$O)を提案する。
論文 参考訳(メタデータ) (2023-06-24T20:11:14Z) - Rethinking and Scaling Up Graph Contrastive Learning: An Extremely
Efficient Approach with Group Discrimination [87.07410882094966]
グラフコントラスト学習(GCL)は、グラフ表現学習(GRL)におけるラベル情報への依存度を緩和する
自己教師型GRLのための新しい学習パラダイム、すなわちグループ識別(GD)を導入する。
類似性計算の代わりに、GGDは単純なバイナリクロスエントロピー損失を持つ要約ノードインスタンスの2つのグループを直接識別する。
加えて、GGDは大規模データセット上でのGCL法と比較して、競争性能を得るために、はるかに少ないトレーニングエポックを必要とする。
論文 参考訳(メタデータ) (2022-06-03T12:32:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。