論文の概要: ETT-CKGE: Efficient Task-driven Tokens for Continual Knowledge Graph Embedding
- arxiv url: http://arxiv.org/abs/2506.08158v1
- Date: Mon, 09 Jun 2025 19:07:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-11 15:11:40.472952
- Title: ETT-CKGE: Efficient Task-driven Tokens for Continual Knowledge Graph Embedding
- Title(参考訳): ETT-CKGE: 継続的な知識グラフ埋め込みのための効率的なタスク駆動型トークン
- Authors: Lijing Zhu, Qizhen Lan, Qing Tian, Wenbo Sun, Li Yang, Lu Xia, Yixin Xie, Xi Xiao, Tiehang Duan, Cui Tao, Shuteng Niu,
- Abstract要約: 継続的な知識グラフ 埋め込みは、過去の情報を保存しながら新しい知識を統合する。
既存の方法は2つの重要な制限があるため、効率性とスケーラビリティに苦しむ。
ETT-CKGE (Efficient, Task-driven, Tokens for Continual Knowledge Graph Embedding, ETT-CKGE)を提案する。
- 参考スコア(独自算出の注目度): 23.5842828523749
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Continual Knowledge Graph Embedding (CKGE) seeks to integrate new knowledge while preserving past information. However, existing methods struggle with efficiency and scalability due to two key limitations: (1) suboptimal knowledge preservation between snapshots caused by manually designed node/relation importance scores that ignore graph dependencies relevant to the downstream task, and (2) computationally expensive graph traversal for node/relation importance calculation, leading to slow training and high memory overhead. To address these limitations, we introduce ETT-CKGE (Efficient, Task-driven, Tokens for Continual Knowledge Graph Embedding), a novel task-guided CKGE method that leverages efficient task-driven tokens for efficient and effective knowledge transfer between snapshots. Our method introduces a set of learnable tokens that directly capture task-relevant signals, eliminating the need for explicit node scoring or traversal. These tokens serve as consistent and reusable guidance across snapshots, enabling efficient token-masked embedding alignment between snapshots. Importantly, knowledge transfer is achieved through simple matrix operations, significantly reducing training time and memory usage. Extensive experiments across six benchmark datasets demonstrate that ETT-CKGE consistently achieves superior or competitive predictive performance, while substantially improving training efficiency and scalability compared to state-of-the-art CKGE methods. The code is available at: https://github.com/lijingzhu1/ETT-CKGE/tree/main
- Abstract(参考訳): CKGE(Continuous Knowledge Graph Embedding)は、過去の情報を保存しながら新しい知識を統合する。
しかし,既存の手法では,(1)手動設計によるノード/リレーショナルな重要度スコアによるスナップショット間の最適知識の保存,(2)ノード/リレーショナルな重要度計算のための計算コストの高いグラフトラバーサルの2つの制約により,効率とスケーラビリティに苦慮している。
これらの制約に対処するために、スナップショット間の効率的な効率的な知識伝達に効率的なタスク駆動トークンを利用する新しいタスク誘導型CKGE法であるETT-CKGE(Efficient, Task-driven, Tokens for Continual Knowledge Graph Embedding)を導入する。
本手法では,タスク関連信号を直接キャプチャする学習可能なトークンのセットを導入し,ノードの明示的なスコアリングやトラバーサルの必要性を解消する。
これらのトークンはスナップショット間の一貫性と再利用可能なガイダンスとして機能し、スナップショット間の効率的なトークンマップの埋め込みアライメントを可能にする。
重要なことは、知識伝達は単純な行列演算によって達成され、トレーニング時間とメモリ使用量を大幅に削減する。
6つのベンチマークデータセットにわたる大規模な実験により、ETT-CKGEは、最先端のCKGE手法と比較して、トレーニング効率とスケーラビリティを大幅に改善しつつ、優れた、あるいは競争的な予測性能を一貫して達成していることが示された。
コードは以下の通り。 https://github.com/lijingzhu1/ETT-CKGE/tree/main
関連論文リスト
- Agglomerative Token Clustering [61.0477253613511]
Agglomerative Token Clustering (ATC)は、新しいトークンマージ手法である。
ATCはすべてのタスクで最先端のパフォーマンスを達成でき、既定の最先端をオフ・ザ・シェルフで適用した場合と同等に動作させることができる。
論文 参考訳(メタデータ) (2024-09-18T12:37:58Z) - Incremental Self-training for Semi-supervised Learning [56.57057576885672]
ISTは単純だが有効であり、既存の自己学習に基づく半教師あり学習手法に適合する。
提案したISTを5つのデータセットと2種類のバックボーンで検証し,認識精度と学習速度を効果的に向上させる。
論文 参考訳(メタデータ) (2024-04-14T05:02:00Z) - One Train for Two Tasks: An Encrypted Traffic Classification Framework
Using Supervised Contrastive Learning [18.63871240173137]
CLE-TFE(Contrastive Learning Enhanced Temporal Fusion)と呼ばれる効果的なモデルを提案する。
特に、教師付きコントラスト学習を利用して、パケットレベルおよびフローレベル表現を強化する。
また、パケットレベルとフローレベルの分類タスクを1つのトレーニングで同時に行うクロスレベルマルチタスク学習を提案する。
論文 参考訳(メタデータ) (2024-02-12T09:10:09Z) - GTP-ViT: Efficient Vision Transformers via Graph-based Token Propagation [30.343504537684755]
ビジョントランスフォーマー(ViT)はコンピュータビジョンの分野に革命をもたらしたが、リソースに制約のあるデバイスへの展開は依然として困難である。
ViTを高速化するために、トークンのプルーニングとトークンのマージアプローチが開発され、計算に関わるトークンの数を減らすことを目的としている。
本稿では,効率的なViTのためのモデル効率と情報保存のバランスをとることの課題を解決するために,グラフベースの新しいToken Propagation(GTP)手法を提案する。
論文 参考訳(メタデータ) (2023-11-06T11:14:19Z) - Token-Label Alignment for Vision Transformers [93.58540411138164]
データ混合戦略(例えば、CutMix)は、畳み込みニューラルネットワーク(CNN)の性能を大幅に改善する能力を示している。
我々は,データ混合戦略の可能性を抑制するトークン変動現象を同定する。
本稿では,各トークンのラベルを保持するために,変換されたトークンと元のトークンとの対応をトレースするトークンラベルアライメント(TL-Align)手法を提案する。
論文 参考訳(メタデータ) (2022-10-12T17:54:32Z) - DOTIN: Dropping Task-Irrelevant Nodes for GNNs [119.17997089267124]
最近のグラフ学習アプローチでは、学習のためのグラフのサイズを減らすためのプール戦略が導入されている。
我々はDOTIN(underlineDrunderlineopping underlineTask-underlineIrrelevant underlineNodes)と呼ばれる新しいアプローチを設計し、グラフのサイズを減らす。
本手法は,グラフ分類やグラフ編集距離を含むグラフレベルのタスクにおいて,GATを約50%高速化する。
論文 参考訳(メタデータ) (2022-04-28T12:00:39Z) - Leveraging Auxiliary Tasks with Affinity Learning for Weakly Supervised
Semantic Segmentation [88.49669148290306]
そこで我々はAuxSegNetと呼ばれる弱教師付きマルチタスク・フレームワークを提案し,サリエンシ検出とマルチラベル画像分類を補助タスクとして活用する。
同様の構造的セマンティクスに着想を得て,サリエンシとセグメンテーションの表現から,クロスタスクなグローバル画素レベルの親和性マップを学習することを提案する。
学習されたクロスタスク親和性は、両方のタスクに対して改善された擬似ラベルを提供するために、唾液度予測を洗練し、CAMマップを伝播するために使用することができる。
論文 参考訳(メタデータ) (2021-07-25T11:39:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。