論文の概要: MoEMeta: Mixture-of-Experts Meta Learning for Few-Shot Relational Learning
- arxiv url: http://arxiv.org/abs/2510.23013v1
- Date: Mon, 27 Oct 2025 05:16:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:15.459552
- Title: MoEMeta: Mixture-of-Experts Meta Learning for Few-Shot Relational Learning
- Title(参考訳): MoEMeta:Mixture-of-Experts Meta Learning for Few-Shot Relational Learning
- Authors: Han Wu, Jie Yin,
- Abstract要約: 知識グラフリレーショナル学習は、限られた数のトレーニング例のみを考慮すれば、関係性に関する推論を行おうとする。
MoEMetaは、タスク固有のコンテキストからグローバルに共有される知識を分離する、新しいメタ学習フレームワークである。
- 参考スコア(独自算出の注目度): 8.997817761465866
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-shot knowledge graph relational learning seeks to perform reasoning over relations given only a limited number of training examples. While existing approaches largely adopt a meta-learning framework for enabling fast adaptation to new relations, they suffer from two key pitfalls. First, they learn relation meta-knowledge in isolation, failing to capture common relational patterns shared across tasks. Second, they struggle to effectively incorporate local, task-specific contexts crucial for rapid adaptation. To address these limitations, we propose MoEMeta, a novel meta-learning framework that disentangles globally shared knowledge from task-specific contexts to enable both effective generalization and rapid adaptation. MoEMeta introduces two key innovations: (i) a mixture-of-experts (MoE) model that learns globally shared relational prototypes to enhance generalization, and (ii) a task-tailored adaptation mechanism that captures local contexts for fast task-specific adaptation. By balancing global generalization with local adaptability, MoEMeta significantly advances few-shot relational learning. Extensive experiments and analyses on three KG benchmarks demonstrate that MoEMeta consistently outperforms existing baselines, achieving state-of-the-art performance.
- Abstract(参考訳): 知識グラフリレーショナル学習は、限られた数のトレーニング例のみを考慮すれば、関係性に関する推論を行おうとする。
既存のアプローチでは、新しい関係への迅速な適応を可能にするメタラーニングフレームワークが広く採用されているが、それらは2つの重大な落とし穴に悩まされている。
まず、関係メタ知識を独立して学習し、タスク間で共有される共通リレーショナルパターンをキャプチャできない。
第二に、彼らは、迅速な適応に不可欠なローカルなタスク固有のコンテキストを効果的に組み込むことに苦労している。
これらの制約に対処するために,タスク固有のコンテキストからグローバルに共有される知識を分離し,効果的な一般化と迅速な適応を可能にする,新しいメタ学習フレームワークであるMoEMetaを提案する。
MoEMetaは2つの重要なイノベーションを紹介している。
i) 一般化を高めるためにグローバルに共有されたリレーショナルプロトタイプを学習するMix-of-experts(MoE)モデル
(II)高速なタスク固有適応のためのローカルコンテキストをキャプチャするタスク調整適応機構。
グローバルな一般化と局所的な適応性のバランスをとることで、MoEMetaは数発のリレーショナル学習を著しく前進させる。
3つのKGベンチマークに関する大規模な実験と分析は、MoEMetaが既存のベースラインを一貫して上回り、最先端のパフォーマンスを達成することを示した。
関連論文リスト
- Meta-Semantics Augmented Few-Shot Relational Learning [8.997817761465866]
知識グラフ上のリレーショナル学習(KGs)は,少数のトレーニング例で関係性に関する推論を行うことを目的としている。
本稿では,メタセマンティックスとリレーショナル情報とをシームレスに統合する新しいメタ学習フレームワークPromptMetaを提案する。
論文 参考訳(メタデータ) (2025-05-08T22:59:42Z) - Context-Aware Adapter Tuning for Few-Shot Relation Learning in Knowledge Graphs [10.152109740331163]
本稿では,知識グラフにおける数ショット関係学習のための文脈認識型アダプタRelAdapterを提案する。
まず、RelAdapterは、メタ知識の関連性固有の調整可能な適応を容易にする軽量なアダプタモジュールを備えている。
第2に、RelAdapterはターゲット関係に関するコンテキスト情報に富み、それぞれの異なる関係への適応性を高める。
論文 参考訳(メタデータ) (2024-10-11T07:06:45Z) - Learning to Learn with Contrastive Meta-Objective [48.27877062976768]
本稿では,メタトレーニングにおけるタスクアイデンティティのさらなる監視として活用することを提案する。
提案したConMLは、対照的なメタオブジェクトの評価と最適化を行っている。
我々は、ConMLが既存のメタ学習モデルだけでなく、既存のメタ学習モデルとシームレスに統合できることを実証した。
論文 参考訳(メタデータ) (2024-10-08T12:22:10Z) - Meta-Learning with Self-Improving Momentum Target [72.98879709228981]
メタラーナーの性能を向上させるために,SiMT(Self-improving Momentum Target)を提案する。
SiMTはメタラーナーの時間アンサンブルから適応してターゲットモデルを生成する。
我々は、SiMTが幅広いメタ学習手法と組み合わせることで、大きなパフォーマンス向上をもたらすことを示す。
論文 参考訳(メタデータ) (2022-10-11T06:45:15Z) - On Fast Adversarial Robustness Adaptation in Model-Agnostic
Meta-Learning [100.14809391594109]
モデルに依存しないメタラーニング(MAML)は、数発の学習において最も成功したメタラーニング手法の1つである。
メタモデルの一般化力にもかかわらず、マルチショット学習においてMDLがいかに敵対的堅牢性を維持することができるかは明らかではない。
本稿では,ラベルなしデータ拡張,高速な攻撃生成,計算量軽微な微調整を可能にする,汎用的かつ最適化が容易なロバストネス正規化メタラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-20T22:03:04Z) - Improving Generalization in Meta-learning via Task Augmentation [69.83677015207527]
本稿ではMetaMixとChannel Shuffleの2つのタスク拡張手法を提案する。
MetaMixとChannel Shuffleはどちらも、多くのデータセットにまたがる大きなマージンによって、最先端の結果を上回っている。
論文 参考訳(メタデータ) (2020-07-26T01:50:42Z) - Automated Relational Meta-learning [95.02216511235191]
本稿では,クロスタスク関係を自動的に抽出し,メタ知識グラフを構築する自動リレーショナルメタ学習フレームワークを提案する。
我々は,2次元玩具の回帰と少数ショット画像分類に関する広範な実験を行い,ARMLが最先端のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-01-03T07:02:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。