論文の概要: DANS-KGC: Diffusion Based Adaptive Negative Sampling for Knowledge Graph Completion
- arxiv url: http://arxiv.org/abs/2511.07901v1
- Date: Wed, 12 Nov 2025 01:27:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-12 20:17:03.532963
- Title: DANS-KGC: Diffusion Based Adaptive Negative Sampling for Knowledge Graph Completion
- Title(参考訳): DANS-KGC:知識グラフ補完のための拡散に基づく適応負サンプリング
- Authors: Haoning Li, Qinghua Huang,
- Abstract要約: 本稿では,DANS-KGC(Diffusion-based Adaptive Negative Smpling for Knowledge Graph Completion)を提案する。
DANS-KGCは、DAM(Difficulty Assessment Module)、ANS(Adaptive Negative Smpling Module)、DTM(Dynamic Training Mechanism)の3つの重要なコンポーネントから構成されている。
DTMは、トレーニングを通して負のサンプルの硬さ分布を動的に調整することで学習を強化する。
- 参考スコア(独自算出の注目度): 10.190273470704112
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Negative sampling (NS) strategies play a crucial role in knowledge graph representation. In order to overcome the limitations of existing negative sampling strategies, such as vulnerability to false negatives, limited generalization, and lack of control over sample hardness, we propose DANS-KGC (Diffusion-based Adaptive Negative Sampling for Knowledge Graph Completion). DANS-KGC comprises three key components: the Difficulty Assessment Module (DAM), the Adaptive Negative Sampling Module (ANS), and the Dynamic Training Mechanism (DTM). DAM evaluates the learning difficulty of entities by integrating semantic and structural features. Based on this assessment, ANS employs a conditional diffusion model with difficulty-aware noise scheduling, leveraging semantic and neighborhood information during the denoising phase to generate negative samples of diverse hardness. DTM further enhances learning by dynamically adjusting the hardness distribution of negative samples throughout training, enabling a curriculum-style progression from easy to hard examples. Extensive experiments on six benchmark datasets demonstrate the effectiveness and generalization ability of DANS-KGC, with the method achieving state-of-the-art results on all three evaluation metrics for the UMLS and YAGO3-10 datasets.
- Abstract(参考訳): 負のサンプリング(NS)戦略は知識グラフ表現において重要な役割を果たす。
疑似負の脆弱性や一般化の制限,サンプル硬度制御の欠如といった既存の負サンプリング戦略の限界を克服するために,DANS-KGC(Diffusion-based Adaptive Negative Smpling for Knowledge Graph Completion)を提案する。
DANS-KGCは、DAM(Difficulty Assessment Module)、ANS(Adaptive Negative Sampling Module)、DTM(Dynamic Training Mechanism)の3つの主要なコンポーネントから構成されている。
DAMは、意味的特徴と構造的特徴を統合することにより、エンティティの学習難度を評価する。
この評価に基づいて、ANSは難易度を意識したノイズスケジューリングを備えた条件拡散モデルを用いて、デノナイジングフェーズ中の意味情報と近傍情報を活用し、多様な硬さの負のサンプルを生成する。
DTMは、トレーニング全体を通して負のサンプルの硬さ分布を動的に調整することで学習をさらに強化し、カリキュラムスタイルの進歩を簡単な例から難しい例まで可能にする。
6つのベンチマークデータセットに対する大規模な実験は、UMLSとYAGO3-10データセットの3つの評価指標について、DANS-KGCの有効性と一般化能力を示す。
関連論文リスト
- Learning Robust Diffusion Models from Imprecise Supervision [75.53546939251146]
DMISは、Imrecise Supervisionから堅牢な条件拡散モデルをトレーニングするための統一されたフレームワークである。
我々のフレームワークは、可能性から派生し、その目的を生成的および分類的構成要素に分解する。
画像生成、弱教師付き学習、データセットの凝縮をカバーし、様々な形の不正確な監視実験を行い、DMISが常に高品質でクラス差別的なサンプルを生成することを示した。
論文 参考訳(メタデータ) (2025-10-03T14:00:32Z) - Visual Perturbation and Adaptive Hard Negative Contrastive Learning for Compositional Reasoning in Vision-Language Models [16.405694961196925]
視覚言語モデル(VLM)はマルチモーダルタスク、特に構成推論(CR)タスクに必須である。
既存の手法は主にテキストベースのハードネガティブサンプルを生成することによってモデルを微調整する。
AHNPLはテキストベースのハードネガティブを視覚領域に翻訳し、モデルをトレーニングするために意味的に乱された画像ベースのネガティブを生成する。
論文 参考訳(メタデータ) (2025-05-21T14:28:43Z) - Unearthing Gems from Stones: Policy Optimization with Negative Sample Augmentation for LLM Reasoning [41.83677588934301]
負のサンプル拡張(BCPG-NSA)による行動制約付きポリシーのグラディエントを提案する。
BCPG-NSA は,1) サンプルセグメンテーション,2) LLM と PRM を併用した合意に基づくステップ正当性評価,3) 正のステップを負のサンプル内で効果的にマイニングするNSA とのポリシー最適化の3段階を含む,詳細なオフラインフレームワークである。
実験の結果、BCPG-NSAは、同じトレーニングデータセットを使用して、いくつかの挑戦的な数学/コーディング推論ベンチマークのベースラインよりも優れていた。
論文 参考訳(メタデータ) (2025-05-20T14:16:49Z) - Diffusion-based Hierarchical Negative Sampling for Multimodal Knowledge Graph Completion [6.24078177211832]
マルチモーダル知識グラフ補完(MMKGC)は、マルチモーダル知識グラフにおける不足知識の重要な問題に対処することを目的としている。
従来のアプローチでは、多モーダル情報の活用を無視して、多様で高品質な負の三重項を生成する。
本稿では,MMKGCタスクに適した拡散型階層的負サンプリング手法を提案する。
論文 参考訳(メタデータ) (2025-01-26T04:20:34Z) - Feasible Learning [78.6167929413604]
本稿では,サンプル中心の学習パラダイムであるFeasible Learning(FL)を紹介する。
大規模言語モデルにおける画像分類, 年齢回帰, 好みの最適化といった経験的分析により, FLを用いて訓練したモデルでは, 平均的性能に限界があるものの, ERMと比較して改善された尾の挙動を示しながらデータから学習できることが実証された。
論文 参考訳(メタデータ) (2025-01-24T20:39:38Z) - How Hard is this Test Set? NLI Characterization by Exploiting Training Dynamics [49.9329723199239]
本稿では, 実例と非実例を手作業で構築することなく, 挑戦的なテストセットを自動生成する手法を提案する。
一般的なNLIデータセットのテストセットを,トレーニングダイナミクスを利用した3つの難易度に分類する。
我々の評価法がトレーニングセットに適用された場合、トレーニング対象データのごく一部でトレーニングされたモデルは、フルデータセットでトレーニングされたモデルに匹敵するパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-10-04T13:39:21Z) - CuSINeS: Curriculum-driven Structure Induced Negative Sampling for Statutory Article Retrieval [1.3723120574076126]
CuSINeS は Statutory Article Retrieval (SAR) の性能向上のための負サンプリング手法である
カリキュラムベースのネガティブサンプリング戦略を採用し、モデルがより容易なネガティブにフォーカスできるようにする。
また、サンプルの難易度を評価するために、法令の構造的組織から得られた階層的およびシーケンシャルな情報を利用する。
論文 参考訳(メタデータ) (2024-03-31T07:49:23Z) - Self-supervised Training Sample Difficulty Balancing for Local
Descriptor Learning [1.309716118537215]
正と負のサンプルの不均衡の場合、モデルがより微妙な違いを学習するのに役立つ強い負のマイニング戦略が示されている。
しかし、データセット内で厳密なマイニング戦略が推進されている場合、偽陰性サンプルを導入するリスクがある可能性がある。
本稿では,高品質な負の試料を採取し,利用するために,採掘試料の難易度をトレードオフする方法を検討する。
論文 参考訳(メタデータ) (2023-03-10T18:37:43Z) - Temporal Output Discrepancy for Loss Estimation-based Active Learning [65.93767110342502]
ラベルのないサンプルが高損失を伴っていると信じられている場合に,データアノテーションのオラクルに問い合わせる,新しいディープラーニングアプローチを提案する。
本手法は,画像分類やセマンティックセグメンテーションタスクにおける最先端の能動学習手法よりも優れた性能を実現する。
論文 参考訳(メタデータ) (2022-12-20T19:29:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。