論文の概要: Treat Different Negatives Differently: Enriching Loss Functions with
Domain and Range Constraints for Link Prediction
- arxiv url: http://arxiv.org/abs/2303.00286v4
- Date: Tue, 5 Mar 2024 20:49:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-07 18:33:25.813581
- Title: Treat Different Negatives Differently: Enriching Loss Functions with
Domain and Range Constraints for Link Prediction
- Title(参考訳): 異なる負の扱い方:リンク予測のための領域制約と範囲制約による損失関数の強化
- Authors: Nicolas Hubert, Pierre Monnin, Armelle Brun, Davy Monticolo
- Abstract要約: 知識グラフ埋め込みモデル(KGEM)は知識グラフ(KG)に関連する様々なタスクに使用される。
最近の研究は、偽三重項を等しく価値付けすべきではなく、特定の負のサンプリング手順をもたらすことを示唆している。
リンク予測のための3つの主要な損失関数を豊かにすることにより、全ての種類の負がサンプリングされるが、その意味論的妥当性に基づいて異なる扱いがなされる。
- 参考スコア(独自算出の注目度): 1.8024397171920883
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge graph embedding models (KGEMs) are used for various tasks related
to knowledge graphs (KGs), including link prediction. They are trained with
loss functions that consider batches of true and false triples. However,
different kinds of false triples exist and recent works suggest that they
should not be valued equally, leading to specific negative sampling procedures.
In line with this recent assumption, we posit that negative triples that are
semantically valid w.r.t. signatures of relations (domain and range) are
high-quality negatives. Hence, we enrich the three main loss functions for link
prediction such that all kinds of negatives are sampled but treated differently
based on their semantic validity. In an extensive and controlled experimental
setting, we show that the proposed loss functions systematically provide
satisfying results which demonstrates both the generality and superiority of
our proposed approach. In fact, the proposed loss functions (1) lead to better
MRR and Hits@10 values, and (2) drive KGEMs towards better semantic correctness
as measured by the Sem@K metric. This highlights that relation signatures
globally improve KGEMs, and thus should be incorporated into loss functions.
Domains and ranges of relations being largely available in schema-defined KGs,
this makes our approach both beneficial and widely usable in practice.
- Abstract(参考訳): 知識グラフ埋め込みモデル(KGEM)は、リンク予測を含む知識グラフ(KG)に関連する様々なタスクに使用される。
それらは真と偽の三重項のバッチを考慮した損失関数で訓練される。
しかし、異なる種類の偽三重項が存在し、最近の研究はそれらが等しく評価されるべきでないことを示唆し、特定の負のサンプリング手順をもたらす。
最近の仮定に従い、関係(ドメインと範囲)のw.r.t.シグネチャを意味的に妥当な負の三重項は高品質の負であると仮定する。
したがって,リンク予測のための3つの主要損失関数を豊かにすることで,すべての種類の負がサンプリングされるが,その意味的妥当性に基づいて異なる扱いを受けることができる。
広範かつ制御された実験環境において,提案した損失関数が,提案手法の汎用性と優越性の両方を示す満足度を体系的に提供することを示す。
実際、提案した損失関数は、(1) MRR と Hits@10 の値がより良くなり、(2) KGEM をSem@K 測定値によって測定されるような意味的正しさに導く。
これは、関係シグネチャがKGEMをグローバルに改善し、損失関数に組み込むべきであることを強調している。
ドメインと範囲の関係はスキーマ定義のKGでほとんど利用できますが、このアプローチは実用的にも広く利用できます。
関連論文リスト
- Of Dice and Games: A Theory of Generalized Boosting [61.752303337418475]
我々は、コスト感受性と多目的損失の両方を組み込むために、ブースティングの有名な理論を拡張した。
我々は、コスト感受性と多目的強化の包括的理論を開発し、弱い学習保証の分類を提供する。
我々の特徴付けは、昇降の幾何学的解釈に依存しており、コスト感受性と多目的損失の間の驚くべき等価性を明らかにしている。
論文 参考訳(メタデータ) (2024-12-11T01:38:32Z) - STAR Loss: Reducing Semantic Ambiguity in Facial Landmark Detection [80.04000067312428]
本稿では,意味的あいまいさの特性を利用した自己適応型あいまいさ低減(STAR)の損失を提案する。
意味的あいまいさは異方性予測分布をもたらすことが分かり、予測分布を用いて意味的あいまいさを表現する。
また,分布の異常変化とモデルの初期収束を回避できる2種類の固有値制限法を提案する。
論文 参考訳(メタデータ) (2023-06-05T10:33:25Z) - Loss Minimization through the Lens of Outcome Indistinguishability [11.709566373491619]
我々は凸損失と最近のOmnipredictionの概念について新しい視点を提示する。
設計上、Los OIは直感的かつ直感的に全滅を意味する。
一般化モデルから生じる損失の重要な集合に対する損失 OI は、完全な多重校正を必要としないことを示す。
論文 参考訳(メタデータ) (2022-10-16T22:25:27Z) - Positive-Negative Equal Contrastive Loss for Semantic Segmentation [8.664491798389662]
従来の作業では、グローバルコンテキストを効果的に抽出し集約するために、プラグアンドプレイモジュールと構造的損失を設計するのが一般的だった。
そこで我々は, 正負の負の正の負の負の正の負の正の負の正の負の負の負の正の負の負の正の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の
総合的な実験を行い、2つのベンチマークデータセット上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-07-04T13:51:29Z) - Pessimistic Minimax Value Iteration: Provably Efficient Equilibrium
Learning from Offline Datasets [101.5329678997916]
両プレイヤーゼロサムマルコフゲーム(MG)をオフライン環境で研究する。
目標は、事前収集されたデータセットに基づいて、近似的なナッシュ均衡(NE)ポリシーペアを見つけることである。
論文 参考訳(メタデータ) (2022-02-15T15:39:30Z) - Value Activation for Bias Alleviation: Generalized-activated Deep Double
Deterministic Policy Gradients [11.545991873249564]
深層強化学習(DRL)における値関数を正確に推定することは不可欠である。
既存のアクター批判的手法は、過小評価バイアスまたは過大評価バイアスにより、多かれ少なかれ悩まされる。
本稿では、より優れた値推定のための重み付けとして、非減少関数、すなわちアクティベーション関数を用いる一般化活性化重み演算子を提案する。
論文 参考訳(メタデータ) (2021-12-21T13:45:40Z) - Asymmetric Loss Functions for Learning with Noisy Labels [82.50250230688388]
そこで本研究では,様々なノイズに対する雑音ラベルによる学習に頑健な,新しい損失関数,すなわちテクスティタ対称損失関数を提案する。
ベンチマークデータセットの実験結果は、非対称損失関数が最先端の手法より優れていることを示した。
論文 参考訳(メタデータ) (2021-06-06T12:52:48Z) - Deconfounding Scores: Feature Representations for Causal Effect
Estimation with Weak Overlap [140.98628848491146]
推定対象の偏りを伴わずに高い重なりを生じさせる,デコンファウンディングスコアを導入する。
分離スコアは観測データで識別可能なゼロ共分散条件を満たすことを示す。
特に,この手法が標準正規化の魅力的な代替となることを示す。
論文 参考訳(メタデータ) (2021-04-12T18:50:11Z) - Pointwise Binary Classification with Pairwise Confidence Comparisons [97.79518780631457]
ペアワイズ比較(Pcomp)分類を提案し、ラベルのないデータのペアしか持たない。
我々はPcomp分類をノイズラベル学習に結びつけて、進歩的UREを開発し、一貫性の正則化を課すことにより改善する。
論文 参考訳(メタデータ) (2020-10-05T09:23:58Z) - All your loss are belong to Bayes [28.393499629583786]
ロス関数は機械学習の基盤であり、ほとんどのアルゴリズムの出発点である。
正方形ガウス過程を用いて経路が整合なソース関数を持つランダムな過程を求める。
実験の結果は、最先端技術よりも大幅に改善された。
論文 参考訳(メタデータ) (2020-06-08T14:31:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。