論文の概要: Dependency-aware Self-training for Entity Alignment
- arxiv url: http://arxiv.org/abs/2211.16101v1
- Date: Tue, 29 Nov 2022 11:24:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-30 14:42:52.773599
- Title: Dependency-aware Self-training for Entity Alignment
- Title(参考訳): エンティティアライメントのための依存性を意識した自己学習
- Authors: Bing Liu, Tiancheng Lan, Wen Hua, Guido Zuccon
- Abstract要約: エンティティアライメント(EA)は、異なる知識グラフ(KG)内のエンティティマッピングを検出することを目的とする。
EA手法は現在のEA研究を支配しているが、まだラベル付きマッピングに依存している。
本稿では、EAの特異性であるエンティティ間の依存関係を利用して、真正写像のリコールを損なうことなくノイズを抑えることを提案する。
- 参考スコア(独自算出の注目度): 28.158354625969668
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Entity Alignment (EA), which aims to detect entity mappings (i.e. equivalent
entity pairs) in different Knowledge Graphs (KGs), is critical for KG fusion.
Neural EA methods dominate current EA research but still suffer from their
reliance on labelled mappings. To solve this problem, a few works have explored
boosting the training of EA models with self-training, which adds confidently
predicted mappings into the training data iteratively. Though the effectiveness
of self-training can be glimpsed in some specific settings, we still have very
limited knowledge about it. One reason is the existing works concentrate on
devising EA models and only treat self-training as an auxiliary tool. To fill
this knowledge gap, we change the perspective to self-training to shed light on
it. In addition, the existing self-training strategies have limited impact
because they introduce either much False Positive noise or a low quantity of
True Positive pseudo mappings. To improve self-training for EA, we propose
exploiting the dependencies between entities, a particularity of EA, to
suppress the noise without hurting the recall of True Positive mappings.
Through extensive experiments, we show that the introduction of dependency
makes the self-training strategy for EA reach a new level. The value of
self-training in alleviating the reliance on annotation is actually much higher
than what has been realised. Furthermore, we suggest future study on smart data
annotation to break the ceiling of EA performance.
- Abstract(参考訳): エンティティアライメント(EA)は、異なる知識グラフ(KG)内のエンティティマッピング(同等のエンティティペア)を検出することを目的としており、KGの融合には不可欠である。
ニューラルEA法は現在のEA研究を支配しているが、ラベル付きマッピングに依存している。
この問題を解決するために、いくつかの研究が自己学習によるEAモデルのトレーニングの強化を試みており、トレーニングデータに確実に予測されたマッピングを反復的に追加している。
自己学習の有効性は、いくつかの特定の設定で垣間見ることができるが、それに関する知識は非常に限られている。
ひとつの理由は、既存の作業がEAモデルを設計することに集中し、補助的なツールとして自己学習のみを扱います。
この知識ギャップを埋めるために、自己学習の視点を変えて、光を放つようにします。
さらに、既存の自己学習戦略は、偽の正のノイズが多いか、あるいは真正の擬似マッピングが少ないため、影響が限られている。
EAの自己学習を改善するために,EAの特異性であるエンティティ間の依存関係を利用して,真のポジティブマッピングのリコールを損なうことなくノイズを抑える手法を提案する。
大規模な実験を通じて、依存性の導入によってEAの自己学習戦略が新たなレベルに達することを示す。
アノテーションへの依存を緩和する自己学習の価値は、実際に実現されているものよりもはるかに高い。
さらに、EAパフォーマンスの天井を破るためのスマートデータアノテーションの研究も提案する。
関連論文リスト
- KBAlign: Efficient Self Adaptation on Specific Knowledge Bases [75.78948575957081]
大規模言語モデル(LLM)は通常、知識材料を瞬時に活用するために、検索強化世代に依存している。
本稿では,知識ベースを含む下流タスクへの効率的な適応を目的としたKBAlignを提案する。
提案手法は,Q&Aペアやリビジョン提案などの自己注釈付きデータを用いて反復学習を行い,モデルが知識内容を効率的に把握できるようにする。
論文 参考訳(メタデータ) (2024-11-22T08:21:03Z) - Incremental Self-training for Semi-supervised Learning [56.57057576885672]
ISTは単純だが有効であり、既存の自己学習に基づく半教師あり学習手法に適合する。
提案したISTを5つのデータセットと2種類のバックボーンで検証し,認識精度と学習速度を効果的に向上させる。
論文 参考訳(メタデータ) (2024-04-14T05:02:00Z) - Self-Alignment for Factuality: Mitigating Hallucinations in LLMs via Self-Evaluation [71.91287418249688]
大規模言語モデル(LLM)は、たとえ関連する知識を持っていたとしても、事実的不正確さに悩まされることが多い。
我々は,LLMの自己評価能力を活用し,現実性に向けてモデルを操る訓練信号を提供する。
提案手法は,Llamaファミリーモデルに対して,3つの重要な知識集約タスクにおいて,現実的精度を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2024-02-14T15:52:42Z) - Augmenting Unsupervised Reinforcement Learning with Self-Reference [63.68018737038331]
人間は、新しいタスクを学ぶ際に、過去の経験を明確に表現する能力を持っている。
本稿では,歴史情報を活用するためのアドオンモジュールとして,自己参照(SR)アプローチを提案する。
提案手法は,非教師付き強化学習ベンチマークにおけるIQM(Interquartile Mean)性能と最適ギャップ削減の両面から,最先端の成果を実現する。
論文 参考訳(メタデータ) (2023-11-16T09:07:34Z) - Making Users Indistinguishable: Attribute-wise Unlearning in Recommender
Systems [28.566330708233824]
攻撃者は、訓練中に明示的に遭遇していない場合でも、訓練されたモデルから個人情報、すなわち性別、人種、年齢を抽出することができる。
ユーザのセンシティブな属性を保護するために、Attribute Unlearning (AU)は攻撃性能を低下させ、ターゲット属性を識別不能にする。
論文 参考訳(メタデータ) (2023-10-06T09:36:44Z) - Guiding Neural Entity Alignment with Compatibility [32.22210683891481]
1つの知識グラフ内の異なるエンティティは、他のKGと互換性のあるエンティティを持つべきだ、と我々は主張する。
互換性のある予測を行うことは、ラベル付きデータの適合とともに、EAモデルをトレーニングする目標の1つであるべきです。
我々は,(1)EAモデルの適合度を測定する方法,(2)EAモデルに互換性のある特性を注入する方法,(3)互換性モデルのパラメータを最適化する方法の3つの問題に対処して,トレーニングフレームワークを考案した。
論文 参考訳(メタデータ) (2022-11-29T00:05:08Z) - Learning Domain Adaptive Object Detection with Probabilistic Teacher [93.76128726257946]
確率的教師(PT)と呼ばれる,シンプルで効果的な枠組みを提案する。
PTは、段階的に進化する教師から未ラベルの目標データの不確実性を捉え、相互に有利な方法で生徒の学習を指導することを目的としている。
また,不確実性誘導型自己学習を促進するために,新しいエントロピー・フォカル・ロス(EFL)を提案する。
論文 参考訳(メタデータ) (2022-06-13T16:24:22Z) - ICLEA: Interactive Contrastive Learning for Self-supervised Entity
Alignment [27.449414854756913]
自己管理エンティティアライメント(EA)は、シードアライメントなしで異なる知識グラフ(KG)に等価なエンティティをリンクすることを目的としている。
現在のSOTA自己監督型EA法は、もともとコンピュータビジョンで設計されたコントラスト学習からインスピレーションを得ている。
自己管理型EAのための対話型コントラスト学習モデルを提案する。
論文 参考訳(メタデータ) (2022-01-17T06:04:00Z) - ActiveEA: Active Learning for Neural Entity Alignment [31.212894129845093]
エンティティアライメント(EA)は、異なる知識グラフ(KG)間で同等のエンティティをマッチングすることを目的としている。
現在の主流の手法であるニューラルEAモデルは、シードアライメントによるトレーニング、すなわち、事前整合したエンティティペアのセットに依存しています。
我々は、神経EAのための新しいアクティブラーニング(AL)フレームワークを考案し、非常に有意義なシードアライメントを作ることを目指している。
論文 参考訳(メタデータ) (2021-10-13T03:38:04Z) - Reducing Label Effort: Self-Supervised meets Active Learning [32.4747118398236]
自己学習の最近の進歩は、いくつかのデータセットで教師付き学習に匹敵する非常に印象的な成果を上げている。
実験の結果, 自己学習は, ラベル付け作業の削減において, 積極的学習よりも極めて効率的であることが判明した。
自己学習またはスクラッチでトレーニングされたアクティブラーニングのパフォーマンスギャップは、データセットのほぼ半分がラベル付けされた時点に近づくにつれて減少します。
論文 参考訳(メタデータ) (2021-08-25T20:04:44Z) - Two-phase Pseudo Label Densification for Self-training based Domain
Adaptation [93.03265290594278]
TPLDと呼ばれる,新規な二相擬似ラベル高密度化フレームワークを提案する。
第1フェーズでは,スライディングウインドウ投票を用いて,画像内の内在的空間相関を利用して,自信のある予測を広める。
第2フェーズでは,信頼度に基づく容易な分類を行う。
トレーニングプロセスの容易化と騒音予測の回避を目的として,ブートストラップ機構の導入を行った。
論文 参考訳(メタデータ) (2020-12-09T02:35:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。