論文の概要: ADKGD: Anomaly Detection in Knowledge Graphs with Dual-Channel Training
- arxiv url: http://arxiv.org/abs/2501.07078v1
- Date: Mon, 13 Jan 2025 06:22:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-14 14:22:50.549362
- Title: ADKGD: Anomaly Detection in Knowledge Graphs with Dual-Channel Training
- Title(参考訳): ADKGD:デュアルチャネルトレーニングによる知識グラフの異常検出
- Authors: Jiayang Wu, Wensheng Gan, Jiahao Zhang, Philip S. Yu,
- Abstract要約: 本稿では、二重チャネル学習(ADKGD)を用いた知識グラフにおける異常検出アルゴリズムを提案する。
両チャネル間のスコアリング関数の精度を向上させるために,KL(Kullback-leibler)-loss成分を導入する。
実験の結果,ADKGDは最先端の異常検出アルゴリズムよりも優れていた。
- 参考スコア(独自算出の注目度): 38.3788247358102
- License:
- Abstract: In the current development of large language models (LLMs), it is important to ensure the accuracy and reliability of the underlying data sources. LLMs are critical for various applications, but they often suffer from hallucinations and inaccuracies due to knowledge gaps in the training data. Knowledge graphs (KGs), as a powerful structural tool, could serve as a vital external information source to mitigate the aforementioned issues. By providing a structured and comprehensive understanding of real-world data, KGs enhance the performance and reliability of LLMs. However, it is common that errors exist in KGs while extracting triplets from unstructured data to construct KGs. This could lead to degraded performance in downstream tasks such as question-answering and recommender systems. Therefore, anomaly detection in KGs is essential to identify and correct these errors. This paper presents an anomaly detection algorithm in knowledge graphs with dual-channel learning (ADKGD). ADKGD leverages a dual-channel learning approach to enhance representation learning from both the entity-view and triplet-view perspectives. Furthermore, using a cross-layer approach, our framework integrates internal information aggregation and context information aggregation. We introduce a kullback-leibler (KL)-loss component to improve the accuracy of the scoring function between the dual channels. To evaluate ADKGD's performance, we conduct empirical studies on three real-world KGs: WN18RR, FB15K, and NELL-995. Experimental results demonstrate that ADKGD outperforms the state-of-the-art anomaly detection algorithms. The source code and datasets are publicly available at https://github.com/csjywu1/ADKGD.
- Abstract(参考訳): 大規模言語モデル(LLM)の現在の発展において、基礎となるデータソースの精度と信頼性を確保することが重要である。
LLMは様々な用途に欠かせないが、訓練データに知識ギャップがあるため、幻覚や不正確さに悩まされることが多い。
知識グラフ(KG)は強力な構造ツールであり、上記の問題を緩和するために重要な外部情報ソースとして機能する可能性がある。
実世界のデータの構造化された総合的な理解を提供することにより、KGはLLMの性能と信頼性を高める。
しかしながら、KGを構成するために、構造化されていないデータから三重項を抽出しながら、KGに誤りが存在することは一般的である。
これは、質問応答やレコメンデータシステムといった下流タスクのパフォーマンス低下につながる可能性がある。
したがって、KGsにおける異常検出はこれらの誤りを識別し、修正するために不可欠である。
本稿では,二重チャネル学習(ADKGD)を用いた知識グラフにおける異常検出アルゴリズムを提案する。
ADKGDは、エンティティ・ビューとトリプルト・ビューの両方の観点から表現学習を強化するために、二重チャネル学習アプローチを活用する。
さらに,階層間アプローチを用いて,内部情報集約とコンテキスト情報集約を統合した。
両チャネル間のスコアリング関数の精度を向上させるために,KL(Kullback-leibler)-loss成分を導入する。
ADKGDの性能を評価するため,実世界の3つのKG(WN18RR,FB15K,NELL-995)について実験を行った。
実験の結果,ADKGDは最先端の異常検出アルゴリズムよりも優れていた。
ソースコードとデータセットはhttps://github.com/csjywu1/ADKGDで公開されている。
関連論文リスト
- Harnessing Diverse Perspectives: A Multi-Agent Framework for Enhanced Error Detection in Knowledge Graphs [29.44542764343831]
知識グラフ誤り検出(MAKGED)のための新しいマルチエージェントフレームワークを提案する。
訓練中, 細粒度で双方向なサブグラフ埋め込みとLLMベースのクエリ埋め込みを結合することにより, これらの表現を統合して4つの特殊エージェントを生成する。
FB15KとWN18RRの実験では、MAKGEDは最先端の手法よりも優れており、KG評価の精度と堅牢性を高めている。
論文 参考訳(メタデータ) (2025-01-27T05:35:25Z) - Harnessing Large Language Models for Knowledge Graph Question Answering via Adaptive Multi-Aspect Retrieval-Augmentation [81.18701211912779]
本稿では,KG(Amar)フレームワーク上での適応型マルチアスペクト検索手法を提案する。
この方法は、エンティティ、リレーション、サブグラフを含む知識を検索し、検索した各テキストを即時埋め込みに変換する。
提案手法は2つの共通データセットに対して最先端の性能を達成した。
論文 参考訳(メタデータ) (2024-12-24T16:38:04Z) - Improving the Robustness of Knowledge-Grounded Dialogue via Contrastive
Learning [71.8876256714229]
本稿では,知識ベース対話システムの堅牢性向上を目的とした,エンティティベースのコントラスト学習フレームワークを提案する。
提案手法は,自動評価スコアの点から,新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2024-01-09T05:16:52Z) - Combating Bilateral Edge Noise for Robust Link Prediction [56.43882298843564]
本稿では,RGIB(Robust Graph Information Bottleneck)という情報理論の原則を提案し,信頼性の高い監視信号を抽出し,表現の崩壊を回避する。
RGIB-SSLとRGIB-REPの2つのインスタンス化は、異なる手法の利点を活用するために検討されている。
6つのデータセットと3つのGNNの様々なノイズシナリオによる実験は、我々のRGIBインスタンスの有効性を検証する。
論文 参考訳(メタデータ) (2023-11-02T12:47:49Z) - Learning Strong Graph Neural Networks with Weak Information [64.64996100343602]
我々は、弱い情報(GLWI)を用いたグラフ学習問題に対する原則的アプローチを開発する。
非完全構造を持つ入力グラフ上で長距離情報伝搬を行うデュアルチャネルGNNフレームワークであるD$2$PTを提案するが、グローバルな意味的類似性を符号化するグローバルグラフも提案する。
論文 参考訳(メタデータ) (2023-05-29T04:51:09Z) - Knowledge Graph Contrastive Learning for Recommendation [32.918864602360884]
我々は、知識グラフ強化レコメンデータシステムのための情報ノイズを軽減するために、一般的な知識グラフ比較学習フレームワークを設計する。
具体的には,情報集約におけるKGノイズを抑制する知識グラフ拡張スキーマを提案する。
我々は、KG拡張プロセスから追加の監視信号を利用して、クロスビューコントラスト学習パラダイムを導出する。
論文 参考訳(メタデータ) (2022-05-02T15:24:53Z) - Link-Intensive Alignment for Incomplete Knowledge Graphs [28.213397255810936]
本研究では,不完全KGと表現学習の整合性の問題に対処する。
我々のフレームワークは、推移性に基づく2つの特徴チャネルと近接性に基づく2つの特徴チャネルを利用する。
2つの特徴チャネルは、入力KG間で重要な特徴を交換するために共同で学習される。
また,学習過程中に欠落したリンクを検出し,回復するリンク検出装置も開発した。
論文 参考訳(メタデータ) (2021-12-17T00:41:28Z) - How Knowledge Graph and Attention Help? A Quantitative Analysis into
Bag-level Relation Extraction [66.09605613944201]
バッグレベルの関係抽出(RE)における注意と知識グラフの効果を定量的に評価する。
その結果,(1)注目精度の向上は,エンティティ参照特徴を抽出するモデルの性能を損なう可能性があること,(2)注目性能は様々なノイズ分布パターンの影響が大きいこと,(3)KG強化された注目はRE性能を向上するが,その効果は注目度を向上させるだけでなく,先行するエンティティを組み込むことによっても改善することがわかった。
論文 参考訳(メタデータ) (2021-07-26T09:38:28Z) - Bounding Information Leakage in Machine Learning [26.64770573405079]
本稿では,情報漏洩の基本的な境界について検討する。
最悪の会員推論攻撃の成功率を特定し、拘束します。
感度の高い属性とモデルパラメータの間の相互情報の境界を導出する。
論文 参考訳(メタデータ) (2021-05-09T08:49:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。