論文の概要: RLGNet: Repeating-Local-Global History Network for Temporal Knowledge Graph Reasoning
- arxiv url: http://arxiv.org/abs/2404.00586v2
- Date: Sun, 28 Jul 2024 08:44:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-30 23:37:56.100470
- Title: RLGNet: Repeating-Local-Global History Network for Temporal Knowledge Graph Reasoning
- Title(参考訳): RLGNet: 時間的知識グラフ推論のための繰り返しローカル-グローバル履歴ネットワーク
- Authors: Ao Lv, Guige Ouyang, Yongzhong Huang, Yue Chen, Haoran Xie,
- Abstract要約: 時間的知識グラフ(TKG)推論は、過去の情報に基づいて将来の出来事を予測する。
RLGNetと呼ばれるアンサンブル学習に基づくマルチスケールハイブリッドアーキテクチャモデルを提案する。
RLGNetは、様々なスケールで情報を処理するモジュールを組み合わせることで、異なるレベルの歴史的情報をキャプチャし、統合する。
- 参考スコア(独自算出の注目度): 9.576427721924533
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Temporal Knowledge Graph (TKG) reasoning involves predicting future events based on historical information. However, due to the unpredictability of future events, this task is highly challenging. To address this issue, we propose a multi-scale hybrid architecture model based on ensemble learning, called RLGNet (Repeating-Local-Global History Network). Inspired by the application of multi-scale information in other fields, we introduce the concept of multi-scale information into TKG reasoning. Specifically, RLGNet captures and integrates different levels of historical information by combining modules that process information at various scales. The model comprises three modules: the Repeating History Module focuses on identifying repetitive patterns and trends in historical data, the Local History Module captures short-term changes and details, and the Global History Module provides a macro perspective on long-term changes. Additionally, to address the limitations of previous single-architecture models in generalizing across single-step and multi-step reasoning tasks, we adopted architectures based on Recurrent Neural Networks (RNN) and Multi-Layer Perceptrons (MLP) for the Local and Global History Modules, respectively. This hybrid architecture design enables the model to complement both multi-step and single-step reasoning capabilities. Finally, to address the issue of noise in TKGs, we adopt an ensemble learning strategy, combining the predictions of the three modules to reduce the impact of noise on the final prediction results. In the evaluation on six benchmark datasets, our approach generally outperforms existing TKG reasoning models in multi-step and single-step reasoning tasks.
- Abstract(参考訳): 時間的知識グラフ(TKG)推論は、過去の情報に基づいて将来の出来事を予測する。
しかし、将来の事象の予測不能のため、この課題は極めて困難である。
この問題に対処するために, RLGNet (Repeating-Local-Global History Network) と呼ばれるアンサンブル学習に基づくマルチスケールハイブリッドアーキテクチャモデルを提案する。
他の分野でのマルチスケール情報の適用に触発されて、TKG推論にマルチスケール情報の概念を導入する。
具体的には、RLGNetは様々なスケールで情報を処理するモジュールを組み合わせることで、異なるレベルの歴史的情報をキャプチャし、統合する。
モデルは3つのモジュールから構成される: 繰り返し履歴モジュールは、履歴データの繰り返しパターンとトレンドを特定することに焦点を当て、ローカル歴史モジュールは、短期的な変更と詳細をキャプチャし、グローバル歴史モジュールは、長期的な変更に関するマクロな視点を提供する。
さらに,シングルステップおよびマルチステップの推論タスクを一般化する上で,従来の単一アーキテクチャモデルの限界に対処するため,ローカルおよびグローバル履歴モジュールに対して,リカレントニューラルネットワーク(RNN)とマルチレイヤパーセプトロン(MLP)に基づくアーキテクチャを採用した。
このハイブリッドアーキテクチャ設計により、モデルはマルチステップとシングルステップの推論機能の両方を補完することができる。
最後に,TKGにおけるノイズ問題に対処するため,最終的な予測結果に対するノイズの影響を低減するために,三つのモジュールの予測を組み合わせたアンサンブル学習戦略を採用する。
6つのベンチマークデータセットの評価において,本手法は,マルチステップおよびシングルステップの推論タスクにおいて,既存のTKG推論モデルを上回っている。
関連論文リスト
- A Practitioner's Guide to Continual Multimodal Pretraining [83.63894495064855]
マルチモーダル・ファンデーション・モデルは視覚と言語を交わす多くのアプリケーションに役立っている。
モデルを更新し続けるために、継続事前トレーニングの研究は主に、大規模な新しいデータに対する頻度の低い、差別的な更新、あるいは頻繁に行われるサンプルレベルの更新のシナリオを探求する。
本稿では,FoMo-in-Flux(FoMo-in-Flux)について紹介する。
論文 参考訳(メタデータ) (2024-08-26T17:59:01Z) - RS-GPT4V: A Unified Multimodal Instruction-Following Dataset for Remote Sensing Image Understanding [4.266920365127677]
新しいLaGDパラダイムの下では、古いデータセットはもはや新しいタスクには適していない。
我々は、RSI理解のための高品質で多様なマルチモーダル命令追従データセットを設計した。
実験結果から, RS-GPT4Vによる微調整MLLMは, きめ細かい情報を記述できることがわかった。
論文 参考訳(メタデータ) (2024-06-18T10:34:28Z) - NativE: Multi-modal Knowledge Graph Completion in the Wild [51.80447197290866]
本研究では,MMKGCを実現するための包括的フレームワークNativEを提案する。
NativEは、任意のモダリティに対して適応的な融合を可能にするリレーショナル誘導デュアルアダプティブフュージョンモジュールを提案する。
提案手法を評価するために,5つのデータセットを用いたWildKGCという新しいベンチマークを構築した。
論文 参考訳(メタデータ) (2024-03-28T03:04:00Z) - Enhancing Automatic Modulation Recognition through Robust Global Feature
Extraction [12.868218616042292]
変調信号は長時間の時間依存性を示す。
人間の専門家は星座図のパターンを分析し、変調スキームを分類する。
古典的な畳み込みベースのネットワークは、局所的な特徴を抽出することに長けているが、グローバルな関係を捉えるのに苦労している。
論文 参考訳(メタデータ) (2024-01-02T06:31:24Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - Multimodal Meta-Learning for Time Series Regression [3.135152720206844]
メタラーニングを用いてモデルパラメータを新しい短史時系列に迅速に適応させるアイデアについて検討する。
提案手法は,12実験中9実験において,少ないデータでTSRを学習し,ベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2021-08-05T20:50:18Z) - PredRNN: A Recurrent Neural Network for Spatiotemporal Predictive
Learning [109.84770951839289]
歴史的文脈からビジュアルダイナミクスを学習するための新しいリカレントネットワークであるPredRNNを紹介する。
本手法は,3つの標準データセット上で高い競争結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T08:28:30Z) - Demystifying Deep Learning in Predictive Spatio-Temporal Analytics: An
Information-Theoretic Framework [20.28063653485698]
ディープラーニングモデル設計と情報理論解析のための包括的なフレームワークを提供する。
まず、インタラクティブに接続された新しいディープリカレントニューラルネットワーク(I$2$DRNN)モデルを開発し、実演する。
第二に、設計モデルがPSTAタスクのマルチスケール時間依存性を学習できることを理論的に証明するために、情報理論解析を提供する。
論文 参考訳(メタデータ) (2020-09-14T10:05:14Z) - Connecting the Dots: Multivariate Time Series Forecasting with Graph
Neural Networks [91.65637773358347]
多変量時系列データに特化して設計された汎用グラフニューラルネットワークフレームワークを提案する。
グラフ学習モジュールを用いて,変数間の一方向関係を自動的に抽出する。
提案手法は,4つのベンチマークデータセットのうち3つにおいて,最先端のベースライン手法よりも優れている。
論文 参考訳(メタデータ) (2020-05-24T04:02:18Z) - Crowd Counting via Hierarchical Scale Recalibration Network [61.09833400167511]
本稿では,群集カウントの課題に取り組むために,階層型大規模校正ネットワーク(HSRNet)を提案する。
HSRNetは、リッチなコンテキスト依存をモデル化し、複数のスケール関連情報を再検討する。
提案手法は,様々なノイズを選択的に無視し,適切な群集スケールに自動的に焦点を合わせることができる。
論文 参考訳(メタデータ) (2020-03-07T10:06:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。