論文の概要: NGAT: A Node-level Graph Attention Network for Long-term Stock Prediction
- arxiv url: http://arxiv.org/abs/2507.02018v1
- Date: Wed, 02 Jul 2025 13:59:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-04 15:37:14.989086
- Title: NGAT: A Node-level Graph Attention Network for Long-term Stock Prediction
- Title(参考訳): NGAT: 長期ストック予測のためのノードレベルのグラフアテンションネットワーク
- Authors: Yingjie Niu, Mingchuan Zhao, Valerio Poti, Ruihai Dong,
- Abstract要約: グラフ表現法は、企業間の関係を生かして企業表現を強化するために、金融アプリケーションで広く採用されている。
ストック予測に特化して設計された既存のグラフモデルは、しばしば過剰な複雑さと一般化の欠如に悩まされる。
本研究では,企業関係グラフに適した長期ストック予測タスクを提案し,特に企業関係グラフに適したノードレベルのグラフ注意ネットワーク(NGAT)を開発する。
- 参考スコア(独自算出の注目度): 4.743574336827573
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph representation learning methods have been widely adopted in financial applications to enhance company representations by leveraging inter-firm relationships. However, current approaches face three key challenges: (1) The advantages of relational information are obscured by limitations in downstream task designs; (2) Existing graph models specifically designed for stock prediction often suffer from excessive complexity and poor generalization; (3) Experience-based construction of corporate relationship graphs lacks effective comparison of different graph structures. To address these limitations, we propose a long-term stock prediction task and develop a Node-level Graph Attention Network (NGAT) specifically tailored for corporate relationship graphs. Furthermore, we experimentally demonstrate the limitations of existing graph comparison methods based on model downstream task performance. Experimental results across two datasets consistently demonstrate the effectiveness of our proposed task and model. The project is publicly available on GitHub to encourage reproducibility and future research.
- Abstract(参考訳): グラフ表現学習法は、企業代表性を高めるために、相互確認関係を活用することで広く採用されている。
しかし、現在のアプローチでは、(1)下流タスク設計における制約によって関係情報の利点が曖昧化されていること、(2)ストック予測に特化して設計された既存のグラフモデルは、しばしば過剰な複雑さと一般化に悩まされていること、(3)企業関係グラフの経験に基づく構築は、異なるグラフ構造の効果的な比較を欠いていること、の3つの大きな課題に直面している。
これらの制約に対処するため,企業関係グラフに適した長期ストック予測タスクを提案し,特にノードレベルのグラフ注意ネットワーク(NGAT)を開発する。
さらに、モデルダウンストリームタスク性能に基づく既存のグラフ比較手法の限界を実験的に示す。
2つのデータセットにまたがる実験結果は、提案したタスクとモデルの有効性を一貫して示している。
このプロジェクトは再現性と今後の研究を促進するためにGitHubで公開されている。
関連論文リスト
- Position: Graph Learning Will Lose Relevance Due To Poor Benchmarks [37.020118015110086]
グラフ上の機械学習は、薬物設計と分子特性予測の可能性を証明している。
このポジションペーパーは、より有意義なベンチマーク、厳格な評価プロトコル、そしてドメインエキスパートとのより強力なコラボレーションへのパラダイムシフトを要求する。
論文 参考訳(メタデータ) (2025-02-20T13:21:47Z) - Revisiting Graph Neural Networks on Graph-level Tasks: Comprehensive Experiments, Analysis, and Improvements [54.006506479865344]
グラフレベルグラフニューラルネットワーク(GNN)のための統一評価フレームワークを提案する。
このフレームワークは、さまざまなデータセットにわたるGNNを評価するための標準化された設定を提供する。
また,表現性の向上と一般化機能を備えた新しいGNNモデルを提案する。
論文 参考訳(メタデータ) (2025-01-01T08:48:53Z) - Does Graph Prompt Work? A Data Operation Perspective with Theoretical Analysis [7.309233340654514]
本稿では,データ操作の観点からグラフのプロンプトを厳密に解析する理論的枠組みを提案する。
グラフ変換演算子に近似する能力を示す形式的保証定理を提供する。
グラフプロンプトによってこれらのデータ操作の誤差の上限を導出し、この議論をグラフのバッチに拡張する。
論文 参考訳(メタデータ) (2024-10-02T15:07:13Z) - Deep Prompt Tuning for Graph Transformers [55.2480439325792]
ファインチューニングはリソース集約型であり、大きなモデルのコピーを複数保存する必要がある。
ファインチューニングの代替として,ディープグラフプロンプトチューニングと呼ばれる新しい手法を提案する。
事前学習したパラメータを凍結し、追加したトークンのみを更新することにより、フリーパラメータの数を減らし、複数のモデルコピーを不要にする。
論文 参考訳(メタデータ) (2023-09-18T20:12:17Z) - GraphPrompt: Unifying Pre-Training and Downstream Tasks for Graph Neural
Networks [16.455234748896157]
GraphPromptは、グラフに関する新しい事前トレーニングおよびプロンプトフレームワークである。
トレーニング済みタスクとダウンストリームタスクを共通タスクテンプレートに統合する。
また、トレーニング前のモデルから最も関連性の高い知識を見つけるために、下流タスクを支援するための学習可能なプロンプトも採用している。
論文 参考訳(メタデータ) (2023-02-16T02:51:38Z) - Robust Causal Graph Representation Learning against Confounding Effects [21.380907101361643]
本稿では,ロバスト因果グラフ表現学習(RCGRL)を提案する。
RCGRLは、無条件のモーメント制約の下でインストゥルメンタル変数を生成するアクティブなアプローチを導入し、グラフ表現学習モデルにより、共同設立者を排除している。
論文 参考訳(メタデータ) (2022-08-18T01:31:25Z) - Graph Pooling for Graph Neural Networks: Progress, Challenges, and
Opportunities [128.55790219377315]
グラフニューラルネットワークは多くのグラフレベルのタスクの主要なアーキテクチャとして登場した。
グラフプーリングは、グラフ全体の全体的グラフレベル表現を得るためには不可欠である。
論文 参考訳(メタデータ) (2022-04-15T04:02:06Z) - Data Augmentation for Deep Graph Learning: A Survey [66.04015540536027]
まず,グラフデータ拡張のための分類法を提案し,その拡張情報モダリティに基づいて関連研究を分類し,構造化されたレビューを提供する。
DGLにおける2つの課題(すなわち、最適グラフ学習と低リソースグラフ学習)に焦点を当て、グラフデータ拡張に基づく既存の学習パラダイムについて議論し、レビューする。
論文 参考訳(メタデータ) (2022-02-16T18:30:33Z) - Model-Agnostic Graph Regularization for Few-Shot Learning [60.64531995451357]
グラフ組み込み数ショット学習に関する包括的な研究を紹介します。
本稿では,ラベル間のグラフ情報の組み込みによる影響をより深く理解できるグラフ正規化手法を提案する。
提案手法は,Mini-ImageNetで最大2%,ImageNet-FSで6.7%の性能向上を実現する。
論文 参考訳(メタデータ) (2021-02-14T05:28:13Z) - Learning to Extrapolate Knowledge: Transductive Few-shot Out-of-Graph
Link Prediction [69.1473775184952]
数発のアウトオブグラフリンク予測という現実的な問題を導入する。
我々は,新しいメタ学習フレームワークによってこの問題に対処する。
我々は,知識グラフの補完と薬物と薬物の相互作用予測のために,複数のベンチマークデータセット上でモデルを検証した。
論文 参考訳(メタデータ) (2020-06-11T17:42:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。