論文の概要: Optimization and Interpretability of Graph Attention Networks for Small
Sparse Graph Structures in Automotive Applications
- arxiv url: http://arxiv.org/abs/2305.16196v1
- Date: Thu, 25 May 2023 15:55:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2023-05-26 14:12:50.745339
- Title: Optimization and Interpretability of Graph Attention Networks for Small
Sparse Graph Structures in Automotive Applications
- Title(参考訳): 自動車用小型グラフ構造のためのグラフ注意ネットワークの最適化と解釈可能性
- Authors: Marion Neumeier, Andreas Tollk\"uhn, Sebastian Dorn, Michael Botsch,
Wolfgang Utschick
- Abstract要約: 本研究は、注意機構の理解を深め、因果的重要性を特定するための解釈可能性を分析することを目的とする。
自動車アプリケーションにとって、グラフ注意ネットワーク(GAT)は、機能埋め込み中にトラフィックシナリオのリレーショナル情報を含む、顕著に使用されるアーキテクチャである。
- 参考スコア(独自算出の注目度): 11.581071131903775
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For automotive applications, the Graph Attention Network (GAT) is a
prominently used architecture to include relational information of a traffic
scenario during feature embedding. As shown in this work, however, one of the
most popular GAT realizations, namely GATv2, has potential pitfalls that hinder
an optimal parameter learning. Especially for small and sparse graph structures
a proper optimization is problematic. To surpass limitations, this work
proposes architectural modifications of GATv2. In controlled experiments, it is
shown that the proposed model adaptions improve prediction performance in a
node-level regression task and make it more robust to parameter initialization.
This work aims for a better understanding of the attention mechanism and
analyzes its interpretability of identifying causal importance.
- Abstract(参考訳): 自動車アプリケーションにとって、グラフ注意ネットワーク(GAT)は、機能埋め込み中にトラフィックシナリオのリレーショナル情報を含む、目立つアーキテクチャである。
しかし、この研究で示されているように、最も一般的なGAT実現法の一つであるGATv2は、最適パラメータ学習を妨げる潜在的な落とし穴がある。
特に小さくスパースなグラフ構造では、適切な最適化が問題となる。
制限を超えるために、この研究はGATv2のアーキテクチャ修正を提案する。
制御実験では,提案するモデル適応により,ノードレベルの回帰タスクにおける予測性能が向上し,パラメータ初期化に頑健であることが示されている。
本研究は注意機構の理解を深め、因果的重要性を識別する解釈可能性を分析することを目的としている。
関連論文リスト
- VecFormer: Towards Efficient and Generalizable Graph Transformer with Graph Token Attention [61.96837866507746]
VecFormerはノード分類のための効率的かつ高一般化可能なモデルである。
VecFormerは、パフォーマンスとスピードの両方で、既存のGraph Transformerを上回っている。
論文 参考訳(メタデータ) (2026-02-23T09:10:39Z) - GADPN: Graph Adaptive Denoising and Perturbation Networks via Singular Value Decomposition [6.24191713518868]
GADPNはグラフ構造学習フレームワークであり、低ランクな denoising と一般化された構造摂動によってグラフトポロジーを適応的に洗練する。
最先端のパフォーマンスを実現し、効率を大幅に向上させる。
グラフ構造を強固に学習する能力を検証することで、不合理なグラフに挑戦する上で特に大きな利益をもたらす。
論文 参考訳(メタデータ) (2026-01-13T05:25:32Z) - AutoGraph-R1: End-to-End Reinforcement Learning for Knowledge Graph Construction [60.51319139563509]
強化学習(RL)を用いたタスクパフォーマンスのKG構築を直接最適化する最初のフレームワークであるAutoGraph-R1を紹介する。
我々は2つの新しいタスク対応報酬関数を設計し、1つは知識担体としてのグラフと、もう1つは知識指標としてのグラフを設計する。
私たちの研究は、構築とアプリケーションの間のループを閉じることが可能であることを示している。
論文 参考訳(メタデータ) (2025-10-17T06:03:36Z) - Transfer Learning on Edge Connecting Probability Estimation under Graphon Model [7.805468525082696]
本稿では,グラフ間の構造パターンの整合と伝達を行うため,近傍の平滑化とGromov-Wassersteinの最適輸送を統合した伝達学習フレームワークを提案する。
GTRANSには適応的脱バイアス機構があり、残留な平滑化を通じて標的特異的な偏差を識別し修正する。
これらの改善は、グラフ分類タスクやリンク予測タスクなど、下流アプリケーションの性能向上に直接寄与する。
論文 参考訳(メタデータ) (2025-10-07T02:37:12Z) - GILT: An LLM-Free, Tuning-Free Graph Foundational Model for In-Context Learning [50.40400074353263]
グラフニューラルネットワーク(GNN)は、リレーショナルデータを先行する強力なツールであるが、しばしば目に見えないグラフに一般化するのに苦労する。
textbfGraph textbfIn-context textbfL textbfTransformer (GILT)を導入する。
論文 参考訳(メタデータ) (2025-10-06T08:09:15Z) - Visualization and Analysis of the Loss Landscape in Graph Neural Networks [8.389368477330612]
グラフニューラルネットワーク(GNN)は、グラフ構造化データの強力なモデルであり、幅広い応用がある。
本稿では,GNNの損失景観を可視化する,効率的な学習可能な次元削減手法を提案する。
オーバースムーシング,ジャンプ知識,量子化,スパーシフィケーション,プレコンディショナーGNN最適化の効果を解析する。
論文 参考訳(メタデータ) (2025-09-15T11:22:55Z) - Revisiting Graph Neural Networks on Graph-level Tasks: Comprehensive Experiments, Analysis, and Improvements [54.006506479865344]
グラフレベルグラフニューラルネットワーク(GNN)のための統一評価フレームワークを提案する。
このフレームワークは、さまざまなデータセットにわたるGNNを評価するための標準化された設定を提供する。
また,表現性の向上と一般化機能を備えた新しいGNNモデルを提案する。
論文 参考訳(メタデータ) (2025-01-01T08:48:53Z) - Amplify Graph Learning for Recommendation via Sparsity Completion [16.32861024767423]
グラフ学習モデルは、協調フィルタリング(CF)ベースのレコメンデーションシステムに広くデプロイされている。
データ疎度の問題により、元の入力のグラフ構造は潜在的な肯定的な嗜好エッジを欠いている。
AGL-SC(Amplify Graph Learning framework)を提案する。
論文 参考訳(メタデータ) (2024-06-27T08:26:20Z) - G-Adapter: Towards Structure-Aware Parameter-Efficient Transfer Learning
for Graph Transformer Networks [0.7118812771905295]
特徴分布シフトの問題から,既存のPEFTをグラフベースタスクへ直接転送することが準最適であることを示す。
本稿では,G-Adapter という新しい構造対応PEFT手法を提案する。
大規模な実験により、G-Adapterは9つのグラフベンチマークデータセットと比較すると、最先端のパフォーマンスが得られることが示された。
論文 参考訳(メタデータ) (2023-05-17T16:10:36Z) - GIF: A General Graph Unlearning Strategy via Influence Function [63.52038638220563]
Graph Influence Function (GIF)は、削除されたデータにおける$epsilon$-massの摂動に応答してパラメータの変化を効率的に正確に推定できる、モデルに依存しない未学習の手法である。
我々は,4つの代表的GNNモデルと3つのベンチマークデータセットについて広範な実験を行い,未学習の有効性,モデルの有用性,未学習効率の観点からGIFの優位性を正当化する。
論文 参考訳(メタデータ) (2023-04-06T03:02:54Z) - Adaptive Depth Graph Attention Networks [19.673509341792606]
グラフアテンションネットワーク(GAT)は、グラフ表現のための最も高度な学習アーキテクチャであると考えられている。
層数の増加に伴ってGATモデルの精度が制限される主な要因は,オーバーカッシング現象である。
本稿では,グラフの空間性に基づいた階層数を適応的に選択するGAT変種モデル-ADGATを提案する。
論文 参考訳(メタデータ) (2023-01-16T05:22:29Z) - Self-Supervised Graph Structure Refinement for Graph Neural Networks [31.924317784535155]
グラフ構造学習(GSL)はグラフニューラルネットワーク(GNN)の隣接行列の学習を目的としている
既存のGSLの作業の多くは、推定隣接行列とGNNパラメータを下流タスクに最適化した共同学習フレームワークを適用している。
プレトレイン-ファインチューンパイプラインを用いたグラフ構造改善(GSR)フレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-12T02:01:46Z) - Comprehensive Graph Gradual Pruning for Sparse Training in Graph Neural
Networks [52.566735716983956]
本稿では,CGPと呼ばれるグラフの段階的プルーニングフレームワークを動的にGNNに提案する。
LTHに基づく手法とは異なり、提案手法では再学習を必要とせず、計算コストを大幅に削減する。
提案手法は,既存の手法の精度を一致させたり,あるいは超えたりしながら,トレーニングと推論の効率を大幅に向上させる。
論文 参考訳(メタデータ) (2022-07-18T14:23:31Z) - Affinity-Aware Graph Networks [9.888383815189176]
グラフニューラルネットワーク(GNN)は、リレーショナルデータを学ぶための強力なテクニックとして登場した。
グラフニューラルネットワークの特徴としてアフィニティ尺度の利用について検討する。
本稿では,これらの特徴に基づくメッセージパッシングネットワークを提案し,その性能を様々なノードおよびグラフ特性予測タスクで評価する。
論文 参考訳(メタデータ) (2022-06-23T18:51:35Z) - Towards Unsupervised Deep Graph Structure Learning [67.58720734177325]
本稿では,学習したグラフトポロジを外部ガイダンスなしでデータ自身で最適化する,教師なしグラフ構造学習パラダイムを提案する。
具体的には、元のデータから"アンカーグラフ"として学習目標を生成し、対照的な損失を用いてアンカーグラフと学習グラフとの一致を最大化する。
論文 参考訳(メタデータ) (2022-01-17T11:57:29Z) - Learning to Drop: Robust Graph Neural Network via Topological Denoising [50.81722989898142]
グラフニューラルネットワーク(GNN)のロバスト性および一般化性能を向上させるために,パラメータ化トポロジカルデノイングネットワークであるPTDNetを提案する。
PTDNetは、パラメータ化されたネットワークでスパーシファイドグラフ内のエッジ数をペナル化することで、タスク非関連エッジを創出する。
PTDNetはGNNの性能を著しく向上させ,さらにノイズの多いデータセットでは性能が向上することを示す。
論文 参考訳(メタデータ) (2020-11-13T18:53:21Z) - Robust Optimization as Data Augmentation for Large-scale Graphs [117.2376815614148]
学習中に勾配に基づく逆方向摂動を伴うノード特徴を反復的に拡張するFLAG(Free Large-scale Adversarial Augmentation on Graphs)を提案する。
FLAGはグラフデータに対する汎用的なアプローチであり、ノード分類、リンク予測、グラフ分類タスクで普遍的に機能する。
論文 参考訳(メタデータ) (2020-10-19T21:51:47Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。