論文の概要: A Dynamic Graph CNN with Cross-Representation Distillation for
Event-Based Recognition
- arxiv url: http://arxiv.org/abs/2302.04177v1
- Date: Wed, 8 Feb 2023 16:35:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-09 15:36:09.759238
- Title: A Dynamic Graph CNN with Cross-Representation Distillation for
Event-Based Recognition
- Title(参考訳): イベントベース認識のためのクロス表現蒸留を用いた動的グラフCNN
- Authors: Yongjian Deng, Hao Chen, Bochen Xie, Hai Liu, Youfu Li
- Abstract要約: イベントからスパースポイントベースの表現を学習するためのイベントベースグラフCNN(EDGCN)を導入する。
我々は,層間における相互表現のギャップを適切に考慮するために,ハイブリッド蒸留損失をカスタマイズしたフレーム・ツー・グラフ変換学習フレームワークを構築した。
- 参考スコア(独自算出の注目度): 21.225945234873745
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It is a popular solution to convert events into dense frame-based
representations to use the well-pretrained CNNs in hand. Although with
appealing performance, this line of work sacrifices the sparsity/temporal
precision of events and usually necessitates heavy-weight models, thereby
largely weakening the advantages and real-life application potential of event
cameras. A more application-friendly way is to design deep graph models for
learning sparse point-based representations from events. Yet, the efficacy of
these graph models is far behind the frame-based counterpart with two key
limitations: ($i$) simple graph construction strategies without carefully
integrating the variant attributes (i.e., semantics, spatial and temporal
coordinates) for each vertex, leading to biased graph representation; ($ii$)
deficient learning because the lack of well pretraining models available. Here
we solve the first problem by introducing a new event-based graph CNN (EDGCN),
with a dynamic aggregation module to integrate all attributes of vertices
adaptively. To alleviate the learning difficulty, we propose to leverage the
dense representation counterpart of events as a cross-representation auxiliary
to supply additional supervision and prior knowledge for the event graph. To
this end, we form a frame-to-graph transfer learning framework with a
customized hybrid distillation loss to well respect the varying
cross-representation gaps across layers. Extensive experiments on multiple
vision tasks validate the effectiveness and high generalization ability of our
proposed model and distillation strategy (Core components of our codes are
submitted with supplementary material and will be made publicly available upon
acceptance)
- Abstract(参考訳): イベントを高密度なフレームベース表現に変換して、十分に制約されたCNNを手元で使用するのが一般的である。
魅力的な性能ではあるものの、この一連の作業はイベントの空間的・時間的精度を犠牲にし、通常重量級モデルを必要とするため、イベントカメラの利点と実際の応用可能性は大きく低下する。
よりアプリケーションフレンドリな方法は、イベントからスパースポイントベースの表現を学ぶためにディープグラフモデルを設計することだ。
しかし、これらのグラフモデルの有効性は、フレームベースのものに比較して2つの重要な制限がある: (i$) 単純なグラフ構築戦略 それぞれの頂点の変種属性(意味論、空間座標、時間座標など)を慎重に統合することなく、バイアスのあるグラフ表現(英語版)につながる。
ここでは,新しいイベントベースグラフcnn(edgcn)と動的アグリゲーションモジュールを導入し,頂点の属性をすべて適応的に統合することで,最初の問題を解決する。
学習の難しさを緩和するために,イベントの濃密表現を相互表現補助として活用し,イベントグラフに対する追加の監督と事前知識を提供する。
そこで我々は, 層間における相互表現のギャップをよく考慮するため, 混合蒸留損失をカスタマイズしたフレーム間転写学習フレームワークを構築した。
複数の視覚課題に関する広範囲な実験により,提案するモデルと蒸留戦略の有効性と高汎化能力が検証された(我々のコードのコアコンポーネントは補足資料で提出され,受理次第公開される)。
関連論文リスト
- A Pure Transformer Pretraining Framework on Text-attributed Graphs [50.833130854272774]
グラフ構造を先行として扱うことで,特徴中心の事前学習の視点を導入する。
我々のフレームワークであるGraph Sequence Pretraining with Transformer (GSPT)はランダムウォークを通してノードコンテキストをサンプリングする。
GSPTはノード分類とリンク予測の両方に容易に適応でき、様々なデータセットで有望な経験的成功を示す。
論文 参考訳(メタデータ) (2024-06-19T22:30:08Z) - Input Snapshots Fusion for Scalable Discrete Dynamic Graph Nerual Networks [27.616083395612595]
入力 bf Snapshots bf Fusion ベースの動的 bf Graph Neural Network (SFDyG) を導入する。
入力ウィンドウ内でスナップショットのパーティショニングを取り除くことで、マルチグラフ(2つのノード間の1つ以上のエッジ)を得る。
スケーラブルな3段階のミニバッチトレーニング手法を提案し、フルバッチトレーニング手法と等価性を実証する。
論文 参考訳(メタデータ) (2024-05-11T10:05:55Z) - SimTeG: A Frustratingly Simple Approach Improves Textual Graph Learning [131.04781590452308]
テキストグラフ学習におけるフラストレーションに富んだアプローチであるSimTeGを提案する。
まず、下流タスクで予め訓練されたLM上で、教師付きパラメータ効率の微調整(PEFT)を行う。
次に、微調整されたLMの最後の隠れ状態を用いてノード埋め込みを生成する。
論文 参考訳(メタデータ) (2023-08-03T07:00:04Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Causal Incremental Graph Convolution for Recommender System Retraining [89.25922726558875]
実世界のレコメンデーションシステムは、新しいデータを維持するために定期的に再トレーニングする必要がある。
本研究では,GCNに基づくレコメンデータモデルを用いて,グラフ畳み込みネットワーク(GCN)を効率的に再学習する方法を検討する。
論文 参考訳(メタデータ) (2021-08-16T04:20:09Z) - TrackMPNN: A Message Passing Graph Neural Architecture for Multi-Object
Tracking [8.791710193028903]
本研究は,グラフに基づくデータ構造を用いて問題をモデル化する多目的追跡(MOT)への多くの従来のアプローチに従う。
複数のタイムステップにまたがるデータ関連問題を表す動的無方向性グラフに基づくフレームワークを作成する。
また、メモリ効率が高く、リアルタイムなオンラインアルゴリズムを作成するために対処する必要がある計算問題に対するソリューションと提案も提供します。
論文 参考訳(メタデータ) (2021-01-11T21:52:25Z) - Sub-graph Contrast for Scalable Self-Supervised Graph Representation
Learning [21.0019144298605]
既存のグラフニューラルネットワークは、計算量やメモリコストが限られているため、完全なグラフデータで供給される。
textscSubg-Conは、中央ノードとそのサンプルサブグラフ間の強い相関を利用して、地域構造情報をキャプチャすることで提案される。
既存のグラフ表現学習アプローチと比較して、textscSubg-Conは、より弱い監視要件、モデル学習のスケーラビリティ、並列化において、顕著なパフォーマンス上のアドバンテージを持っています。
論文 参考訳(メタデータ) (2020-09-22T01:58:19Z) - GCC: Graph Contrastive Coding for Graph Neural Network Pre-Training [62.73470368851127]
グラフ表現学習は現実世界の問題に対処する強力な手法として登場した。
自己教師付きグラフニューラルネットワーク事前トレーニングフレームワークであるGraph Contrastive Codingを設計する。
3つのグラフ学習タスクと10のグラフデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-06-17T16:18:35Z) - Graph Ordering: Towards the Optimal by Learning [69.72656588714155]
グラフ表現学習は、ノード分類、予測、コミュニティ検出など、多くのグラフベースのアプリケーションで顕著な成功を収めている。
しかし,グラフ圧縮やエッジ分割などのグラフアプリケーションでは,グラフ表現学習タスクに還元することは極めて困難である。
本稿では,このようなアプリケーションの背後にあるグラフ順序付け問題に対して,新しい学習手法を用いて対処することを提案する。
論文 参考訳(メタデータ) (2020-01-18T09:14:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。