論文の概要: Hilbert Distillation for Cross-Dimensionality Networks
- arxiv url: http://arxiv.org/abs/2211.04031v1
- Date: Tue, 8 Nov 2022 06:25:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 15:16:45.578512
- Title: Hilbert Distillation for Cross-Dimensionality Networks
- Title(参考訳): クロス次元ネットワークのためのヒルベルト蒸留
- Authors: Dian Qin, Haishuai Wang, Zhe Liu, Hongjia Xu, Sheng Zhou, Jiajun Bu
- Abstract要約: 3D畳み込みニューラルネットワークは、ビデオや医療画像などのデータ処理において、優れたパフォーマンスを示している。
しかし、3Dネットワークを利用した競合性能は計算コストが大きい。
本稿では,2次元ネットワークの性能向上を図るため,ヒルベルト曲線を用いた新しいクロス次元蒸留手法を提案する。
- 参考スコア(独自算出の注目度): 23.700464344728424
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D convolutional neural networks have revealed superior performance in
processing volumetric data such as video and medical imaging. However, the
competitive performance by leveraging 3D networks results in huge computational
costs, which are far beyond that of 2D networks. In this paper, we propose a
novel Hilbert curve-based cross-dimensionality distillation approach that
facilitates the knowledge of 3D networks to improve the performance of 2D
networks. The proposed Hilbert Distillation (HD) method preserves the
structural information via the Hilbert curve, which maps high-dimensional (>=2)
representations to one-dimensional continuous space-filling curves. Since the
distilled 2D networks are supervised by the curves converted from dimensionally
heterogeneous 3D features, the 2D networks are given an informative view in
terms of learning structural information embedded in well-trained
high-dimensional representations. We further propose a Variable-length Hilbert
Distillation (VHD) method to dynamically shorten the walking stride of the
Hilbert curve in activation feature areas and lengthen the stride in context
feature areas, forcing the 2D networks to pay more attention to learning from
activation features. The proposed algorithm outperforms the current
state-of-the-art distillation techniques adapted to cross-dimensionality
distillation on two classification tasks. Moreover, the distilled 2D networks
by the proposed method achieve competitive performance with the original 3D
networks, indicating the lightweight distilled 2D networks could potentially be
the substitution of cumbersome 3D networks in the real-world scenario.
- Abstract(参考訳): 3次元畳み込みニューラルネットワークは、ビデオや医用画像などのボリュームデータを処理するのに優れた性能を示している。
しかし、3Dネットワークを利用した競合性能は、2Dネットワークをはるかに超える膨大な計算コストをもたらす。
本稿では,3次元ネットワークの知識を活かして2次元ネットワークの性能を向上する,ヒルベルト曲線を用いた新しいクロス次元蒸留手法を提案する。
提案したヒルベルト蒸留法は,高次元(>=2)表現を1次元連続空間充填曲線にマッピングするヒルベルト曲線を用いて構造情報を保存する。
蒸留された2Dネットワークは、次元的に不均質な3D特徴から変換された曲線によって制御されるため、よく訓練された高次元表現に埋め込まれた構造情報の学習において、2Dネットワークは情報的視点を与える。
さらに,アクティベーション特徴領域におけるヒルベルト曲線の歩幅を動的に短縮し,コンテキスト特徴領域における歩幅を延長し,アクティベーション特徴領域からの学習により多くの注意を払わせる可変長ヒルベルト蒸留法を提案する。
提案アルゴリズムは,2つの分類課題における多次元蒸留に適応した現状の蒸留技術より優れている。
さらに, 提案手法による蒸留2Dネットワークは, 従来の3Dネットワークと競合する性能を達成し, 軽量蒸留2Dネットワークが現実のシナリオにおける煩雑な3Dネットワークの代替となる可能性が示唆された。
関連論文リスト
- DeCoTR: Enhancing Depth Completion with 2D and 3D Attentions [41.55908366474901]
本研究では,2次元と3次元の両方の注意を生かし,高精度な深度補完を実現する手法を提案する。
提案手法であるDeCoTRを,確立した深度補完ベンチマークで評価した。
論文 参考訳(メタデータ) (2024-03-18T19:22:55Z) - Dynamic 3D Point Cloud Sequences as 2D Videos [81.46246338686478]
3Dポイントクラウドシーケンスは、現実世界の環境における最も一般的で実用的な表現の1つとして機能する。
textitStructured Point Cloud Videos (SPCV) と呼ばれる新しい汎用表現を提案する。
SPCVは点雲列を空間的滑らかさと時間的一貫性を持つ2Dビデオとして再編成し、画素値は点の3D座標に対応する。
論文 参考訳(メタデータ) (2024-03-02T08:18:57Z) - Simultaneous Alignment and Surface Regression Using Hybrid 2D-3D
Networks for 3D Coherent Layer Segmentation of Retinal OCT Images with Full
and Sparse Annotations [32.69359482975795]
本研究は, ハイブリッド2D-3D畳み込みニューラルネットワーク(CNN)を基盤として, OCTボリュームから連続した3次元網膜層表面を得るための新しい枠組みを提案する。
人工的データセットと3つのパブリックな臨床データセットの実験により、我々のフレームワークは、潜在的運動補正のためにBスキャンを効果的に調整できることを示した。
論文 参考訳(メタデータ) (2023-12-04T08:32:31Z) - ALSTER: A Local Spatio-Temporal Expert for Online 3D Semantic
Reconstruction [62.599588577671796]
本稿では,RGB-Dフレームのストリームから3次元セマンティックマップを段階的に再構成するオンライン3次元セマンティックセマンティックセマンティクス手法を提案する。
オフラインの手法とは異なり、ロボット工学や混合現実のようなリアルタイムな制約のあるシナリオに直接適用できます。
論文 参考訳(メタデータ) (2023-11-29T20:30:18Z) - Multi-View Representation is What You Need for Point-Cloud Pre-Training [22.55455166875263]
本稿では,事前学習した2次元ネットワークを利用して3次元表現を学習するポイントクラウド事前学習手法を提案する。
我々は,新しい2次元知識伝達損失の助けを借りて,3次元特徴抽出ネットワークを訓練する。
実験結果から,事前学習したモデルを様々な下流タスクに転送できることが判明した。
論文 参考訳(メタデータ) (2023-06-05T03:14:54Z) - Cylindrical and Asymmetrical 3D Convolution Networks for LiDAR-based
Perception [122.53774221136193]
運転時のLiDARに基づく認識のための最先端の手法は、しばしば点雲を2D空間に投影し、2D畳み込みによって処理する。
自然な対策として、3Dボクセル化と3D畳み込みネットワークを利用する方法がある。
本研究では,3次元幾何学的パターンを探索するために,円筒状分割と非対称な3次元畳み込みネットワークを設計する,屋外LiDARセグメンテーションのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-12T06:25:11Z) - Feature Disentanglement in generating three-dimensional structure from
two-dimensional slice with sliceGAN [35.3148116010546]
スライスGANは,2次元スライス(2次元スライス)の微細構造特性を捉えるために,GAN(Generative Adversarial Network)を用いた新しい手法を提案した。
スライスGANをAdaINと組み合わせて、モデルを機能を切り離し、合成を制御することができるようにします。
論文 参考訳(メタデータ) (2021-05-01T08:29:33Z) - 3D-to-2D Distillation for Indoor Scene Parsing [78.36781565047656]
大規模3次元データリポジトリから抽出した3次元特徴を有効活用し,RGB画像から抽出した2次元特徴を向上する手法を提案する。
まず,事前学習した3Dネットワークから3D知識を抽出して2Dネットワークを監督し,トレーニング中の2D特徴からシミュレーションされた3D特徴を学習する。
次に,2次元の正規化方式を設計し,2次元特徴と3次元特徴のキャリブレーションを行った。
第3に,非ペアの3dデータを用いたトレーニングのフレームワークを拡張するために,意味を意識した対向的トレーニングモデルを設計した。
論文 参考訳(メタデータ) (2021-04-06T02:22:24Z) - Cylindrical and Asymmetrical 3D Convolution Networks for LiDAR
Segmentation [81.02742110604161]
大規模運転シーンのLiDARセグメンテーションのための最先端の手法は、しばしば点雲を2次元空間に投影し、2D畳み込みによって処理する。
そこで我々は,3次元幾何学的パタンを探索するために,円筒分割と非対称な3次元畳み込みネットワークを設計する,屋外LiDARセグメンテーションのための新しいフレームワークを提案する。
提案手法はセマンティックKITTIのリーダーボードにおいて第1位を獲得し,既存のnuScenesの手法を約4%のマージンで上回っている。
論文 参考訳(メタデータ) (2020-11-19T18:53:11Z) - Cylinder3D: An Effective 3D Framework for Driving-scene LiDAR Semantic
Segmentation [87.54570024320354]
大規模運転シーンのLiDARセマンティックセマンティックセグメンテーションのための最先端の手法は、しばしば2D空間の点雲を投影して処理する。
3D-to-2Dプロジェクションの問題に取り組むための簡単な解決策は、3D表現を保ち、3D空間の点を処理することである。
我々は3次元シリンダー分割と3次元シリンダー畳み込みに基づくフレームワークをCylinder3Dとして開発し,3次元トポロジの関係と運転シーンの点雲の構造を利用する。
論文 参考訳(メタデータ) (2020-08-04T13:56:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。