論文の概要: Self-Knowledge Distillation for Surgical Phase Recognition
- arxiv url: http://arxiv.org/abs/2306.08961v1
- Date: Thu, 15 Jun 2023 08:55:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-16 15:45:10.586079
- Title: Self-Knowledge Distillation for Surgical Phase Recognition
- Title(参考訳): 外科的位相認識のための自己認識蒸留
- Authors: Jinglu Zhang, Santiago Barbarisi, Abdolrahim Kadkhodamohammadi, Danail
Stoyanov, Imanol Luengo
- Abstract要約: 本稿では,現在最先端(SOTA)モデルに統合可能な自己知識蒸留フレームワークを提案する。
我々のフレームワークは4つの一般的なSOTAアプローチの上に埋め込まれており、そのパフォーマンスを継続的に改善しています。
- 参考スコア(独自算出の注目度): 8.708027525926193
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Purpose: Advances in surgical phase recognition are generally led by training
deeper networks. Rather than going further with a more complex solution, we
believe that current models can be exploited better. We propose a
self-knowledge distillation framework that can be integrated into current
state-of-the-art (SOTA) models without requiring any extra complexity to the
models or annotations.
Methods: Knowledge distillation is a framework for network regularization
where knowledge is distilled from a teacher network to a student network. In
self-knowledge distillation, the student model becomes the teacher such that
the network learns from itself. Most phase recognition models follow an
encoder-decoder framework. Our framework utilizes self-knowledge distillation
in both stages. The teacher model guides the training process of the student
model to extract enhanced feature representations from the encoder and build a
more robust temporal decoder to tackle the over-segmentation problem.
Results: We validate our proposed framework on the public dataset Cholec80.
Our framework is embedded on top of four popular SOTA approaches and
consistently improves their performance. Specifically, our best GRU model
boosts performance by +3.33% accuracy and +3.95% F1-score over the same
baseline model.
Conclusion: We embed a self-knowledge distillation framework for the first
time in the surgical phase recognition training pipeline. Experimental results
demonstrate that our simple yet powerful framework can improve performance of
existing phase recognition models. Moreover, our extensive experiments show
that even with 75% of the training set we still achieve performance on par with
the same baseline model trained on the full set.
- Abstract(参考訳): 目的: 手術相認識の進歩は一般的に深層ネットワークの訓練によって導かれる。
より複雑な解決策を追求するよりも、現在のモデルをよりうまく活用できると信じています。
モデルやアノテーションを余分に複雑にすることなく,現行のsota(state-of-the-art)モデルに統合可能な自己認識蒸留フレームワークを提案する。
方法:知識蒸留(英: knowledge distillation)は、教師ネットワークから生徒ネットワークへ知識を蒸留するネットワーク正規化の枠組みである。
自己認識蒸留では、生徒モデルが教師となり、ネットワークが自分自身から学習する。
ほとんどの位相認識モデルはエンコーダ-デコーダフレームワークに従う。
本フレームワークは, 双方の段階で自己知識蒸留を利用する。
教師モデルは,学習者の学習過程を指導し,エンコーダから拡張された特徴表現を抽出し,より頑健な時間的デコーダを構築し,オーバセグメンテーション問題に取り組む。
結果: 提案フレームワークを公開データセットcholec80上で検証した。
我々のフレームワークは4つの一般的なSOTAアプローチの上に埋め込まれており、そのパフォーマンスを継続的に改善しています。
具体的には、GRUモデルでは、同じベースラインモデルに対して、+3.33%の精度と+3.95%のF1スコアで性能が向上する。
結論: 外科的位相認識訓練パイプラインにおいて, 自己知識蒸留の枠組みを初めて組み込んだ。
実験結果から,既存の位相認識モデルの性能向上が期待できることがわかった。
さらに,トレーニングセットの75%でも,フルセットでトレーニングされた同じベースラインモデルと同等のパフォーマンスを達成できることを示す実験を行った。
関連論文リスト
- Generative Model-based Feature Knowledge Distillation for Action
Recognition [11.31068233536815]
本稿では,軽量学生モデルの学習のための生成モデルを用いた,革新的な知識蒸留フレームワークについて紹介する。
提案手法の有効性は,多種多様な人気データセットに対する総合的な実験によって実証される。
論文 参考訳(メタデータ) (2023-12-14T03:55:29Z) - Learning Lightweight Object Detectors via Multi-Teacher Progressive
Distillation [56.053397775016755]
本稿では,教師検出器の知識を学生に段階的に伝達する,知識蒸留への逐次的アプローチを提案する。
私たちの知識を最大限に活用するために、私たちはTransformerベースの教師検出器から、畳み込みベースの学生まで、初めて知識を抽出しました。
論文 参考訳(メタデータ) (2023-08-17T17:17:08Z) - Retrieval-Enhanced Contrastive Vision-Text Models [61.783728119255365]
そこで本研究では,メモリから取得したクロスモーダルな情報を推論時に表現することで,その埋め込みを洗練できる視覚テキストモデルを提案する。
注目すべきことに、これは凍ったCLIPの上に軽量の単層核融合トランスを用いて行うことができる。
検索強化コントラスト訓練(RECO)がCLIPの性能を大幅に向上することを示す。
論文 参考訳(メタデータ) (2023-06-12T15:52:02Z) - Distilling Knowledge from Self-Supervised Teacher by Embedding Graph
Alignment [52.704331909850026]
我々は、自己指導型事前学習モデルから他の学生ネットワークへ知識を伝達するための新しい知識蒸留フレームワークを定式化した。
自己教師型学習におけるインスタンス識別の精神に触発され,特徴埋め込み空間におけるグラフ定式化によるインスタンスとインスタンスの関係をモデル化する。
蒸留方式は, 学生ネットワーク上での表現学習を促進するために, 自己指導型知識の伝達に柔軟に適用できる。
論文 参考訳(メタデータ) (2022-11-23T19:27:48Z) - Alignahead: Online Cross-Layer Knowledge Extraction on Graph Neural
Networks [6.8080936803807734]
グラフニューラルネットワーク(GNN)上の既存の知識蒸留手法はほとんどオフラインである。
本稿では,この問題を解決するための新しいオンライン知識蒸留フレームワークを提案する。
一方の学生層を別の学生モデルの異なる深さの層に整列させることにより, クロス層蒸留戦略を開発する。
論文 参考訳(メタデータ) (2022-05-05T06:48:13Z) - On the benefits of knowledge distillation for adversarial robustness [53.41196727255314]
知識蒸留は, 対向ロバスト性において, 最先端モデルの性能を高めるために直接的に利用できることを示す。
本稿では,モデルの性能向上のための新しいフレームワークであるAdversarial Knowledge Distillation (AKD)を提案する。
論文 参考訳(メタデータ) (2022-03-14T15:02:13Z) - Learning by Distillation: A Self-Supervised Learning Framework for
Optical Flow Estimation [71.76008290101214]
DistillFlowは光の流れを学ぶための知識蒸留手法である。
KITTIとSintelの両方のデータセット上で、最先端の教師なし学習性能を実現する。
我々のモデルは、KITTI 2015ベンチマークにおけるすべての単分子的手法の中で、第1位にランクされ、Sintel Finalベンチマークで発表されたすべてのメソッドよりも優れています。
論文 参考訳(メタデータ) (2021-06-08T09:13:34Z) - Distill on the Go: Online knowledge distillation in self-supervised
learning [1.1470070927586016]
最近の研究では、より広範でより深いモデルは、小さなモデルよりも自己監督学習の恩恵を受けることが示されている。
単段階オンライン知識蒸留を用いた自己指導型学習パラダイムであるDistill-on-the-Go(DoGo)を提案する。
以上の結果から,ノイズラベルや限定ラベルの存在下でのパフォーマンス向上がみられた。
論文 参考訳(メタデータ) (2021-04-20T09:59:23Z) - Beyond Self-Supervision: A Simple Yet Effective Network Distillation
Alternative to Improve Backbones [40.33419553042038]
既製のトレーニング済み大型モデルからナレッジ蒸留による既存ベースラインネットワークの改善を提案します。
本ソリューションは,教師モデルと整合した学生モデルの予測のみを駆動することにより,蒸留を行う。
例えば、MobileNetV3-large と ResNet50-D の ImageNet-1k 検証セットにおけるトップ-1 の精度は、大幅に向上できる。
論文 参考訳(メタデータ) (2021-03-10T09:32:44Z) - Towards Understanding Ensemble, Knowledge Distillation and
Self-Distillation in Deep Learning [93.18238573921629]
本研究では,学習モデルのアンサンブルがテスト精度を向上させる方法と,アンサンブルの優れた性能を単一モデルに蒸留する方法について検討する。
深層学習におけるアンサンブル/知識蒸留は,従来の学習理論とは大きく異なる。
また, 自己蒸留は, アンサンブルと知識蒸留を暗黙的に組み合わせて, 試験精度を向上させることができることを示した。
論文 参考訳(メタデータ) (2020-12-17T18:34:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。