論文の概要: Disentangle and Remerge: Interventional Knowledge Distillation for
Few-Shot Object Detection from A Conditional Causal Perspective
- arxiv url: http://arxiv.org/abs/2208.12681v1
- Date: Fri, 26 Aug 2022 14:14:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-29 13:14:33.408084
- Title: Disentangle and Remerge: Interventional Knowledge Distillation for
Few-Shot Object Detection from A Conditional Causal Perspective
- Title(参考訳): ジエンタングルとリマージ : 条件付き因果的視点による数発物体検出のための介入的知識蒸留
- Authors: Jiangmeng Li, Yanan Zhang, Wenwen Qiang, Lingyu Si, Chengbo Jiao,
Xiaohui Hu, Changwen Zheng, Fuchun Sun
- Abstract要約: オブジェクト検出学習モデルは、限られたアノテーションで表現を学習する。
限られた訓練データによって、モデルがセマンティック情報を十分に探索できないという本質的な欠陥に悩まされるオブジェクト検出手法はほとんどない。
そこで本稿では,Distangle と Remerge という,少数ショットオブジェクト検出タスクに対するバックドア調整に基づく知識蒸留手法を提案する。
- 参考スコア(独自算出の注目度): 13.493424553954648
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-shot learning models learn representations with limited human
annotations, and such a learning paradigm demonstrates practicability in
various tasks, e.g., image classification, object detection, etc. However,
few-shot object detection methods suffer from an intrinsic defect that the
limited training data makes the model cannot sufficiently explore semantic
information. To tackle this, we introduce knowledge distillation to the
few-shot object detection learning paradigm. We further run a motivating
experiment, which demonstrates that in the process of knowledge distillation
the empirical error of the teacher model degenerates the prediction performance
of the few-shot object detection model, as the student. To understand the
reasons behind this phenomenon, we revisit the learning paradigm of knowledge
distillation on the few-shot object detection task from the causal theoretic
standpoint, and accordingly, develop a Structural Causal Model. Following the
theoretical guidance, we propose a backdoor adjustment-based knowledge
distillation method for the few-shot object detection task, namely Disentangle
and Remerge (D&R), to perform conditional causal intervention toward the
corresponding Structural Causal Model. Theoretically, we provide an extended
definition, i.e., general backdoor path, for the backdoor criterion, which can
expand the theoretical application boundary of the backdoor criterion in
specific cases. Empirically, the experiments on multiple benchmark datasets
demonstrate that D&R can yield significant performance boosts in few-shot
object detection.
- Abstract(参考訳): このような学習パラダイムは,画像分類やオブジェクト検出など,さまざまなタスクにおける実用性を示すものだ。
しかし、少数ショットオブジェクト検出法は、限られた訓練データによって意味情報を十分に探索できないという本質的な欠陥に悩まされている。
そこで本研究では, 少量の物体検出学習パラダイムに知識蒸留を導入する。
さらに, 知識蒸留の過程では, 教師モデルの経験的誤差が, 生徒として, 極小物体検出モデルの予測性能を低下させることを示すモチベーション実験を行った。
この現象の背景にある理由を理解するために, 因果論的観点から, 少数点物体検出タスクにおける知識蒸留の学習パラダイムを再考し, 構造的因果モデルを構築する。
理論的ガイダンスに従って,本論文では,D&R(Disentangle and Remerge)と呼ばれる少数ショットオブジェクト検出タスクに対するバックドア調整に基づく知識蒸留手法を提案し,対応する構造因果モデルに対する条件付き因果介入を行う。
理論的には、バックドア基準に対する一般的なバックドアパスという定義を拡張し、特定のケースにおいてバックドア基準の理論的適用境界を拡張することができる。
実験的に、複数のベンチマークデータセットの実験は、D&Rが数発のオブジェクト検出において大きなパフォーマンス向上をもたらすことを示した。
関連論文リスト
- Measuring the Impact of Scene Level Objects on Object Detection: Towards
Quantitative Explanations of Detection Decisions [1.6385815610837167]
本稿では,オブジェクト検出モデルのさらなる検証のための新しいブラックボックス説明可能性法を提案する。
テストデータ上のモデルの精度とシーンレベルのオブジェクトの有無を比較することで、モデルの性能に対するこれらのオブジェクトの貢献はより明確になる。
論文 参考訳(メタデータ) (2024-01-19T16:21:55Z) - Innovative Horizons in Aerial Imagery: LSKNet Meets DiffusionDet for
Advanced Object Detection [55.2480439325792]
本稿では,LSKNetのバックボーンをDiffusionDetヘッドに統合したオブジェクト検出モデルの詳細な評価を行う。
提案手法は平均精度(MAP)を約45.7%向上させる。
この進歩は、提案された修正の有効性を強調し、航空画像解析の新しいベンチマークを設定する。
論文 参考訳(メタデータ) (2023-11-21T19:49:13Z) - Open-Vocabulary Video Anomaly Detection [57.552523669351636]
監視の弱いビデオ異常検出(VAD)は、ビデオフレームが正常であるか異常であるかを識別するためにビデオレベルラベルを利用する際、顕著な性能を達成した。
近年の研究は、より現実的な、オープンセットのVADに取り組み、異常や正常なビデオから見えない異常を検出することを目的としている。
本稿ではさらに一歩前進し、未確認および未確認の異常を検知・分類するために訓練済みの大規模モデルを活用することを目的とした、オープン語彙ビデオ異常検出(OVVAD)について検討する。
論文 参考訳(メタデータ) (2023-11-13T02:54:17Z) - Incremental-DETR: Incremental Few-Shot Object Detection via
Self-Supervised Learning [60.64535309016623]
本稿では,DeTRオブジェクト検出器上での微調整および自己教師型学習によるインクリメンタル・デクリメンタル・デクリメンタル・デクリメンタル・オブジェクト検出を提案する。
まず,DeTRのクラス固有のコンポーネントを自己監督で微調整する。
さらに,DeTRのクラス固有のコンポーネントに知識蒸留を施した数発の微調整戦略を導入し,破滅的な忘れを伴わずに新しいクラスを検出するネットワークを奨励する。
論文 参考訳(メタデータ) (2022-05-09T05:08:08Z) - Object-centric and memory-guided normality reconstruction for video
anomaly detection [56.64792194894702]
本稿では,ビデオ監視における異常検出問題に対処する。
異常事象の固有な規則性と不均一性のため、問題は正規性モデリング戦略と見なされる。
我々のモデルは、トレーニング中に異常なサンプルを見ることなく、オブジェクト中心の正規パターンを学習する。
論文 参考訳(メタデータ) (2022-03-07T19:28:39Z) - Anomaly Detection via Reverse Distillation from One-Class Embedding [2.715884199292287]
教師エンコーダと生徒デコーダからなる新しいT-Sモデルを提案する。
生画像を直接受信する代わりに、学生ネットワークは教師モデルの1クラス埋め込みを入力として取り込む。
さらに、T-Sモデルにトレーニング可能な1クラスボトルネック埋め込みモジュールを導入する。
論文 参考訳(メタデータ) (2022-01-26T01:48:37Z) - Incrementally Zero-Shot Detection by an Extreme Value Analyzer [0.0]
本稿では,実世界の物体検出におけるゼロショット学習とクラスインクリメンタル学習の両方のための新しい戦略を提案する。
本稿では,新しい極値解析器を提案し,古い見え方,新しい見え方,見えないクラスからオブジェクトを同時に検出する。
実験では, 対象物の検出におけるモデルの有効性を実証し, Pascal VOCおよびMSCOCOデータセット上での代替モデルよりも優れた性能を示した。
論文 参考訳(メタデータ) (2021-03-23T15:06:30Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Interpreting Rate-Distortion of Variational Autoencoder and Using Model
Uncertainty for Anomaly Detection [5.491655566898372]
表現学習による教師なし異常検出のためのスケーラブルな機械学習システムを構築した。
本稿では,情報理論の観点からVAEを再考し,再構成誤差を用いた理論的基礎を提供する。
ベンチマークデータセットに対するアプローチの競合性能を実証的に示す。
論文 参考訳(メタデータ) (2020-05-05T00:03:48Z) - Plausible Counterfactuals: Auditing Deep Learning Classifiers with
Realistic Adversarial Examples [84.8370546614042]
ディープラーニングモデルのブラックボックスの性質は、彼らがデータから何を学ぶかについて、未回答の疑問を提起している。
GAN(Generative Adversarial Network)とマルチオブジェクトは、監査されたモデルに妥当な攻撃を与えるために使用される。
その実用性は人間の顔の分類タスクの中で示され、提案されたフレームワークの潜在的可能性を明らかにしている。
論文 参考訳(メタデータ) (2020-03-25T11:08:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。