論文の概要: Attention Fusion Reverse Distillation for Multi-Lighting Image Anomaly Detection
- arxiv url: http://arxiv.org/abs/2406.04573v1
- Date: Fri, 7 Jun 2024 01:26:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-10 15:48:53.527535
- Title: Attention Fusion Reverse Distillation for Multi-Lighting Image Anomaly Detection
- Title(参考訳): マルチライト画像異常検出のための注意融合逆蒸留法
- Authors: Yiheng Zhang, Yunkang Cao, Tianhang Zhang, Weiming Shen,
- Abstract要約: 本研究は,MLIADにおける複数入力を処理するための注意融合逆蒸留法を提案する。
Eyecandiesの実験は、AFRDが他のMLIAD代替品よりも優れたMLIAD性能を達成することを示した。
- 参考スコア(独自算出の注目度): 4.677326790094539
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This study targets Multi-Lighting Image Anomaly Detection (MLIAD), where multiple lighting conditions are utilized to enhance imaging quality and anomaly detection performance. While numerous image anomaly detection methods have been proposed, they lack the capacity to handle multiple inputs for a single sample, like multi-lighting images in MLIAD. Hence, this study proposes Attention Fusion Reverse Distillation (AFRD) to handle multiple inputs in MLIAD. For this purpose, AFRD utilizes a pre-trained teacher network to extract features from multiple inputs. Then these features are aggregated into fused features through an attention module. Subsequently, a corresponding student net-work is utilized to regress the attention fused features. The regression errors are denoted as anomaly scores during inference. Experiments on Eyecandies demonstrates that AFRD achieves superior MLIAD performance than other MLIAD alternatives, also highlighting the benefit of using multiple lighting conditions for anomaly detection.
- Abstract(参考訳): 本研究では,複数照明条件を用いて画像品質と異常検出性能を向上させるマルチライティング画像異常検出(MLIAD)を目標とする。
多数の画像異常検出手法が提案されているが、MLIADのマルチライト画像のような単一のサンプルに対して複数の入力を処理する能力は欠如している。
そこで本研究では,MLIADにおける複数入力を処理するために,AFRD(Atention Fusion Reverse Distillation)を提案する。
この目的のために、AFRDは事前訓練された教師ネットワークを使用して、複数の入力から特徴を抽出する。
その後、これらの機能はアテンションモジュールを通じて融合した機能に集約される。
その後、対応する学生ネットワークを使用して、注目融合特徴を抑圧する。
回帰誤差は、推論中に異常スコアとして表される。
Eyecandiesの実験は、AFRDが他のMLIAD代替品よりも優れたMLIAD性能を達成していることを示し、また、異常検出に複数の照明条件を使用することの利点を強調している。
関連論文リスト
- Beyond Night Visibility: Adaptive Multi-Scale Fusion of Infrared and
Visible Images [49.75771095302775]
赤外線および可視画像を用いた適応型マルチスケール核融合ネットワーク(AMFusion)を提案する。
まず、赤外画像と可視画像から空間的特徴と意味的特徴を分離し、前者が光分布の調整に使用される。
第2に,事前学習したバックボーンから抽出した検出機能を利用して,意味的特徴の融合を誘導する。
第3に、通常の光強度で融合画像を制約する新しい照明損失を提案する。
論文 参考訳(メタデータ) (2024-03-02T03:52:07Z) - DiAD: A Diffusion-based Framework for Multi-class Anomaly Detection [55.48770333927732]
本稿では,拡散型異常検出(Difusion-based Anomaly Detection, DAD)フレームワークを提案する。
画素空間オートエンコーダ、安定拡散の復調ネットワークに接続する潜在空間セマンティックガイド(SG)ネットワーク、特徴空間事前学習機能抽出器から構成される。
MVTec-ADとVisAデータセットの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-12-11T18:38:28Z) - Multimodal Transformer Using Cross-Channel attention for Object Detection in Remote Sensing Images [1.662438436885552]
マルチモーダル融合は、複数のモーダルからのデータを融合することで精度を高めることが決定されている。
早期に異なるチャネル間の関係をマッピングするための新しいマルチモーダル融合戦略を提案する。
本手法は,中期・後期の手法とは対照的に,早期の融合に対処することにより,既存の手法と比較して,競争力や性能に優れる。
論文 参考訳(メタデータ) (2023-10-21T00:56:11Z) - Registration-Free Hybrid Learning Empowers Simple Multimodal Imaging
System for High-quality Fusion Detection [1.9249287163937976]
本稿では,CNN-Transformerハイブリッド学習フレームワークであるIA-VFDnetを提案する。
AKMとDWDAFは相乗効果を利用して、高品質な赤外線可視核融合検出を行う。
M3FDデータセットの実験により,提案手法の優位性を検証した。
論文 参考訳(メタデータ) (2023-07-07T07:11:37Z) - An Interactively Reinforced Paradigm for Joint Infrared-Visible Image
Fusion and Saliency Object Detection [59.02821429555375]
この研究は、野生の隠れた物体の発見と位置決めに焦点をあて、無人のシステムに役立てる。
経験的分析により、赤外線と可視画像融合(IVIF)は、難しい物体の発見を可能にする。
マルチモーダル・サリエント・オブジェクト検出(SOD)は、画像内の物体の正確な空間的位置を正確に記述する。
論文 参考訳(メタデータ) (2023-05-17T06:48:35Z) - Multimodal Industrial Anomaly Detection via Hybrid Fusion [59.16333340582885]
ハイブリッド核融合方式を用いた新しいマルチモーダル異常検出法を提案する。
本モデルでは,MVTecD-3 ADデータセットにおける検出精度とセグメンテーション精度の両面で,最先端(SOTA)手法より優れている。
論文 参考訳(メタデータ) (2023-03-01T15:48:27Z) - ReDFeat: Recoupling Detection and Description for Multimodal Feature
Learning [51.07496081296863]
我々は、相互重み付け戦略による多モーダル特徴学習の検出と記述の独立した制約を再定義する。
本研究では,大きな受容場を有し,学習可能な非最大抑制層を備える検出器を提案する。
我々は,特徴マッチングと画像登録タスクにおける特徴量を評価するために,クロス可視,赤外線,近赤外,合成開口レーダ画像ペアを含むベンチマークを構築した。
論文 参考訳(メタデータ) (2022-05-16T04:24:22Z) - Target-aware Dual Adversarial Learning and a Multi-scenario
Multi-Modality Benchmark to Fuse Infrared and Visible for Object Detection [65.30079184700755]
本研究は、物体検出のために異なるように見える赤外線と可視画像の融合の問題に対処する。
従来のアプローチでは、2つのモダリティの根底にある共通点を発見し、反復最適化またはディープネットワークによって共通空間に融合する。
本稿では、融合と検出の連立問題に対する二段階最適化の定式化を提案し、その後、核融合と一般的に使用される検出ネットワークのためのターゲット認識デュアル逆学習(TarDAL)ネットワークに展開する。
論文 参考訳(メタデータ) (2022-03-30T11:44:56Z) - Multi-Perspective Anomaly Detection [3.3511723893430476]
我々は,ディープサポートベクトルデータ記述アルゴリズムを構築し,マルチパースペクティブな異常検出に対処する。
我々は、少ない一級データを扱うために、デノナイジングプロセスで異なる拡張手法を採用する。
2つの異なる視点からの画像を用いて新しいダイスデータセットのアプローチを評価し、標準MNISTデータセットのベンチマークを行った。
論文 参考訳(メタデータ) (2021-05-20T17:07:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。