論文の概要: Contextual fusion enhances robustness to image blurring
- arxiv url: http://arxiv.org/abs/2406.05120v1
- Date: Fri, 7 Jun 2024 17:50:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-10 13:02:56.870723
- Title: Contextual fusion enhances robustness to image blurring
- Title(参考訳): コンテキスト融合は画像ぼかしの堅牢性を高める
- Authors: Shruti Joshi, Aiswarya Akumalla, Seth Haney, Maxim Bazhenov,
- Abstract要約: 哺乳類の脳は、特定の感覚のモダリティに特化した脳領域に情報を統合することで複雑な推論を処理する。
我々は、ImagenetとPlaces365で訓練されたCNNの背景特徴と前景特徴を組み合わせた融合モデルを開発した。
我々は,MS COCOにおける人間の知覚可能な摂動に対する頑健さを検証した。
- 参考スコア(独自算出の注目度): 3.5953590176048458
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Mammalian brains handle complex reasoning by integrating information across brain regions specialized for particular sensory modalities. This enables improved robustness and generalization versus deep neural networks, which typically process one modality and are vulnerable to perturbations. While defense methods exist, they do not generalize well across perturbations. We developed a fusion model combining background and foreground features from CNNs trained on Imagenet and Places365. We tested its robustness to human-perceivable perturbations on MS COCO. The fusion model improved robustness, especially for classes with greater context variability. Our proposed solution for integrating multiple modalities provides a new approach to enhance robustness and may be complementary to existing methods.
- Abstract(参考訳): 哺乳類の脳は、特定の感覚のモダリティに特化した脳領域に情報を統合することで複雑な推論を処理する。
これにより、1つのモダリティを処理し、摂動に弱いディープニューラルネットワークに対する堅牢性と一般化が改善される。
防御法は存在するが、摂動にまたがってはうまく一般化しない。
我々は、ImagenetとPlaces365で訓練されたCNNの背景特徴と前景特徴を組み合わせた融合モデルを開発した。
我々は,MS COCOにおける人間の知覚可能な摂動に対する頑健さを検証した。
融合モデルによりロバスト性が向上し、特に文脈変数の大きいクラスでは顕著であった。
提案手法はロバスト性を高めるための新しいアプローチであり,既存の手法を補完するものである可能性がある。
関連論文リスト
- Back to Bayesics: Uncovering Human Mobility Distributions and Anomalies with an Integrated Statistical and Neural Framework [14.899157568336731]
DeepBayesicは、ベイズ原理とディープニューラルネットワークを統合し、基盤となる分布をモデル化する新しいフレームワークである。
我々は,いくつかのモビリティデータセットに対するアプローチを評価し,最先端の異常検出手法の大幅な改善を実証した。
論文 参考訳(メタデータ) (2024-10-01T19:02:06Z) - Confidence-aware multi-modality learning for eye disease screening [58.861421804458395]
眼疾患スクリーニングのための新しい多モード顕在核融合パイプラインを提案する。
モダリティごとに信頼度を測り、マルチモダリティ情報をエレガントに統合する。
パブリックデータセットと内部データセットの両方の実験結果は、我々のモデルが堅牢性に優れていることを示している。
論文 参考訳(メタデータ) (2024-05-28T13:27:30Z) - Harnessing The Power of Attention For Patch-Based Biomedical Image Classification [0.0]
本稿では,従来のCNNの代替として,自己認識機構に基づく新しいアーキテクチャを提案する。
可変画像サイズを高解像度に適応させるLancoz5手法を提案する。
提案手法は、誘導バイアス、重み共有、受容場制限、効率的なデータハンドリングなど、注意に基づく視覚モデルが直面する重要な課題に対処する。
論文 参考訳(メタデータ) (2024-04-01T06:22:28Z) - Suppress and Rebalance: Towards Generalized Multi-Modal Face
Anti-Spoofing [26.901402236963374]
Face Anti-Spoofing (FAS) は、顔認証システムのプレゼンテーション攻撃に対する保護に不可欠である。
多くのマルチモーダルなFASアプローチが出現しているが、見当たらない攻撃や展開条件を一般化する上での課題に直面している。
論文 参考訳(メタデータ) (2024-02-29T16:06:36Z) - From Text to Pixels: A Context-Aware Semantic Synergy Solution for
Infrared and Visible Image Fusion [66.33467192279514]
我々は、テキスト記述から高レベルなセマンティクスを活用し、赤外線と可視画像のセマンティクスを統合するテキスト誘導多モード画像融合法を提案する。
本手法は,視覚的に優れた融合結果を生成するだけでなく,既存の手法よりも高い検出mAPを達成し,最先端の結果を得る。
論文 参考訳(メタデータ) (2023-12-31T08:13:47Z) - PAIF: Perception-Aware Infrared-Visible Image Fusion for Attack-Tolerant
Semantic Segmentation [50.556961575275345]
対向シーンにおけるセグメンテーションの堅牢性を促進するための認識認識型融合フレームワークを提案する。
我々は,先進の競争相手に比べて15.3% mIOUの利得で,ロバスト性を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2023-08-08T01:55:44Z) - DDFM: Denoising Diffusion Model for Multi-Modality Image Fusion [144.9653045465908]
拡散確率モデル(DDPM)に基づく新しい融合アルゴリズムを提案する。
近赤外可視画像融合と医用画像融合で有望な融合が得られた。
論文 参考訳(メタデータ) (2023-03-13T04:06:42Z) - CoCoNet: Coupled Contrastive Learning Network with Multi-level Feature
Ensemble for Multi-modality Image Fusion [72.8898811120795]
我々は、赤外線と可視画像の融合を実現するために、CoCoNetと呼ばれるコントラスト学習ネットワークを提案する。
本手法は,主観的評価と客観的評価の両面において,最先端(SOTA)性能を実現する。
論文 参考訳(メタデータ) (2022-11-20T12:02:07Z) - Contextual Fusion For Adversarial Robustness [0.0]
ディープニューラルネットワークは、通常、1つの特定の情報ストリームを処理し、様々な種類の敵の摂動に影響を受けやすいように設計されている。
そこで我々はPlaces-CNNとImagenet-CNNから並列に抽出した背景特徴と前景特徴を組み合わせた融合モデルを開発した。
グラデーションをベースとした攻撃では,フュージョンは乱れのないデータの性能を低下させることなく,分類の大幅な改善を可能にする。
論文 参考訳(メタデータ) (2020-11-18T20:13:23Z) - Encoding Robustness to Image Style via Adversarial Feature Perturbations [72.81911076841408]
我々は、画像画素ではなく特徴統計を直接摂動することで、頑健なモデルを生成することで、敵の訓練に適応する。
提案手法であるAdvBN(Adversarial Batch Normalization)は,トレーニング中に最悪の機能摂動を発生させる単一ネットワーク層である。
論文 参考訳(メタデータ) (2020-09-18T17:52:34Z) - AE-Net: Autonomous Evolution Image Fusion Method Inspired by Human
Cognitive Mechanism [34.57055312296812]
AE-Netで表される自律的な進化能力を持つ頑健で汎用的な画像融合法を提案する。
人間の脳の認知過程をシミュレートする複数の画像融合法の協調最適化により、教師なし学習画像融合タスクを半教師付き画像融合タスクまたは教師付き画像融合タスクに変換することができる。
画像融合法は, 画像融合タスクと画像融合タスクを効果的に統合し, 異なるデータセット間のデータ分布の違いを効果的に克服することができる。
論文 参考訳(メタデータ) (2020-07-17T05:19:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。