論文の概要: Just Noticeable Difference Modeling for Deep Visual Features
- arxiv url: http://arxiv.org/abs/2601.21933v1
- Date: Thu, 29 Jan 2026 16:22:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:49.985126
- Title: Just Noticeable Difference Modeling for Deep Visual Features
- Title(参考訳): 深部視覚機能のための注目すべき差分モデリング
- Authors: Rui Zhao, Wenrui Li, Lin Zhu, Yajing Zheng, Weisi Lin,
- Abstract要約: Just noticeable difference (JND) は、人間や機械の視覚下での画像に対する最大の知覚不可能な歪みを特徴付ける。
本稿では,FatJNDの最大摂動分布を予測できるタスク整列型JNDの定式化を提案する。
FeatJND誘導のステップサイズ割り当ては、同じノイズ予算の下で、ランダムなステップサイズ置換とグローバルな均一なステップサイズよりも明確なゲインが得られることを示す。
- 参考スコア(独自算出の注目度): 59.93185561462793
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep visual features are increasingly used as the interface in vision systems, motivating the need to describe feature characteristics and control feature quality for machine perception. Just noticeable difference (JND) characterizes the maximum imperceptible distortion for images under human or machine vision. Extending it to deep visual features naturally meets the above demand by providing a task-aligned tolerance boundary in feature space, offering a practical reference for controlling feature quality under constrained resources. We propose FeatJND, a task-aligned JND formulation that predicts the maximum tolerable per-feature perturbation map while preserving downstream task performance. We propose a FeatJND estimator at standardized split points and validate it across image classification, detection, and instance segmentation. Under matched distortion strength, FeatJND-based distortions consistently preserve higher task performance than unstructured Gaussian perturbations, and attribution visualizations suggest FeatJND can suppress non-critical feature regions. As an application, we further apply FeatJND to token-wise dynamic quantization and show that FeatJND-guided step-size allocation yields clear gains over random step-size permutation and global uniform step size under the same noise budget. Our code will be released after publication.
- Abstract(参考訳): 深い視覚的特徴は視覚システムにおけるインタフェースとしてますます利用され、特徴の特徴と機械認識のための特徴品質を記述する必要が生じる。
Just noticeable difference (JND) は、人間や機械の視覚下での画像に対する最大の知覚不可能な歪みを特徴付ける。
深い視覚的特徴に拡張することは、機能空間にタスク整合性境界を提供することによって、上記の要求を自然に満たし、制約されたリソースの下で機能品質を制御するための実践的な参照を提供する。
本稿では、下流タスク性能を保ちながら、最大許容許容機能毎の摂動マップを予測するタスク整列型JNDであるFeatJNDを提案する。
標準化された分割点におけるFeatJND推定器を提案する。
FeatJNDをベースとした歪みは非構造ガウス摂動よりも高いタスク性能を保ち、帰属視覚化によりFeatJNDは非臨界特徴領域を抑制できることが示された。
さらに,FeatJNDをトークン単位の動的量子化に適用することにより,FeatJNDを誘導したステップサイズ割り当てが,同じノイズ予算の下でのランダムなステップサイズ置換とグローバルな均一なステップサイズよりも明確なゲインが得られることを示す。
私たちのコードは出版後公開されます。
関連論文リスト
- Towards Robust DeepFake Detection under Unstable Face Sequences: Adaptive Sparse Graph Embedding with Order-Free Representation and Explicit Laplacian Spectral Prior [12.202765237400143]
本稿では,Laplacian-Regularized Graph Convolutional Network (LR-GCN)を提案する。
LR-GCNは、高度のグローバル・ローカル・ディスラプションの下で、最先端の性能とロバスト性を大幅に向上する。
論文 参考訳(メタデータ) (2025-12-08T12:31:07Z) - Saccadic Vision for Fine-Grained Visual Classification [10.681604440788854]
きめ細かい視覚分類(FGVC)は、微妙で局所的な特徴によって視覚的に類似したカテゴリーを区別する必要がある。
既存のパートベースの手法は、ピクセルからサンプル空間へのマッピングを学習する複雑なローカライゼーションネットワークに依存している。
本稿では,まず周辺特徴を抽出し,サンプルマップを生成する2段階プロセスを提案する。
我々は、周辺と焦点の表現を融合する前に、各固定パッチの影響を定量的に評価するために、文脈選択的注意を用いる。
論文 参考訳(メタデータ) (2025-09-19T07:03:37Z) - JAFAR: Jack up Any Feature at Any Resolution [53.343826346140624]
JAFARは、Foundation Visionsの軽量で柔軟な機能アップサンプラーである。
これは、どんなファンデーションビジョンから任意の目標解像度まで、視覚的特徴の空間分解能を高める。
非常に高い出力スケールに非常によく一般化する。
論文 参考訳(メタデータ) (2025-06-10T20:53:12Z) - SG-JND: Semantic-Guided Just Noticeable Distortion Predictor For Image Compression [50.2496399381438]
JND(Just noticeable distortion)は、人間の視覚系に最小限の知覚力を持つ画像における歪みのしきい値を表す。
従来のJND予測手法はピクセルレベルまたはサブバンドレベルの機能のみに依存している。
本稿では,意味情報を利用してJND予測を行うセマンティックガイド型JNDネットワークを提案する。
論文 参考訳(メタデータ) (2024-08-08T07:14:57Z) - Feature Attenuation of Defective Representation Can Resolve Incomplete Masking on Anomaly Detection [1.0358639819750703]
教師なし異常検出(UAD)研究では、計算効率が高くスケーラブルなソリューションを開発する必要がある。
再建・塗り替えのアプローチを再考し、強みと弱みを分析して改善する。
異常再構成の特徴情報を減衰させる2つの層のみを用いるFADeR(Feature Attenuation of Defective Representation)を提案する。
論文 参考訳(メタデータ) (2024-07-05T15:44:53Z) - Boosting Visual Recognition in Real-world Degradations via Unsupervised Feature Enhancement Module with Deep Channel Prior [22.323789227447755]
霧、低照度、動きのぼかしは画像の品質を低下させ、自動運転の安全性を脅かす。
本研究は、劣化した視覚認識のための新しいDeep Channel Prior (DCP)を提案する。
これに基づいて、教師なし特徴補正を実現するために、新しいプラグアンドプレイunsupervised Feature Enhancement Module (UFEM)を提案する。
論文 参考訳(メタデータ) (2024-04-02T07:16:56Z) - Towards Top-Down Just Noticeable Difference Estimation of Natural Images [65.14746063298415]
JNDの推定は、主に空間領域と周波数領域における異なる要因の可視性マスキング効果をモデル化することに焦点を当てている。
この作業では、トップダウンの設計哲学でこれらの問題に対処する、劇的に異なる方法に目を向けます。
提案したJNDモデルは,最新のJNDモデルよりも優れた性能を実現することができる。
論文 参考訳(メタデータ) (2021-08-11T06:51:50Z) - Fine-Grained Dynamic Head for Object Detection [68.70628757217939]
本稿では,各インスタンスの異なるスケールからfpn特徴の画素レベルの組み合わせを条件付きで選択する,きめ細かい動的ヘッドを提案する。
実験は,いくつかの最先端検出ベンチマークにおける提案手法の有効性と有効性を示す。
論文 参考訳(メタデータ) (2020-12-07T08:16:32Z) - Generative Hierarchical Features from Synthesizing Images [65.66756821069124]
画像合成の学習は、広範囲のアプリケーションにまたがって一般化可能な顕著な階層的な視覚的特徴をもたらす可能性があることを示す。
生成的階層的特徴(Generative Hierarchical Feature, GH-Feat)と呼ばれるエンコーダが生成する視覚的特徴は、生成的タスクと識別的タスクの両方に強い伝達性を有する。
論文 参考訳(メタデータ) (2020-07-20T18:04:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。