論文の概要: InverseNet: Benchmarking Operator Mismatch and Calibration Across Compressive Imaging Modalities
- arxiv url: http://arxiv.org/abs/2603.04538v1
- Date: Wed, 04 Mar 2026 19:25:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-06 22:06:10.94365
- Title: InverseNet: Benchmarking Operator Mismatch and Calibration Across Compressive Imaging Modalities
- Title(参考訳): InverseNet: ベンチマーク演算子ミスマッチと圧縮画像モダリティ間のキャリブレーション
- Authors: Chengshuai Yang, Xin Yuan,
- Abstract要約: 最先端のEfficientSCIは、フォワード演算子がわずか8つのパラメータで物理的現実から逸脱すると20.58dBを失う。
既存のベンチマークでは、デプロイされた圧縮イメージングシステムにおけるデフォルト条件である演算子ミスマッチを定量化していない。
CASSI、CACTI、シングルピクセルカメラにまたがる演算子ミスマッチのための最初のクロスモーダルベンチマークであるInverseNetを紹介する。
- 参考スコア(独自算出の注目度): 8.513179174301722
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: State-of-the-art EfficientSCI loses 20.58 dB when its assumed forward operator deviates from physical reality in just eight parameters, yet no existing benchmark quantifies operator mismatch, the default condition in deployed compressive imaging systems. We introduce InverseNet, the first cross-modality benchmark for operator mismatch, spanning CASSI, CACTI, and single-pixel cameras. Evaluating 12 methods under a four-scenario protocol (ideal, mismatched, oracle-corrected, blind calibration) across 27 simulated scenes and 9 real hardware captures, we find: (1) deep learning methods lose 10-21 dB under mismatch, eliminating their advantage over classical baselines; (2) performance and robustness are inversely correlated across modalities (Spearman r_s = -0.71, p < 0.01); (3) mask-oblivious architectures recover 0% of mismatch losses regardless of calibration quality, while operator-conditioned methods recover 41-90%; (4) blind grid-search calibration recovers 85-100% of the oracle bound without ground truth. Real hardware experiments confirm that simulation trends transfer to physical data. Code will be released upon acceptance.
- Abstract(参考訳): 最先端のEfficientSCIは、仮定されたフォワード演算子が8つのパラメータで物理的現実から逸脱すると20.58dBを失うが、既存のベンチマークでは演算子のミスマッチを定量化していない。
CASSI、CACTI、シングルピクセルカメラにまたがる演算子ミスマッチのための最初のクロスモーダルベンチマークであるInverseNetを紹介する。
1) 深層学習手法は10-21dBのミスマッチをなくし,古典的ベースラインに対する優位性を排除し,(2) 性能とロバスト性はモダリティ(スピアマン r_s = -0.71, p < 0.01); (3) 仮面公開アーキテクチャはキャリブレーションの品質に関わらず0%のミスマッチを回復し, 演算条件付き手法は41-90%, ブラインドグリッドサーチは85-100%を真理なしに回復する。
実際のハードウェア実験では、シミュレーショントレンドが物理データに転送されることが確認されている。
コードは受理時にリリースされる。
関連論文リスト
- DOCFORGE-BENCH: A Comprehensive Benchmark for Document Forgery Detection and Analysis [7.0914801556869]
文書偽造検出のための最初の統一ゼロショットベンチマークであるDOCFORGE-BENCHを提案する。
テキスト改ざん、レシート偽造、ID文書操作にまたがる8つのデータセットにまたがる14の手法を評価する。
私たちの中心的な発見は、シングルスレッドプロトコルでは見えない、広範囲にわたるキャリブレーション障害です。
論文 参考訳(メタデータ) (2026-03-02T04:26:57Z) - Privacy-Aware Split Inference with Speculative Decoding for Large Language Models over Wide-Area Networks [0.0]
本稿では、信頼性のあるローカルGPUとクラウドGPUのトランスフォーマーを分割する、プライバシーに配慮した大規模言語モデル(LLM)の実用的なシステムを提案する。
我々のシステムは、高速広帯域ネットワーク(WAN)上での自己回帰LDM復号化の独特な課題に対処する。
システムは4.9GBのローカルVRAMと7Bのスループットしか持たない大型モデルに一般化される。
論文 参考訳(メタデータ) (2026-02-18T14:13:08Z) - Dimension vs. Precision: A Comparative Analysis of Autoencoders and Quantization for Efficient Vector Retrieval on BEIR SciFact [0.0]
Int8量子化は最も効果的な「スイートスポット」を提供し、nDCG@10の無視可能な[1-2%]ドロップで4倍の圧縮を達成する。
オートエンコーダは優雅な劣化を示すが、同等の4倍圧縮比でより大きな性能損失を被る。
バイナリ量子化は 破滅的な性能低下のため この作業には適さないことが分かりました
論文 参考訳(メタデータ) (2025-11-17T07:02:11Z) - KoALA: KL-L0 Adversarial Detector via Label Agreement [9.360893727306324]
KoALAは、ディープニューラルネットワークのためのセマンティックスフリーの敵検出器である。
2つの相補的類似度指標からクラス予測が一致しない場合に、敵対攻撃を検出する。
KoALA は ResNet/CIFAR-10 の精度 0.94 とリコール 0.81 、CLIP/Tiny-ImageNet の精度 0.66 とリコール 0.85 を達成している。
論文 参考訳(メタデータ) (2025-10-14T17:33:00Z) - Variational Supervised Contrastive Learning [50.79938854370321]
本稿では,教師付きコントラスト学習を潜在クラス変数に対する変分推論として再構成した変分教師付きコントラスト学習(VarCon)を提案する。
VarConは対照的な学習フレームワークの最先端のパフォーマンスを達成し、ImageNet-1Kでは79.36%、CIFAR-100では78.29%、ResNet-50エンコーダでは78.29%に達した。
論文 参考訳(メタデータ) (2025-06-09T04:19:12Z) - Expressive Losses for Verified Robustness via Convex Combinations [67.54357965665676]
本研究では, 過近似係数と異なる表現的損失に対する性能分布の関係について検討した。
表現性が不可欠である一方で、最悪の場合の損失のより良い近似は、必ずしも優れた堅牢性-正確性トレードオフに結びついていないことを示す。
論文 参考訳(メタデータ) (2023-05-23T12:20:29Z) - Bridging Precision and Confidence: A Train-Time Loss for Calibrating
Object Detection [58.789823426981044]
本稿では,境界ボックスのクラス信頼度を予測精度に合わせることを目的とした,新たな補助損失定式化を提案する。
その結果,列車の走行時間損失はキャリブレーション基準を超過し,キャリブレーション誤差を低減させることがわかった。
論文 参考訳(メタデータ) (2023-03-25T08:56:21Z) - (Certified!!) Adversarial Robustness for Free! [116.6052628829344]
逆方向の摂動が0.5の2ノルム以内であることに制約された場合,ImageNetでは71%の精度が証明された。
これらの結果は,モデルパラメータの微調整や再学習を必要とせず,事前学習した拡散モデルと画像分類器のみを用いて得られる。
論文 参考訳(メタデータ) (2022-06-21T17:27:27Z) - Certified Error Control of Candidate Set Pruning for Two-Stage Relevance
Ranking [57.42241521034744]
本稿では、妥当性ランキングのための候補セットプルーニングの認証エラー制御の概念を提案する。
提案手法は,第1段階から抽出した候補集合を抽出し,第2段階の復位速度を向上する。
論文 参考訳(メタデータ) (2022-05-19T16:00:13Z) - Semantic Perturbations with Normalizing Flows for Improved
Generalization [62.998818375912506]
我々は、非教師付きデータ拡張を定義するために、潜在空間における摂動が利用できることを示す。
トレーニングを通して分類器に適応する潜伏性対向性摂動が最も効果的であることが判明した。
論文 参考訳(メタデータ) (2021-08-18T03:20:00Z) - Semi-supervised Contrastive Learning with Similarity Co-calibration [72.38187308270135]
SsCL(Semi-supervised Contrastive Learning)と呼ばれる新しいトレーニング戦略を提案する。
ssclは、自己教師付き学習におけるよく知られたコントラスト損失と、半教師付き学習におけるクロスエントロピー損失を組み合わせる。
SsCLはより差別的な表現を生じさせ,ショット学習に有益であることを示す。
論文 参考訳(メタデータ) (2021-05-16T09:13:56Z) - Robust binary classification with the 01 loss [0.0]
線形01損失と1つの隠蔽層01損失ニューラルネットワークの座標降下アルゴリズムを開発した。
本稿では,線形サポートベクトルマシンとロジスティックロス単一隠蔽層ネットワークとを高速かつ精度良く比較した。
論文 参考訳(メタデータ) (2020-02-09T20:41:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。