論文の概要: CAMBench-QR : A Structure-Aware Benchmark for Post-Hoc Explanations with QR Understanding
- arxiv url: http://arxiv.org/abs/2509.16745v1
- Date: Sat, 20 Sep 2025 17:13:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:15.952785
- Title: CAMBench-QR : A Structure-Aware Benchmark for Post-Hoc Explanations with QR Understanding
- Title(参考訳): CAMBench-QR : QR理解を用いたポストホック説明のための構造認識ベンチマーク
- Authors: Ritabrata Chakraborty, Avijit Dasgupta, Sandeep Chaurasia,
- Abstract要約: CAMBench-QRは、視覚的説明のための構造対応のベンチマークである。
QR/非QRデータを正確なマスクと制御された歪みで合成する。
構造対応メトリクス(Finder/MassTiming比、バックグラウンドリーク、カバレッジAUC、距離と構造)を報告します。
- 参考スコア(独自算出の注目度): 0.5542483251398772
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Visual explanations are often plausible but not structurally faithful. We introduce CAMBench-QR, a structure-aware benchmark that leverages the canonical geometry of QR codes (finder patterns, timing lines, module grid) to test whether CAM methods place saliency on requisite substructures while avoiding background. CAMBench-QR synthesizes QR/non-QR data with exact masks and controlled distortions, and reports structure-aware metrics (Finder/Timing Mass Ratios, Background Leakage, coverage AUCs, Distance-to-Structure) alongside causal occlusion, insertion/deletion faithfulness, robustness, and latency. We benchmark representative, efficient CAMs (LayerCAM, EigenGrad-CAM, XGrad-CAM) under two practical regimes of zero-shot and last-block fine-tuning. The benchmark, metrics, and training recipes provide a simple, reproducible yardstick for structure-aware evaluation of visual explanations. Hence we propose that CAMBENCH-QR can be used as a litmus test of whether visual explanations are truly structure-aware.
- Abstract(参考訳): 視覚的説明はしばしば妥当であるが、構造的に忠実ではない。
CAMBench-QRは,QRコード(ファインダーパターン,タイミング線,モジュールグリッド)の標準幾何を利用して,CAM手法が必要サブストラクチャにサリエンシを付与するかどうかを,バックグラウンドを回避しながら検証する,構造認識型ベンチマークである。
CAMBench-QRは、正確なマスクと制御された歪みでQR/非QRデータを合成し、因果オクルージョン、挿入/削除忠実性、堅牢性、レイテンシーとともに、構造対応メトリクス(Finder/Timing Mass Ratios、バックグラウンドリーク、カバレッジAUCs、 Distance-to-Structure)を報告する。
我々は、ゼロショットとラストブロックファインチューニングの2つの実用的な条件下で、効率の良いCAM(LayerCAM, EigenGrad-CAM, XGrad-CAM)をベンチマークする。
ベンチマーク、メトリクス、トレーニングのレシピは、視覚的説明の構造を意識した評価のためのシンプルな再現可能なヤードスティックを提供する。
そこで本研究では,CAMBENCH-QRを視覚的説明が本当に構造認識であるかどうかのリトマステストとして用いることを提案する。
関連論文リスト
- FRAME: Pre-Training Video Feature Representations via Anticipation and Memory [55.046881477209695]
FRAMEは、高密度ビデオ理解に適した自己監督型ビデオフレームエンコーダである。
同社は、過去と現在のRGBフレームから現在と将来のDINOパッチ機能を予測することを学ぶ。
画像エンコーダや既存の自己監督型ビデオモデルよりも一貫して優れています。
論文 参考訳(メタデータ) (2025-06-05T19:44:47Z) - MI-DETR: An Object Detection Model with Multi-time Inquiries Mechanism [67.56918651825056]
並列マルチ時間問い合わせ(MI)機構を備えた新しいデコーダアーキテクチャを提案する。
我々のMIベースモデルであるMI-DETRはCOCOベンチマークで既存のDETRライクなモデルよりも優れています。
診断と可視化の一連の実験は、MIの有効性、合理性、解釈可能性を示している。
論文 参考訳(メタデータ) (2025-03-03T12:19:06Z) - GPTSee: Enhancing Moment Retrieval and Highlight Detection via
Description-Based Similarity Features [1.614471032380076]
モーメント検索(MR)とハイライト検出(HD)は、自然言語クエリからビデオ中の関連モーメントとハイライトを特定することを目的としている。
MR&HDの既存の手法はまだ大きな言語モデルと統合されていない。
本稿では,LLMの出力を第2段変換器エンコーダ・デコーダの入力とする2段階モデルを提案する。
論文 参考訳(メタデータ) (2024-03-03T08:24:28Z) - QR-Tag: Angular Measurement and Tracking with a QR-Design Marker [16.324773870152473]
そこで本研究では,QR-Designパターンを用いた離散角計測と追跡のための新しいスナップショット手法を提案する。
提案する非接触物体追跡フレームワークは,高精度で計算効率が高い。
論文 参考訳(メタデータ) (2023-10-09T19:33:06Z) - Context Perception Parallel Decoder for Scene Text Recognition [52.620841341333524]
シーンテキスト認識手法は高い精度と高速な推論速度を達成するのに苦労している。
本稿では、STRにおけるARデコーディングの実証的研究を行い、ARデコーダが言語文脈をモデル化するだけでなく、視覚的文脈知覚のガイダンスも提供することを明らかにする。
我々は一連のCPPDモデルを構築し、提案したモジュールを既存のSTRデコーダにプラグインする。英語と中国語のベンチマーク実験により、CPPDモデルはARベースモデルよりも約8倍高速に動作し、高い競争精度を達成できることを示した。
論文 参考訳(メタデータ) (2023-07-23T09:04:13Z) - TR-MOT: Multi-Object Tracking by Reference [42.45614650498083]
本稿では、変形可能なトランス構造に基づくより信頼性の高いアソシエーションを提供するための新しい参照探索(RS)モジュールを提案する。
提案手法は,MOT17およびMOT20データセット上での競合結果を実現する。
論文 参考訳(メタデータ) (2022-03-30T19:07:26Z) - REGTR: End-to-end Point Cloud Correspondences with Transformers [79.52112840465558]
我々は、注意機構が明示的な特徴マッチングとRANSACの役割を置き換えることができると推測する。
本稿では,最終文集合を直接予測するエンドツーエンドフレームワークを提案する。
提案手法は3DMatchおよびModelNetベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2022-03-28T06:01:00Z) - F-CAM: Full Resolution CAM via Guided Parametric Upscaling [20.609010268320013]
クラスアクティベーションマッピング(CAM)メソッドは、最近、弱い教師付きオブジェクトローカライゼーション(WSOL)タスクに多くの注目を集めている。
CAMメソッドは通常、ResNet50のような既製のCNNバックボーンに統合される。
完全分解能CAMを高精度に構築できるCAMのパラメトリックアップスケーリング法を提案する。
論文 参考訳(メタデータ) (2021-09-15T04:45:20Z) - Use HiResCAM instead of Grad-CAM for faithful explanations of
convolutional neural networks [89.56292219019163]
説明法は意味のある概念を学習し、素早い相関を悪用しないモデルの開発を容易にする。
一般的なニューラルネットワーク説明法であるGrad-CAMの、未認識の制限について説明する。
本稿では,モデルが各予測に使用する場所のみをハイライトするクラス固有の説明手法であるHiResCAMを提案する。
論文 参考訳(メタデータ) (2020-11-17T19:26:14Z) - End-to-End Object Detection with Transformers [88.06357745922716]
本稿では,オブジェクト検出を直接セット予測問題とみなす新しい手法を提案する。
我々のアプローチは検出パイプラインを合理化し、手作業で設計された多くのコンポーネントの必要性を効果的に除去する。
この新しいフレームワークの主な構成要素は、Detection TRansformerまたはDETRと呼ばれ、セットベースのグローバルな損失である。
論文 参考訳(メタデータ) (2020-05-26T17:06:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。