論文の概要: Quantifying and Bridging the Fidelity Gap: A Decisive-Feature Approach to Comparing Synthetic and Real Imagery
- arxiv url: http://arxiv.org/abs/2512.16468v1
- Date: Thu, 18 Dec 2025 12:39:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-19 18:10:32.054475
- Title: Quantifying and Bridging the Fidelity Gap: A Decisive-Feature Approach to Comparing Synthetic and Real Imagery
- Title(参考訳): 忠実ギャップの定量化とブリッジ:合成画像と実画像を比較するための決定的特徴的アプローチ
- Authors: Danial Safaei, Siddartha Khastgir, Mohsen Alirezaei, Jeroen Ploeg, Son Tong, Xingyu Zhao,
- Abstract要約: 決定的特徴忠実度(Decisive Feature Fidelity、DFF)は、メカニズムパリティを捉えるために既存の忠実度スペクトルを拡張する新しいSUT固有の計量である。
シミュレーションの忠実度を高めるためのDFF誘導キャリブレーション手法とともに, 実測に基づく実用的推定手法を提案する。
- 参考スコア(独自算出の注目度): 3.2744757482036797
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Virtual testing using synthetic data has become a cornerstone of autonomous vehicle (AV) safety assurance. Despite progress in improving visual realism through advanced simulators and generative AI, recent studies reveal that pixel-level fidelity alone does not ensure reliable transfer from simulation to the real world. What truly matters is whether the system-under-test (SUT) bases its decisions on the same causal evidence in both real and simulated environments - not just whether images "look real" to humans. This paper addresses the lack of such a behavior-grounded fidelity measure by introducing Decisive Feature Fidelity (DFF), a new SUT-specific metric that extends the existing fidelity spectrum to capture mechanism parity - the agreement in causal evidence underlying the SUT's decisions across domains. DFF leverages explainable-AI (XAI) methods to identify and compare the decisive features driving the SUT's outputs for matched real-synthetic pairs. We further propose practical estimators based on counterfactual explanations, along with a DFF-guided calibration scheme to enhance simulator fidelity. Experiments on 2126 matched KITTI-VirtualKITTI2 pairs demonstrate that DFF reveals discrepancies overlooked by conventional output-value fidelity. Furthermore, results show that DFF-guided calibration improves decisive-feature and input-level fidelity without sacrificing output value fidelity across diverse SUTs.
- Abstract(参考訳): 合成データを用いたバーチャルテストは、自動運転車(AV)の安全性保証の基礎となっている。
近年の研究では、高度なシミュレータと生成AIによる視覚リアリズムの改善が進んでいるが、画素レベルの忠実さだけでは、シミュレーションから実世界への確実な移動が保証されていないことが示されている。
重要なのは、システムアンダーテスト(SUT)が、画像が人間にとって「本物に見える」かどうかだけではなく、実際の環境とシミュレーション環境の両方において、同じ因果的証拠に基づいて決定を下すかどうかです。
本稿では,SUT が決定する領域間における因果的証拠の合意であるメカニズムパリティを捉えるために,既存の忠実度スペクトルを拡張する新しい SUT 固有の尺度である Deisive Feature Fidelity (DFF) を導入することで,そのような行動基底的忠実度尺度の欠如に対処する。
DFFは、実合成ペアに対してSUTの出力を駆動する決定的な特徴を特定し比較するために、説明可能なAI(XAI)手法を利用する。
さらに,シミュレーションの忠実度を高めるためのDFF誘導キャリブレーション手法とともに,実測値に基づく実測値についても提案する。
2126 対の KITTI-Virtual KITTI2 による実験では、DFF が従来の出力値の忠実さによって見過ごされる不一致を明らかにする。
さらに, DFF誘導キャリブレーションにより, 各種SUTにおける出力値の忠実度を犠牲にすることなく, 決定係数および入力レベルの忠実度が向上することを示した。
関連論文リスト
- Open-World Deepfake Attribution via Confidence-Aware Asymmetric Learning [78.92934995292113]
本稿では,既知の偽造と新規な偽造の信頼のバランスをとる,信頼を意識した非対称学習(CAL)フレームワークを提案する。
CALは従来手法を一貫して上回り、既知の偽造と新しい偽造の両方で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-12-14T12:31:28Z) - GuardFed: A Trustworthy Federated Learning Framework Against Dual-Facet Attacks [56.983319121358555]
フェデレートラーニング(FL)は、プライバシ保護のための協調モデルトレーニングを可能にするが、敵の行動に弱いままである。
本稿では,予測精度とグループフェアネスを同時に損なう新たな脅威モデルであるデュアル顔攻撃(DFA)を紹介する。
本稿では,少量のクリーンサーバデータを用いて,公正な参照モデルを維持する自己適応型防衛フレームワークであるGuardFedを提案する。
論文 参考訳(メタデータ) (2025-11-12T13:02:45Z) - Reliable and Reproducible Demographic Inference for Fairness in Face Analysis [63.46525489354455]
本稿では、従来のエンドツーエンドトレーニングをモジュラートランスファー学習アプローチで置き換える、完全に再現可能なDAIパイプラインを提案する。
このパイプラインは、正確性、公正性、そしてアイデンティティ内整合性によって定義される、新たに導入された堅牢性の概念の3つの次元にわたって監査する。
以上の結果から,提案手法は特に民族性において,強い基準線を上回り,その特性はより困難であることが示唆された。
論文 参考訳(メタデータ) (2025-10-23T12:22:02Z) - TransFIRA: Transfer Learning for Face Image Recognizability Assessment [73.61309363885552]
TransFIRAは軽量でアノテーションのないフレームワークで、埋め込みスペースで直接認識できる。
顔以外の新しい拡張には、エンコーダで座屈した説明可能性があり、これは、劣化と被写体固有の要因が認識可能性にどのように影響するかを示す。
実験では、顔に対する最先端の結果、身体認識に対する強い堅牢性、およびデータセット間のシフトの下で確認された。
論文 参考訳(メタデータ) (2025-10-07T18:16:21Z) - Understanding and Improving Training-Free AI-Generated Image Detections with Vision Foundation Models [68.90917438865078]
顔合成と編集のためのディープフェイク技術は、生成モデルに重大なリスクをもたらす。
本稿では,モデルバックボーン,タイプ,データセット間で検出性能がどう変化するかを検討する。
本稿では、顔画像のパフォーマンスを向上させるContrastive Blurと、ノイズタイプのバイアスに対処し、ドメイン間のパフォーマンスのバランスをとるMINDERを紹介する。
論文 参考訳(メタデータ) (2024-11-28T13:04:45Z) - Transforming In-Vehicle Network Intrusion Detection: VAE-based Knowledge Distillation Meets Explainable AI [0.0]
本稿では,変分オートエンコーダ(VAE)に基づく知識蒸留手法を用いて,KD-XVAEと呼ばれる高度な侵入検知システムを提案する。
本モデルでは,1669個のパラメータで処理し,バッチ毎に0.3msの推論時間を実現することにより,複雑性を大幅に低減する。
論文 参考訳(メタデータ) (2024-10-11T17:57:16Z) - X-Fake: Juggling Utility Evaluation and Explanation of Simulated SAR Images [49.546627070454456]
実データと模擬データの分散不整合性は、シミュレーションSAR画像の有用性に影響を与える主な障害である。
本稿では,X-Fake で表されるSAR画像の擬似的な説明を初めて行うことで,信頼性の高い実用性評価フレームワークを提案する。
提案手法は、電磁モデルから得られた4つのシミュレーションSAR画像データセットと、生成人工知能アプローチに基づいて検証される。
論文 参考訳(メタデータ) (2024-07-28T09:27:53Z) - Assessing Quality Metrics for Neural Reality Gap Input Mitigation in Autonomous Driving Testing [2.194575078433007]
自動走行システム(ADS)のシミュレーションベースのテストは業界標準であり、現実世界のテストに対する制御され、安全で費用対効果の高い代替手段である。
これらの利点にもかかわらず、仮想シミュレーションは画像の忠実さ、テクスチャ表現、環境の正確さといった現実世界の状態を正確に再現することができないことが多い。
これは、シミュレートされたドメインと実世界のドメイン間のADSの挙動に大きな違いをもたらす可能性がある。
研究者は、画像から画像へのニューラルトランスレーション(I2I)を使用して、シミュレートされた環境のリアリズムを高め、合成データをより本物にすることで、シミュレートされた環境のリアリズムを高めた。
論文 参考訳(メタデータ) (2024-04-29T10:37:38Z) - Are NeRFs ready for autonomous driving? Towards closing the real-to-simulation gap [6.393953433174051]
本稿では,実際のデータギャップに対処するための新しい視点を提案する。
自律運転環境における実シミュレーションデータギャップの大規模調査を初めて実施する。
シミュレーションデータに対するモデルロバスト性は顕著に向上し,実世界の性能も向上した。
論文 参考訳(メタデータ) (2024-03-24T11:09:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。