論文の概要: Scalable Evaluation of the Realism of Synthetic Environmental Augmentations in Images
- arxiv url: http://arxiv.org/abs/2603.04325v1
- Date: Wed, 04 Mar 2026 17:46:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-05 21:29:15.433474
- Title: Scalable Evaluation of the Realism of Synthetic Environmental Augmentations in Images
- Title(参考訳): 画像における合成環境拡張の現実性に関するスケーラブルな評価
- Authors: Damian J. Ruck, Paul Vautravers, Oliver Chalkley, Jake Thomas,
- Abstract要約: 本稿では,合成画像編集手法の現実性を評価するための枠組みを提案する。
40の明日画像を用いて、ルールベースの拡張ライブラリと生成AI画像編集モデルを比較した。
生成AI手法は、ルールベースのアプローチを大幅に上回り、最良の生成方法は、ルールベースの手法の受け入れ率の約3.6倍に達する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Evaluation of AI systems often requires synthetic test cases, particularly for rare or safety-critical conditions that are difficult to observe in operational data. Generative AI offers a promising approach for producing such data through controllable image editing, but its usefulness depends on whether the resulting images are sufficiently realistic to support meaningful evaluation. We present a scalable framework for assessing the realism of synthetic image-editing methods and apply it to the task of adding environmental conditions-fog, rain, snow, and nighttime-to car-mounted camera images. Using 40 clear-day images, we compare rule-based augmentation libraries with generative AI image-editing models. Realism is evaluated using two complementary automated metrics: a vision-language model (VLM) jury for perceptual realism assessment, and embedding-based distributional analysis to measure similarity to genuine adverse-condition imagery. Generative AI methods substantially outperform rule-based approaches, with the best generative method achieving approximately 3.6 times the acceptance rate of the best rule-based method. Performance varies across conditions: fog proves easiest to simulate, while nighttime transformations remain challenging. Notably, the VLM jury assigns imperfect acceptance even to real adverse-condition imagery, establishing practical ceilings against which synthetic methods can be judged. By this standard, leading generative methods match or exceed real-image performance for most conditions. These results suggest that modern generative image-editing models can enable scalable generation of realistic adverse-condition imagery for evaluation pipelines. Our framework therefore provides a practical approach for scalable realism evaluation, though validation against human studies remains an important direction for future work.
- Abstract(参考訳): AIシステムの評価には、特に運用データで観察が難しい稀な、あるいは安全クリティカルな条件に対して、合成テストケースが必要となることが多い。
生成AIは、制御可能な画像編集を通じてそのようなデータを生成するための有望なアプローチを提供するが、その有用性は、結果のイメージが十分に現実的かどうかによって有意義な評価をサポートする。
本稿では,合成画像編集手法の現実性を評価するためのスケーラブルなフレームワークを提案し,環境条件(霧,雨,雪,夜間)を車載カメラに付加する作業に適用する。
40の明日画像を用いて、ルールベースの拡張ライブラリと生成AI画像編集モデルを比較した。
リアリズムは、視覚言語モデル(VLM)による知覚的リアリズム評価の審査と、真の悪条件画像と類似性を測定するための埋め込み型分布解析の2つの補完的自動メトリクスを用いて評価される。
生成AI手法は、ルールベースのアプローチを大幅に上回り、最良の生成方法は、ルールベースの手法の受け入れ率の約3.6倍に達する。
霧は最もシミュレートしやすく、夜間の変換は困難である。
特に、VLM陪審は、実際の悪条件画像にも不完全な受理を割り当て、合成法を判断できる実用的な天井を確立する。
この基準により、主要な生成法は、ほとんどの条件において実像性能に適合または超える。
これらの結果から,現代の画像編集モデルにより,評価パイプラインにおける現実的悪条件画像のスケーラブルな生成が可能であることが示唆された。
したがって,我々のフレームワークはスケーラブルなリアリズム評価のための実践的なアプローチを提供するが,人間の研究に対する検証は今後の研究にとって重要な方向である。
関連論文リスト
- Beyond Artifacts: Real-Centric Envelope Modeling for Reliable AI-Generated Image Detection [29.26836532055224]
既存の検出器は、しばしば発電機固有のアーティファクトに過度に適合し、現実世界の劣化に敏感である。
実画像のロバストな分布をモデル化する手法として,Real-centric Envelope Modeling (REM)を提案する。
REMは最先端の手法よりも平均7.5%向上し、特に高度に劣化したRealChainベンチマークにおける例外的な一般化を維持している。
論文 参考訳(メタデータ) (2025-12-24T04:41:04Z) - Q-REAL: Towards Realism and Plausibility Evaluation for AI-Generated Content [71.46991494014382]
本稿では,AI生成画像におけるリアリズムと妥当性の詳細な評価のための新しいデータセットであるQ-Realを紹介する。
Q-Realは、人気のあるテキスト・ツー・イメージ・モデルによって生成される3,088のイメージで構成されている。
そこで本研究では,Q-Real Benchを2つの課題,すなわち判断と推論による根拠付けに基づいて評価する。
論文 参考訳(メタデータ) (2025-11-21T02:43:17Z) - ThinkFake: Reasoning in Multimodal Large Language Models for AI-Generated Image Detection [51.93101033997245]
AI生成画像のリアリズムの増大は、誤情報やプライバシー侵害に対する深刻な懸念を引き起こしている。
我々は、AI生成画像検出のための新しい推論に基づく一般化可能なフレームワークThinkFakeを提案する。
我々は、ThinkFakeがGenImageベンチマークで最先端の手法より優れており、挑戦的なLOKIベンチマークで強力なゼロショットの一般化を示すことを示す。
論文 参考訳(メタデータ) (2025-09-24T07:34:09Z) - Image Realness Assessment and Localization with Multimodal Features [3.1415249818332813]
AI生成画像の知覚現実性を定量化する信頼性の高い手法は、実用化と、生成AIのフォトリアリズム向上に不可欠である。
本稿では,AI生成画像の客観的現実性評価と局所的不整合同定を両立させる枠組みを提案する。
論文 参考訳(メタデータ) (2025-09-16T17:42:51Z) - Edge-Enhanced Vision Transformer Framework for Accurate AI-Generated Image Detection [0.0]
本稿では,視覚変換器(ViT)と新たなエッジベース画像処理モジュールを組み合わせたハイブリッド検出フレームワークを提案する。
提案手法は,自動コンテンツ検証とデジタル法医学における実世界の応用に非常に適している。
論文 参考訳(メタデータ) (2025-08-25T10:30:56Z) - Bridging Clear and Adverse Driving Conditions [0.0]
ドメイン適応パイプラインは、透明な天候の画像を霧、雨、雪、夜間の画像に変換する。
我々は、既存のDA GANを活用し、補助的な入力をサポートするように拡張し、シミュレーションと実画像の両方を活用する新しいトレーニングレシピを開発した。
論文 参考訳(メタデータ) (2025-08-19T07:58:05Z) - Understanding and Improving Training-Free AI-Generated Image Detections with Vision Foundation Models [68.90917438865078]
顔合成と編集のためのディープフェイク技術は、生成モデルに重大なリスクをもたらす。
本稿では,モデルバックボーン,タイプ,データセット間で検出性能がどう変化するかを検討する。
本稿では、顔画像のパフォーマンスを向上させるContrastive Blurと、ノイズタイプのバイアスに対処し、ドメイン間のパフォーマンスのバランスをとるMINDERを紹介する。
論文 参考訳(メタデータ) (2024-11-28T13:04:45Z) - X-Fake: Juggling Utility Evaluation and Explanation of Simulated SAR Images [49.546627070454456]
実データと模擬データの分散不整合性は、シミュレーションSAR画像の有用性に影響を与える主な障害である。
本稿では,X-Fake で表されるSAR画像の擬似的な説明を初めて行うことで,信頼性の高い実用性評価フレームワークを提案する。
提案手法は、電磁モデルから得られた4つのシミュレーションSAR画像データセットと、生成人工知能アプローチに基づいて検証される。
論文 参考訳(メタデータ) (2024-07-28T09:27:53Z) - RIGID: A Training-free and Model-Agnostic Framework for Robust AI-Generated Image Detection [60.960988614701414]
RIGIDは、堅牢なAI生成画像検出のためのトレーニング不要でモデルに依存しない方法である。
RIGIDは、既存のトレーニングベースおよびトレーニング不要な検出器を著しく上回っている。
論文 参考訳(メタデータ) (2024-05-30T14:49:54Z) - A comparison of different atmospheric turbulence simulation methods for
image restoration [64.24948495708337]
大気の乱流は、長距離イメージングシステムによって捉えられた画像の品質を悪化させる。
深層学習に基づく大気乱流緩和法が文献で提案されている。
様々な乱流シミュレーション手法が画像復元に与える影響を系統的に評価した。
論文 参考訳(メタデータ) (2022-04-19T16:21:36Z) - Uncertainty-aware Generalized Adaptive CycleGAN [44.34422859532988]
unpaired image-to-image translationは、教師なしの方法で画像ドメイン間のマッピングを学ぶことを指す。
既存の手法はしばしば、外れ値への堅牢性や予測不確実性を明示的にモデル化せずに決定論的マッピングを学習する。
Uncertainty-aware Generalized Adaptive Cycle Consistency (UGAC) という新しい確率論的手法を提案する。
論文 参考訳(メタデータ) (2021-02-23T15:22:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。