論文の概要: HERS: Hidden-Pattern Expert Learning for Risk-Specific Vehicle Damage Adaptation in Diffusion Models
- arxiv url: http://arxiv.org/abs/2601.21517v1
- Date: Thu, 29 Jan 2026 10:30:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:49.736344
- Title: HERS: Hidden-Pattern Expert Learning for Risk-Specific Vehicle Damage Adaptation in Diffusion Models
- Title(参考訳): HERS:拡散モデルにおけるリスク特化車両損傷適応のための隠れたパタンエキスパート学習
- Authors: Teerapong Panboonyuen,
- Abstract要約: テキスト・トゥ・イメージ(T2I)拡散モデルの最近の進歩により、車両の損傷の現実的な合成が可能になった。
クラッシュのような画像を生成する能力は、真のデータと合成データの境界に挑戦する。
本研究では,拡散損傷画像の忠実度,可制御性,ドメインアライメントを改善するためのフレームワークHERSを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Recent advances in text-to-image (T2I) diffusion models have enabled increasingly realistic synthesis of vehicle damage, raising concerns about their reliability in automated insurance workflows. The ability to generate crash-like imagery challenges the boundary between authentic and synthetic data, introducing new risks of misuse in fraud or claim manipulation. To address these issues, we propose HERS (Hidden-Pattern Expert Learning for Risk-Specific Damage Adaptation), a framework designed to improve fidelity, controllability, and domain alignment of diffusion-generated damage images. HERS fine-tunes a base diffusion model via domain-specific expert adaptation without requiring manual annotation. Using self-supervised image-text pairs automatically generated by a large language model and T2I pipeline, HERS models each damage category, such as dents, scratches, broken lights, or cracked paint, as a separate expert. These experts are later integrated into a unified multi-damage model that balances specialization with generalization. We evaluate HERS across four diffusion backbones and observe consistent improvements: plus 5.5 percent in text faithfulness and plus 2.3 percent in human preference ratings compared to baselines. Beyond image fidelity, we discuss implications for fraud detection, auditability, and safe deployment of generative models in high-stakes domains. Our findings highlight both the opportunities and risks of domain-specific diffusion, underscoring the importance of trustworthy generation in safety-critical applications such as auto insurance.
- Abstract(参考訳): テキスト・ツー・イメージ(T2I)拡散モデルの最近の進歩により、車両の損傷の現実的な合成が可能となり、自動保険ワークフローにおける信頼性への懸念が高まっている。
クラッシュのような画像を生成する能力は、真正データと合成データの境界に挑戦し、不正やクレーム操作における新たな誤用のリスクをもたらす。
これらの課題に対処するため,拡散損傷画像の忠実度,可制御性,ドメインアライメントの向上を目的としたHERS(Hidden-Pattern Expert Learning for Risk-Specific damage Adaptation)を提案する。
HERSは、手動のアノテーションを必要とせずに、ドメイン固有の専門家適応を通じてベース拡散モデルを微調整する。
HERSは、大規模な言語モデルとT2Iパイプラインによって自動生成される自己教師付き画像テキストペアを使用して、デント、スクラッチ、壊れた光、割れた塗料など、各損傷カテゴリを別の専門家としてモデル化する。
これらの専門家は後に、特殊化と一般化のバランスをとる統一された多ダメージモデルに統合される。
我々は,4つの拡散バックボーンにまたがってHERSを評価し,一貫した改善を観察した。
画像の忠実性以外にも、不正検出、監査可能性、高精細領域における生成モデルの安全な配置などについて論じる。
本研究は, 自動車保険等の安全上重要なアプリケーションにおいて, 信頼性の高い生成が重要であることを強調し, ドメイン固有の拡散の機会とリスクの両方を浮き彫りにした。
関連論文リスト
- A Dual-Branch CNN for Robust Detection of AI-Generated Facial Forgeries [4.313893060699182]
顔偽造技術は、AIセキュリティ、デジタルメディアの完全性、および公的な信頼に重大な脅威をもたらす。
顔偽造検出のための新しい二分岐畳み込みニューラルネットワークを提案する。
4つの代表法から生成された鍛造画像を含むDiFFベンチマークを用いて,本モデルの評価を行った。
論文 参考訳(メタデータ) (2025-10-28T17:06:40Z) - Image Can Bring Your Memory Back: A Novel Multi-Modal Guided Attack against Image Generation Model Unlearning [28.15997901023315]
Recallは、未学習のIMGの堅牢性を損なうために設計された、新しい敵のフレームワークである。
逆効果、計算効率、意味的忠実性の点で、元のプロンプトで既存のベースラインを一貫して上回ります。
これらの結果は、現在の未学習メカニズムにおける重大な脆弱性を明らかにし、より堅牢なソリューションの必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2025-07-09T02:59:01Z) - GenBreak: Red Teaming Text-to-Image Generators Using Large Language Models [65.91565607573786]
テキスト・ツー・イメージ(T2I)モデルは、ヌードや暴力を含む有害なコンテンツを生成するために誤用することができる。
近年のT2Iモデルに対する赤チーム攻撃と敵攻撃は、顕著な制限がある。
我々は、基盤となる脆弱性を体系的に調査するために、レッドチーム大言語モデル(LLM)を微調整するフレームワークであるGenBreakを提案する。
論文 参考訳(メタデータ) (2025-06-11T09:09:12Z) - T2VShield: Model-Agnostic Jailbreak Defense for Text-to-Video Models [88.63040835652902]
テキストからビデオモデルへの攻撃はジェイルブレイク攻撃に弱いため、特別な方法で安全メカニズムをバイパスし、有害または安全でないコンテンツの生成につながる。
我々は、ジェイルブレイクの脅威からテキストからビデオモデルを守るために設計された包括的でモデルに依存しない防衛フレームワークであるT2VShieldを提案する。
本手法は,既存の防御の限界を特定するために,入力,モデル,出力の段階を体系的に解析する。
論文 参考訳(メタデータ) (2025-04-22T01:18:42Z) - Detect-and-Guide: Self-regulation of Diffusion Models for Safe Text-to-Image Generation via Guideline Token Optimization [22.225141381422873]
有害なコンテンツを生成するテキストと画像の拡散モデルに対する懸念が高まっている。
概念アンラーニングや安全ガイダンスのようなポストホックモデルの介入技術は、これらのリスクを軽減するために開発されている。
本稿では,自己診断と詳細な自己制御を行うための安全生成フレームワークであるDector-and-Guide(DAG)を提案する。
DAGは最先端の安全な生成性能を実現し、有害性軽減とテキスト追跡性能を現実のプロンプトでバランスさせる。
論文 参考訳(メタデータ) (2025-03-19T13:37:52Z) - PromptLA: Towards Integrity Verification of Black-box Text-to-Image Diffusion Models [17.12906933388337]
悪意のあるアクターは、不正なコンテンツを生成するためにT2I拡散モデルを微調整することができる。
本稿では,学習オートマトン(PromptLA)に基づく新しいプロンプト選択アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-12-20T07:24:32Z) - On the Fairness, Diversity and Reliability of Text-to-Image Generative Models [68.62012304574012]
マルチモーダル生成モデルは 信頼性 公正性 誤用の可能性について 批判的な議論を巻き起こしました
埋め込み空間におけるグローバルおよびローカルな摂動に対する応答を解析し、モデルの信頼性を評価するための評価フレームワークを提案する。
提案手法は, 信頼できない, バイアス注入されたモデルを検出し, 組込みバイアスの証明をトレースするための基礎となる。
論文 参考訳(メタデータ) (2024-11-21T09:46:55Z) - StealthDiffusion: Towards Evading Diffusion Forensic Detection through Diffusion Model [62.25424831998405]
StealthDiffusionは、AI生成した画像を高品質で受け入れがたい敵の例に修正するフレームワークである。
ホワイトボックスとブラックボックスの設定の両方で有効であり、AI生成した画像を高品質な敵の偽造に変換する。
論文 参考訳(メタデータ) (2024-08-11T01:22:29Z) - Watch the Watcher! Backdoor Attacks on Security-Enhancing Diffusion Models [65.30406788716104]
本研究では,セキュリティ強化拡散モデルの脆弱性について検討する。
これらのモデルは、シンプルで効果的なバックドア攻撃であるDIFF2に非常に感受性があることを実証する。
ケーススタディでは、DIFF2は、ベンチマークデータセットとモデル間で、パーフィケーション後の精度と認定精度の両方を著しく削減できることを示している。
論文 参考訳(メタデータ) (2024-06-14T02:39:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。