論文の概要: FailureAtlas:Mapping the Failure Landscape of T2I Models via Active Exploration
- arxiv url: http://arxiv.org/abs/2509.21995v1
- Date: Fri, 26 Sep 2025 07:23:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:54.269051
- Title: FailureAtlas:Mapping the Failure Landscape of T2I Models via Active Exploration
- Title(参考訳): フェールアトラス:アクティブ探索によるT2Iモデルの失敗景観のマッピング
- Authors: Muxi Chen, Zhaohua Zhang, Chenchen Zhao, Mingyang Chen, Wenyu Jiang, Tianwen Jiang, Jianhuan Zhuo, Yu Tang, Qiuyong Xiao, Jihong Zhang, Qiang Xu,
- Abstract要約: FailureAtlasは、T2Iモデルの大規模な障害状況を自律的に探索し、マッピングするように設計されたフレームワークである。
我々の手法は、これまで未知のエラースライスを数十万も発見する。
FailureAtlasは、より堅牢な生成AIの開発をガイドする、診断優先の新しい方法論を確立している。
- 参考スコア(独自算出の注目度): 19.94546289169861
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Static benchmarks have provided a valuable foundation for comparing Text-to-Image (T2I) models. However, their passive design offers limited diagnostic power, struggling to uncover the full landscape of systematic failures or isolate their root causes. We argue for a complementary paradigm: active exploration. We introduce FailureAtlas, the first framework designed to autonomously explore and map the vast failure landscape of T2I models at scale. FailureAtlas frames error discovery as a structured search for minimal, failure-inducing concepts. While it is a computationally explosive problem, we make it tractable with novel acceleration techniques. When applied to Stable Diffusion models, our method uncovers hundreds of thousands of previously unknown error slices (over 247,000 in SD1.5 alone) and provides the first large-scale evidence linking these failures to data scarcity in the training set. By providing a principled and scalable engine for deep model auditing, FailureAtlas establishes a new, diagnostic-first methodology to guide the development of more robust generative AI. The code is available at https://github.com/cure-lab/FailureAtlas
- Abstract(参考訳): 静的ベンチマークは、Text-to-Image(T2I)モデルを比較するための貴重な基盤を提供する。
しかし、彼らの受動的設計は限られた診断力を提供し、体系的な失敗の全体像を明らかにするのに苦労し、根本原因を分離する。
私たちは補完的なパラダイムであるアクティブな探索を主張します。
私たちは、大規模なT2Iモデルの巨大な障害状況を自律的に探索し、マップするように設計された最初のフレームワークであるFailureAtlasを紹介します。
フェールAtlasは、最小限のフェール誘導概念の構造化検索としてエラー発見をフレーム化している。
計算的に爆発的な問題であるが、我々は新しい加速技術で計算可能とする。
安定拡散モデルに適用した場合、我々の手法は、これまで未知のエラースライス(SD1.5だけで247,000以上)を数十万件発見し、これらのエラーをトレーニングセットのデータ不足と結びつけた最初の大規模証拠を提供する。
ディープラーニング監査のための原則付きスケーラブルなエンジンを提供することで、FailureAtlasは、より堅牢な生成AIの開発をガイドする、新たな診断優先の方法論を確立している。
コードはhttps://github.com/cure-lab/FailureAtlasで入手できる。
関連論文リスト
- No Query, No Access [50.18709429731724]
被害者のテキストのみを使用して動作する textbfVictim Data-based Adrial Attack (VDBA) を導入する。
被害者モデルへのアクセスを防止するため、公開されている事前トレーニングモデルとクラスタリングメソッドを備えたシャドウデータセットを作成します。
EmotionとSST5データセットの実験によると、VDBAは最先端の手法より優れており、ASRの改善は52.08%である。
論文 参考訳(メタデータ) (2025-05-12T06:19:59Z) - PoseX: AI Defeats Physics Approaches on Protein-Ligand Cross Docking [74.76447568426276]
PoseXは、セルフドッキングとクロスドッキングの両方を評価するためのオープンソースのベンチマークである。
23のドッキング法を3つの方法論カテゴリに組み込んだ。
我々は,コンフォメーションエネルギーを最小化し,結合ポーズを洗練するために,後処理の緩和法を開発した。
論文 参考訳(メタデータ) (2025-05-03T05:35:37Z) - HiBug2: Efficient and Interpretable Error Slice Discovery for Comprehensive Model Debugging [9.209104721371228]
HiBug2は、エラースライス発見とモデル修復のための自動化フレームワークである。
まずタスク固有の視覚属性を生成し、エラーを起こしやすいインスタンスをハイライトする。
次に、効率的なスライス列挙アルゴリズムを用いて、エラースライスを体系的に識別する。
論文 参考訳(メタデータ) (2025-01-28T07:08:20Z) - LLM-Assisted Red Teaming of Diffusion Models through "Failures Are Fated, But Can Be Faded" [7.736445799116692]
『失敗は太っているが、消えることがある』は、事前学習された世代モデルにおける失敗の状況を探究し、構築するための枠組みである。
発見された障害モードから離れることで、障害状況の再構築をより望ましいものにする方法を示します。
論文 参考訳(メタデータ) (2024-10-22T06:46:09Z) - Truncated Consistency Models [57.50243901368328]
トレーニング一貫性モデルは、PF ODE 軌道に沿ったすべての中間点を対応するエンドポイントにマッピングする学習を必要とする。
このトレーニングパラダイムが一貫性モデルの1ステップ生成性能を制限することを実証的に見出した。
整合性関数の新しいパラメータ化と2段階の訓練手順を提案し,時間外学習が崩壊することを防ぐ。
論文 参考訳(メタデータ) (2024-10-18T22:38:08Z) - Adversarial Nibbler: An Open Red-Teaming Method for Identifying Diverse Harms in Text-to-Image Generation [19.06501699814924]
私たちは、暗黙的に敵対的なプロンプトをクラウドソーシングするための、レッドチーム方式であるAdversarial Nibbler Challengeを構築します。
この課題は、T2Iモデルにおける安全落とし穴の持続的な発見と分析を可能にするために、連続的なラウンドで実行される。
人類が有害とみなす画像の14%は、機械によって「安全」と誤記されている。
論文 参考訳(メタデータ) (2024-02-14T22:21:12Z) - Towards a robust and reliable deep learning approach for detection of
compact binary mergers in gravitational wave data [0.0]
我々は、段階的に深層学習モデルを開発し、その堅牢性と信頼性の向上に取り組みます。
我々はGAN(Generative Adversarial Network)を含む新しいフレームワークでモデルを再訓練する。
絶対ロバスト性は事実上達成できないが、そのような訓練によって得られるいくつかの根本的な改善を実証する。
論文 参考訳(メタデータ) (2023-06-20T18:00:05Z) - Simple and Effective Prevention of Mode Collapse in Deep One-Class
Classification [93.2334223970488]
深部SVDDにおける超球崩壊を防止するための2つの正則化器を提案する。
第1の正則化器は、標準のクロスエントロピー損失によるランダムノイズの注入に基づいている。
第2の正規化器は、小さすぎるとミニバッチ分散をペナライズする。
論文 参考訳(メタデータ) (2020-01-24T03:44:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。