論文の概要: Provably Safe Generative Sampling with Constricting Barrier Functions
- arxiv url: http://arxiv.org/abs/2602.21429v1
- Date: Tue, 24 Feb 2026 23:06:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-26 18:19:16.636365
- Title: Provably Safe Generative Sampling with Constricting Barrier Functions
- Title(参考訳): バリア関数を制限した潜在的に安全な生成サンプリング
- Authors: Darshan Gadginmath, Ahmed Allibhoy, Fabio Pasqualetti,
- Abstract要約: フローベース生成モデルは複雑なデータ分布の学習において顕著な成功を収めた。
本稿では,事前学習した生成モデルのオンラインシールドとして機能する安全フィルタリングフレームワークを提案する。
本機構は, 各サンプリングステップにおいて, 元のモデルからの分布シフトを最小限に抑えながら, 安全なサンプリングを保証する。
- 参考スコア(独自算出の注目度): 1.8377602530643375
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Flow-based generative models, such as diffusion models and flow matching models, have achieved remarkable success in learning complex data distributions. However, a critical gap remains for their deployment in safety-critical domains: the lack of formal guarantees that generated samples will satisfy hard constraints. We address this by proposing a safety filtering framework that acts as an online shield for any pre-trained generative model. Our key insight is to cooperate with the generative process rather than override it. We define a constricting safety tube that is relaxed at the initial noise distribution and progressively tightens to the target safe set at the final data distribution, mirroring the coarse-to-fine structure of the generative process itself. By characterizing this tube via Control Barrier Functions (CBFs), we synthesize a feedback control input through a convex Quadratic Program (QP) at each sampling step. As the tube is loosest when noise is high and intervention is cheapest in terms of control energy, most constraint enforcement occurs when it least disrupts the model's learned structure. We prove that this mechanism guarantees safe sampling while minimizing the distributional shift from the original model at each sampling step, as quantified by the KL divergence. Our framework applies to any pre-trained flow-based generative scheme requiring no retraining or architectural modifications. We validate the approach across constrained image generation, physically-consistent trajectory sampling, and safe robotic manipulation policies, achieving 100% constraint satisfaction while preserving semantic fidelity.
- Abstract(参考訳): 拡散モデルやフローマッチングモデルのようなフローベースの生成モデルは、複雑なデータ分布の学習において顕著な成功を収めた。
しかし、安全クリティカルな領域への展開において重要なギャップが残っており、生成したサンプルが厳しい制約を満たすという正式な保証が欠如している。
我々は、事前訓練された生成モデルのオンラインシールドとして機能する安全フィルタリングフレームワークを提案することで、この問題に対処する。
私たちの重要な洞察は、生成プロセスに協力することです。
生成プロセス自体の粗大な構造を反映して、初期ノイズ分布で緩和され、最終データ分布におけるターゲットセーフセットに徐々に密着する拘束安全管を定義する。
この管を制御バリア関数(CBF)を介して特徴付けることにより,各サンプリングステップで凸二次プログラム(QP)を介してフィードバック制御入力を合成する。
管はノイズが高く、制御エネルギーの面では介入が安価であるときに最も緩いため、ほとんどの制約執行は、モデルの学習構造を最小限に破壊した場合に発生する。
この機構は,KL分散度で定量化されるように,各サンプリングステップにおける元のモデルからの分布シフトを最小限に抑えつつ,安全なサンプリングを保証する。
我々のフレームワークは、トレーニング済みのフローベース生成スキームに適用され、再トレーニングやアーキテクチャの変更は不要である。
我々は,制約付き画像生成,物理的に整合な軌道サンプリング,安全なロボット操作ポリシーのアプローチを検証し,セマンティックな忠実さを維持しながら100%制約満足度を達成する。
関連論文リスト
- BarrierSteer: LLM Safety via Learning Barrier Steering [83.12893815611052]
BarrierSteerは、学習した非線形安全性制約を直接モデルの潜在表現空間に埋め込むことで、安全性を形式化する新しいフレームワークである。
BarrierSteerは、敵の成功率を大幅に低下させ、安全でない世代を減少させ、既存の手法より優れていることを示す。
論文 参考訳(メタデータ) (2026-02-23T18:19:46Z) - Safeguarding LLM Fine-tuning via Push-Pull Distributional Alignment [45.772620696660034]
安全最適輸送(SOT)は、インスタンスレベルのフィルタリング課題から最適輸送(OT)に基づく分散レベルのアライメントタスクへ安全な微調整を再構成する新しいフレームワークである。
SOTは、下流の分布を信頼された安全なアンカーへ積極的に引き寄せ、同時に一般的な有害な参照から引き離すことで、サンプルの重要性を優先する。
さまざまなモデルファミリやドメインにわたる実験により、SOTは、競争力のある下流のパフォーマンスを維持しながら、モデルの安全性を大幅に向上することを示した。
論文 参考訳(メタデータ) (2026-01-12T04:48:02Z) - Finite-Sample-Based Reachability for Safe Control with Gaussian Process Dynamics [35.79393879150088]
本稿では,保守主義を回避しつつ,モデルの不確実性を効率的に伝播するサンプリングベースフレームワークを提案する。
提案手法は,精度の高い到達可能集合オーバー近似と安全なクローズドループ性能を示す。
論文 参考訳(メタデータ) (2025-05-12T14:20:20Z) - Robust Optimization with Diffusion Models for Green Security [49.68562792424776]
グリーンセキュリティでは、効果的パトロールを計画するためには、密猟、違法伐採、違法漁などの敵の行動を予測する必要がある。
本稿では,その強い分布適合性を利用した逆挙動モデリングのための条件付き拡散モデルを提案する。
混合戦略の混合戦略を導入し, 正確なサンプリングを行うために, ツイスト型シークエンシャルモンテカルロ (SMC) サンプリング装置を用いる。
論文 参考訳(メタデータ) (2025-02-19T05:30:46Z) - Lazy Layers to Make Fine-Tuned Diffusion Models More Traceable [70.77600345240867]
新たな任意の任意配置(AIAO)戦略は、微調整による除去に耐性を持たせる。
拡散モデルの入力/出力空間のバックドアを設計する既存の手法とは異なり,本手法では,サンプルサブパスの特徴空間にバックドアを埋め込む方法を提案する。
MS-COCO,AFHQ,LSUN,CUB-200,DreamBoothの各データセットに関する実証研究により,AIAOの堅牢性が確認された。
論文 参考訳(メタデータ) (2024-05-01T12:03:39Z) - SafeDiffuser: Safe Planning with Diffusion Probabilistic Models [97.80042457099718]
拡散モデルに基づくアプローチは、データ駆動計画において有望であるが、安全保証はない。
我々は,拡散確率モデルが仕様を満たすことを保証するために,SafeDiffuserと呼ばれる新しい手法を提案する。
提案手法は,迷路経路の生成,足歩行ロボットの移動,空間操作など,安全な計画作業の一連のテストを行う。
論文 参考訳(メタデータ) (2023-05-31T19:38:12Z) - Toward Certified Robustness Against Real-World Distribution Shifts [65.66374339500025]
我々は、データから摂動を学ぶために生成モデルを訓練し、学習したモデルの出力に関して仕様を定義する。
この設定から生じるユニークな挑戦は、既存の検証者がシグモイドの活性化を厳密に近似できないことである。
本稿では,古典的な反例誘導的抽象的洗練の概念を活用するシグモイドアクティベーションを扱うための一般的なメタアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-06-08T04:09:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。