論文の概要: When Environments Shift: Safe Planning with Generative Priors and Robust Conformal Prediction
- arxiv url: http://arxiv.org/abs/2602.12616v1
- Date: Fri, 13 Feb 2026 04:48:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:41.423416
- Title: When Environments Shift: Safe Planning with Generative Priors and Robust Conformal Prediction
- Title(参考訳): 環境の変化: 生成優先による安全な計画とロバストなコンフォーマル予測
- Authors: Kaizer Rahaman, Jyotirmoy V. Deshmukh, Ashish R. Hota, Lars Lindemann,
- Abstract要約: 自律システムは、時間とともに変化する可能性のある環境で機能する。
デプロイメント中に遭遇する環境は、トレーニング中に遭遇する環境とデータを反映することが滅多にない。
分散シフトと呼ばれる現象は、自律システムの安全性を損なう可能性がある。
- 参考スコア(独自算出の注目度): 4.462334751640166
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous systems operate in environments that may change over time. An example is the control of a self-driving vehicle among pedestrians and human-controlled vehicles whose behavior may change based on factors such as traffic density, road visibility, and social norms. Therefore, the environment encountered during deployment rarely mirrors the environment and data encountered during training -- a phenomenon known as distribution shift -- which can undermine the safety of autonomous systems. Conformal prediction (CP) has recently been used along with data from the training environment to provide prediction regions that capture the behavior of the environment with a desired probability. When embedded within a model predictive controller (MPC), one can provide probabilistic safety guarantees, but only when the deployment and training environments coincide. Once a distribution shift occurs, these guarantees collapse. We propose a planning framework that is robust under distribution shifts by: (i) assuming that the underlying data distribution of the environment is parameterized by a nuisance parameter, i.e., an observable, interpretable quantity such as traffic density, (ii) training a conditional diffusion model that captures distribution shifts as a function of the nuisance parameter, (iii) observing the nuisance parameter online and generating cheap, synthetic data from the diffusion model for the observed nuisance parameter, and (iv) designing an MPC that embeds CP regions constructed from such synthetic data. Importantly, we account for discrepancies between the underlying data distribution and the diffusion model by using robust CP. Thus, the plans computed using robust CP enjoy probabilistic safety guarantees, in contrast with plans obtained from a single, static set of training data. We empirically demonstrate safety under diverse distribution shifts in the ORCA simulator.
- Abstract(参考訳): 自律システムは、時間とともに変化する可能性のある環境で機能する。
例として、交通密度、道路の視認性、社会規範といった要因に基づいて行動が変化する可能性のある歩行者や人間制御車両間の自動運転車の制御がある。
そのため、展開中に遭遇する環境は、トレーニング中に遭遇する環境やデータ(分散シフトと呼ばれる現象)をめったに反映せず、自律システムの安全性を損なう可能性がある。
コンフォーマル予測(CP)は、最近、所望の確率で環境の挙動を捉える予測領域を提供する訓練環境のデータと共に使用されている。
モデル予測コントローラ(MPC)に組み込むと、確率論的安全性が保証されるが、デプロイとトレーニング環境が一致した場合に限られる。
一度分散シフトが発生したら、これらの保証は崩壊する。
配電系統の変動に頑健な計画枠組みを提案する。
一 環境の根底にあるデータ分布がニュアンスパラメータ、すなわち交通密度などの観測可能な解釈可能な量によってパラメータ化されていると仮定すること。
二 ニュアンスパラメータの関数として分布シフトをキャプチャする条件拡散モデルを訓練すること。
三 ネット上のニュアンスパラメータを観察し、観察されたニュアンスパラメータの拡散モデルから安価な合成データを生成し、
(4)このような合成データから構築したCP領域を埋め込んだMPCを設計する。
重要なことは、ロバストCPを用いて、基礎となるデータ分布と拡散モデルとの相違を考慮することである。
このように、ロバストCPを用いて計算された計画は、単一の静的なトレーニングデータから得られた計画とは対照的に、確率論的安全性の保証を享受する。
ORCAシミュレータにおいて,多様な分布シフトの下での安全性を実証的に示す。
関連論文リスト
- Distributed Dynamic Invariant Causal Prediction in Environmental Time Series [9.779350203438485]
時系列における分散動的不変因数予測(DisDy-ICPT)を提案する。
DisDy-ICPTは時間とともに動的因果関係を学習し、データ通信を必要とせずに空間的共役変数を緩和する。
その結果,DDy-ICPTはベースライン法A,Bよりも優れた予測安定性と精度を達成できることが示唆された。
論文 参考訳(メタデータ) (2026-03-03T11:52:35Z) - Diverging Flows: Detecting Extrapolations in Conditional Generation [3.1784840992666137]
分散フローは、単一のモデルが条件生成とネイティブな外挿検出を同時に実行できるようにする、新しいアプローチである。
予測忠実さや推論遅延を損なうことなく、効果的な外挿検出を実現する。
これらの結果は、信頼できるフローモデルのための堅牢なソリューションとして、Diverging Flowsを確立し、医療、ロボティクス、気候科学といった領域への信頼性の高いデプロイメントの道を開いた。
論文 参考訳(メタデータ) (2026-02-13T16:15:58Z) - Safety Beyond the Training Data: Robust Out-of-Distribution MPC via Conformalized System Level Synthesis [3.5174884177930448]
整合予測(CP)とシステムレベル合成(SLS)を用いた配電系統のロバストな配電計画と制御のための新しいフレームワークを提案する。
まず、重み付きCPと学習状態制御依存共分散モデルを用いた高信頼モデル誤差境界を導出する。
これらの境界はSLSに基づく頑健な非線形モデル予測制御(MPC)の定式化に統合され、容積最適化された前方到達可能な集合を通して予測水平線上で制約の締め付けを行う。
論文 参考訳(メタデータ) (2026-02-12T15:11:44Z) - Perfectly-Private Analog Secure Aggregation in Federated Learning [51.61616734974475]
連合学習では、複数のパーティがモデルをローカルにトレーニングし、パラメータを中央サーバと共有する。
本稿では,有限場ではなくトーラスを用いた新しいセキュアパラメータアグリゲーション法を提案する。
論文 参考訳(メタデータ) (2025-09-10T15:22:40Z) - Nonstationary Time Series Forecasting via Unknown Distribution Adaptation [22.915008205203886]
環境が進化するにつれて、時間分布シフトは時系列予測性能を低下させる可能性がある。
均一分布シフトを仮定して定常成分と非定常成分をアンタングルする手法もあるが、分布変化が未知であることから現実的ではない。
非定常時系列予測のためのtextbfUnknown textbfDistribution textbfAdaptation (textbfUDA) モデルを提案する。
論文 参考訳(メタデータ) (2024-02-20T07:16:12Z) - Synthetic location trajectory generation using categorical diffusion
models [50.809683239937584]
拡散モデル(DPM)は急速に進化し、合成データのシミュレーションにおける主要な生成モデルの一つとなっている。
本稿では,個人が訪れた物理的位置を表す変数列である合成個別位置軌跡(ILT)の生成にDPMを用いることを提案する。
論文 参考訳(メタデータ) (2024-02-19T15:57:39Z) - Certifying Model Accuracy under Distribution Shifts [151.67113334248464]
本稿では,データ分布の有界ワッサースタインシフトの下でのモデルの精度について,証明可能なロバスト性保証を提案する。
変換空間におけるモデルの入力をランダム化する単純な手順は、変換の下での分布シフトに対して確実に堅牢であることを示す。
論文 参考訳(メタデータ) (2022-01-28T22:03:50Z) - Sampling-Based Robust Control of Autonomous Systems with Non-Gaussian
Noise [59.47042225257565]
雑音分布の明示的な表現に依存しない新しい計画法を提案する。
まず、連続系を離散状態モデルに抽象化し、状態間の確率的遷移によってノイズを捕捉する。
いわゆる区間マルコフ決定過程(iMDP)の遷移確率区間におけるこれらの境界を捉える。
論文 参考訳(メタデータ) (2021-10-25T06:18:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。