論文の概要: Proactive Routing to Interpretable Surrogates with Distribution-Free Safety Guarantees
- arxiv url: http://arxiv.org/abs/2603.14623v1
- Date: Sun, 15 Mar 2026 21:38:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.922137
- Title: Proactive Routing to Interpretable Surrogates with Distribution-Free Safety Guarantees
- Title(参考訳): 配電不要安全保証による解釈可能なサロゲートへの積極的なルーティング
- Authors: Iqtedar Uddin, Mazin Khider, André Bauer,
- Abstract要約: 動作前に,ライトウェイトゲートがモデルを選択するプロアクティブ(インプットベース)ルーティングについて検討する。
安全なルーティングをベースセーフレートとリスク予算にリンクする実現可能性条件と、実行可能なルーティングが存在することを保証する十分なAUCしきい値とを導出する。
- 参考スコア(独自算出の注目度): 0.5518378568494161
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Model routing determines whether to use an accurate black-box model or a simpler surrogate that approximates it at lower cost or greater interpretability. In deployment settings, practitioners often wish to restrict surrogate use to inputs where its degradation relative to a reference model is controlled. We study proactive (input-based) routing, in which a lightweight gate selects the model before either runs, enabling distribution-free control of the fraction of routed inputs whose degradation exceeds a tolerance τ. The gate is trained to distinguish safe from unsafe inputs, and a routing threshold is chosen via Clopper-Pearson conformal calibration on a held-out set, guaranteeing that the routed-set violation rate is at most α with probability 1-δ. We derive a feasibility condition linking safe routing to the base safe rate π and risk budget α, along with sufficient AUC thresholds ensuring that feasible routing exists. Across 35 OpenML datasets and multiple black-box model families, gate-based conformal routing maintains controlled violation while achieving substantially higher coverage than regression conformal and naive baselines. We further show that probabilistic calibration primarily affects routing efficiency rather than distribution-free validity.
- Abstract(参考訳): モデルルーティングは、正確なブラックボックスモデルを使用するか、より単純なサロゲートを使用するかを決定する。
デプロイ設定では、参照モデルに対する劣化が制御される入力に対してサロゲートの使用を制限することがしばしば望まれる。
動作前に軽量ゲートがモデルを選択するプロアクティブ(インプットベース)ルーティングについて検討し、劣化がトレランスτを超える経路入力の分数の分布自由制御を可能にする。
ゲートは安全でない入力と区別するように訓練され、ホールトアウトセット上のクロッパー・ピアソン共形キャリブレーションを介してルーティングしきい値が選択され、ルートセット違反率が確率1−δのαであることが保証される。
我々は、安全なルーティングをベースセーフレートπとリスク予算αにリンクする実現可能性条件と、実行可能なルーティングが存在することを保証する十分なAUCしきい値とを導出する。
35のOpenMLデータセットと複数のブラックボックスモデルファミリにまたがって、ゲートベースのコンフォメーションルーティングは、制御された違反を維持しつつ、レグレッションコンフォメーションコンフォメーションやナイーブベースラインよりもかなり高いカバレッジを実現している。
さらに、確率的キャリブレーションは、分布のない妥当性よりもルーティング効率に主に影響を及ぼすことを示す。
関連論文リスト
- Improving Search Agent with One Line of Code [68.58667107354253]
ツールベースのエージェント強化学習(TARL)は,検索エージェントが外部ツールと対話できるようにトレーニングするための,有望なパラダイムとして登場した。
textbfSearch textbfAgent textbfPolicy textbfOptimization (textbfSAPO)を提案する。
論文 参考訳(メタデータ) (2026-03-10T04:07:39Z) - Diffusion Controller: Framework, Algorithms and Parameterization [54.82539154511621]
本稿では,逆拡散サンプリングを(一般化された)線形解法マルコフ決定過程における状態のみの制御として活用する統一的な制御理論的視点を提案する。
このフレームワークでは、制御はトレーニング済みのリバースタイムのトランジションカーネルを再重み付けし、端末の目的と$f$分割コストのバランスをとる。
安定拡散v1.4の実験では、選好調整の勝利率が一貫した上昇を示し、品質効率のトレードオフを改善した。
論文 参考訳(メタデータ) (2026-03-07T01:49:59Z) - RACER: Risk-Aware Calibrated Efficient Routing for Large Language Models [23.345746575717545]
LLMルーティングを$-VOR問題として定式化し、予測セットサイズを最小化し、不正なリスクを抑える。
提案するRACERは、ベースルータを出力モデルに拡張し、その後、出力を改善するために集約することができる。
理論的には、RACERはポストホックかつモデルに依存しない方法で、未確認テストデータに対して厳密な分布自由リスク制御を実現する。
論文 参考訳(メタデータ) (2026-02-20T08:23:03Z) - Conformal Thinking: Risk Control for Reasoning on a Compute Budget [60.65072883773352]
大規模言語モデル(LLM)の推論により、トークンの予算が増加するにつれて、データセットレベルの精度が向上する。
我々は、予算設定問題をリスクコントロールとして再設定し、計算を最小化しながらエラー率を制限する。
我々のフレームワークは、モデルが自信のあるときに推論を停止する上位しきい値と、未解決のインスタンスを事前に停止させる新しい下位しきい値を導入する。
論文 参考訳(メタデータ) (2026-02-03T18:17:22Z) - LEC: Linear Expectation Constraints for False-Discovery Control in Selective Prediction and Routing Systems [95.35293543918762]
大規模言語モデル(LLM)はしばしば信頼できない答えを生成するが、不確実性のある手法は誤った予測と完全に区別することができない。
我々は、この問題を、偽発見率(FDR)制御のレンズを通して解決し、全ての許容された予測のうち、エラーの割合が目標のリスクレベルを超えないことを保証する。
本稿では,線形期待制約を強制することで,選択予測を制約付き決定問題として再解釈するLECを提案する。
論文 参考訳(メタデータ) (2025-12-01T11:27:09Z) - Unsupervised Conformal Inference: Bootstrapping and Alignment to Control LLM Uncertainty [49.19257648205146]
生成のための教師なし共形推論フレームワークを提案する。
我々のゲートは、分断されたUPPよりも厳密で安定した閾値を提供する。
その結果は、ラベルのない、API互換の、テスト時間フィルタリングのゲートになる。
論文 参考訳(メタデータ) (2025-09-26T23:40:47Z) - COIN: Uncertainty-Guarding Selective Question Answering for Foundation Models with Provable Risk Guarantees [51.5976496056012]
COINは、統計的に有効な閾値を校正し、質問毎に1つの生成された回答をフィルタリングする不確実性保護選択フレームワークである。
COINはキャリブレーションセット上で経験的誤差率を推定し、信頼区間法を適用して真誤差率に高い確率上界を確立する。
リスク管理におけるCOINの堅牢性,許容回答を維持するための強いテストタイムパワー,キャリブレーションデータによる予測効率を実証する。
論文 参考訳(メタデータ) (2025-06-25T07:04:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。