論文の概要: Why Not? Solver-Grounded Certificates for Explainable Mission Planning
- arxiv url: http://arxiv.org/abs/2603.00469v1
- Date: Sat, 28 Feb 2026 05:08:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.211901
- Title: Why Not? Solver-Grounded Certificates for Explainable Mission Planning
- Title(参考訳): なぜそうでないのか? 説明可能なミッションプランニングのためのソルバーグラウンド認定証明書
- Authors: Najeeb Khan,
- Abstract要約: 既存のアプローチは、非因果属性、不完全制約結合、およびソルバパス依存のリスクを負う。
すべての説明は最適化モデル自体から派生した証明書です。
200のオーダーと30の衛星のスケーラビリティ解析により、運用バッチの実際の抽出時間を確認する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Operators of Earth observation satellites need justifications for scheduling decisions: why a request was selected, rejected, or what changes would make it schedulable. Existing approaches construct post-hoc reasoning layers independent of the optimizer, risking non-causal attributions, incomplete constraint conjunctions, and solver-path dependence. We take a faithfulness-first approach: every explanation is a certificate derived from the optimization model itself: minimal infeasible subsets for rejections, tight constraints and contrastive trade-offs for selections, and inverse solves for what-if queries. On a scheduling instance with structurally distinct constraint interactions, certificates achieve perfect soundness with respect to the solver's constraint model (15/15 cited-constraint checks), counterfactual validity (7/7), and stability (Jaccard = 1.0 across 28 seed-pairs), while a post-hoc baseline produces non-causal attributions in 29% of cases and misses constraint conjunctions in every multi-cause rejection. A scalability analysis up to 200 orders and 30 satellites confirms practical extraction times for operational batches.
- Abstract(参考訳): 地球観測衛星のオペレーターは、なぜ要求が選択されたのか、拒否されたのか、どのような変更がスケジュール可能になったのかといった、スケジュール決定の正当性を必要とする。
既存のアプローチでは、オプティマイザに依存しないポストホック推論層を構築し、非因果属性、不完全制約結合、およびソルバパス依存を危険にさらす。
すべての説明は最適化モデル自体から派生した証明書である:拒絶に対する最小限の非実用的部分集合、厳密な制約、選択に対する対照的なトレードオフ、そして何に対する逆解である。
構造的に異なる制約相互作用を持つスケジューリングインスタンスでは、証明書は解決者の制約モデル(15/15の引用制約チェック)、反ファクト的妥当性(7/7)、安定性(Jaccard = 1.0は28のシードペアにまたがる)に関して完全な健全性を達成する。
200のオーダーと30の衛星のスケーラビリティ解析により、運用バッチの実際の抽出時間を確認する。
関連論文リスト
- JANUS: Structured Bidirectional Generation for Guaranteed Constraints and Analytical Uncertainty [0.0]
JANUS(Joint Ancestral Network for Uncertainity and Synthesis)は、ベイズ決定木のDAGを用いて機能を統合するフレームワークである。
主な革新はReverse-Topological Back-fillingであり、因果グラフを通して制約を後方に伝播するアルゴリズムである。
Janusは最先端の忠実度(Detection Score 0.497)を実現し、不均衡なデータのモード崩壊を排除し、複雑なカラム間制約を正確に処理する。
論文 参考訳(メタデータ) (2026-03-04T05:36:11Z) - Verifier-Bound Communication for LLM Agents: Certified Bounds on Covert Signaling [0.0]
言語モデルエージェントを結合することで、ポリシーに準拠したメッセージの調整を表面レベルで隠蔽することができる。
生成と受け入れを分離するプロトコルであるCLBCを提案する。
このプロトコルは、遅延リークと明示的な残留チャネルの観点から、転写リークの上限をいかに高めるかを示す。
論文 参考訳(メタデータ) (2026-02-27T23:42:37Z) - Teaching LLMs to Ask: Self-Querying Category-Theoretic Planning for Under-Specified Reasoning [1.8055130471307603]
大きな言語モデルによる推論時間プランニングは、部分的な可観測性の下で頻繁に失敗する。
textbfSelf-Querying Bidirectional Categorical Planning (SQ-BCP)を導入する。
検証が成功し、厳しい制約が決定論的チェックをパスした場合、承認された計画が目標要件と互換性があることを証明する。
論文 参考訳(メタデータ) (2026-01-27T19:41:10Z) - CoT-Seg: Rethinking Segmentation with Chain-of-Thought Reasoning and Self-Correction [50.67483317563736]
本稿では,段階的に考察し,必要な情報を検索し,結果を生成し,自己評価を行い,結果を洗練するシステムを提案する。
CoT-Segは、思考の連鎖推論と自己補正を組み合わせることで、推論セグメンテーションを再考する、トレーニング不要のフレームワークである。
論文 参考訳(メタデータ) (2026-01-24T11:41:54Z) - What Does It Take to Build a Performant Selective Classifier? [30.90225954725644]
ベイズノイズ,近似誤差,ランキング誤差,統計的ノイズ,実装またはシフト誘起スラックについて検討した。
我々は,合成2モードデータと実世界のビジョンと言語ベンチマークを用いて,その分解を検証した。
その結果, (i)ベイズノイズとモデル容量の制限は, 実質的なギャップを考慮し, (ii) よりリッチで特徴を考慮したキャリブレータのみを有意義に改善し, (iii) データシフトは, 分散的に堅牢なトレーニングを必要とするスラックを別々に導入することを確認した。
論文 参考訳(メタデータ) (2025-10-23T05:48:40Z) - Eigen-1: Adaptive Multi-Agent Refinement with Monitor-Based RAG for Scientific Reasoning [53.45095336430027]
暗黙的な検索と構造化された協調を組み合わせた統合フレームワークを開発する。
Humanity's Last Exam (HLE) Bio/Chem Goldでは,48.3%の精度を実現している。
SuperGPQAとTRQAの結果はドメイン間の堅牢性を確認した。
論文 参考訳(メタデータ) (2025-09-25T14:05:55Z) - G-CSEA: A Graph-Based Conflict Set Extraction Algorithm for Identifying Infeasibility in Pseudo-Boolean Models [0.5773629510985792]
一般的な診断手法は、未認識不実現サブセット(IIS)の計算である。
二変数上の不等式関係を持つ擬似ブール制約を用いて定式化されたモデルを考える。
提案手法は制約伝搬中に含意グラフを構築し,コンフリクトを検出すると,両決定枝にまたがるすべての制約をトレースする。
論文 参考訳(メタデータ) (2025-09-16T16:09:30Z) - Efficient Constraint-Aware Flow Matching via Randomized Exploration [10.556484074223258]
本稿では,フローマッチング (FM) を用いてサンプルを生成する場合の問題点について考察する。
本稿では、制約セットと生成されたサンプルとの距離をペナルティ化する追加用語を用いて、FM目標の簡易な適応を提案する。
提案手法は, 対象分布に適合しながら, 制約満足度の観点から有意な利得が得られることを示す。
論文 参考訳(メタデータ) (2025-08-18T19:02:02Z) - COIN: Uncertainty-Guarding Selective Question Answering for Foundation Models with Provable Risk Guarantees [51.5976496056012]
COINは、統計的に有効な閾値を校正し、質問毎に1つの生成された回答をフィルタリングする不確実性保護選択フレームワークである。
COINはキャリブレーションセット上で経験的誤差率を推定し、信頼区間法を適用して真誤差率に高い確率上界を確立する。
リスク管理におけるCOINの堅牢性,許容回答を維持するための強いテストタイムパワー,キャリブレーションデータによる予測効率を実証する。
論文 参考訳(メタデータ) (2025-06-25T07:04:49Z) - Latent Veracity Inference for Identifying Errors in Stepwise Reasoning [78.29317733206643]
本稿では、精度割当てに対する離散探索アルゴリズムであるVeracity Search(VS)を紹介する。
その他の方法では、後続の精度値よりも後続の分布において難解な推論を行う。
VSを一般化し、新しいコンテキストで正確なゼロショットの精度推論を可能にする。
論文 参考訳(メタデータ) (2025-05-17T04:16:36Z) - DCR: Divide-and-Conquer Reasoning for Multi-choice Question Answering with LLMs [9.561022942046279]
大規模言語モデル(LLM)の推論能力を高めるため,DCR(Divide and Conquer Reasoning)を提案する。
まず、信頼性スコア(mathcalCS$)に基づいて質問を2つのサブセットに分類する。
特に,質問を信頼性スコア(mathcalCS$)に基づいて2つのサブセットに分類する。
論文 参考訳(メタデータ) (2024-01-10T14:38:46Z) - CAR: Conceptualization-Augmented Reasoner for Zero-Shot Commonsense
Question Answering [56.592385613002584]
ゼロショットコモンセンス質問応答の課題に対処するために,概念化強化推論器(CAR)を提案する。
CARは、CommonSenseの知識を多くの高レベルなインスタンスに抽象化し、CommonSenseの知識ベースの範囲を拡大する。
CARは、既存のメソッドよりも、ゼロショットのコモンセンスシナリオに関する質問に答えることにより、より堅牢に一般化する。
論文 参考訳(メタデータ) (2023-05-24T08:21:31Z) - From Checking to Inference: Actual Causality Computations as
Optimization Problems [79.87179017975235]
本稿では、最適化問題として二元非巡回モデルよりも、因果推論の異なる概念を定式化するための新しいアプローチを提案する。
8000ドル以上の変数を持つモデルを用いて,MaxSAT が ILP を上回り,数秒単位でチェック処理を行う場合が多い。
論文 参考訳(メタデータ) (2020-06-05T10:56:52Z) - Robust Question Answering Through Sub-part Alignment [53.94003466761305]
我々はアライメント問題として質問応答をモデル化する。
私たちは、SQuAD v1.1でモデルをトレーニングし、いくつかの逆および外ドメインデータセットでそれをテストします。
論文 参考訳(メタデータ) (2020-04-30T09:10:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。