論文の概要: Provable Model Provenance Set for Large Language Models
- arxiv url: http://arxiv.org/abs/2602.00772v1
- Date: Sat, 31 Jan 2026 15:27:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.391844
- Title: Provable Model Provenance Set for Large Language Models
- Title(参考訳): 大規模言語モデルのための確率的モデル確率集合
- Authors: Xiaoqi Qiu, Hao Zeng, Zhiyu Hou, Hongxin Wei,
- Abstract要約: 非許可モデルの使用頻度と誤帰は、信頼性のあるモデル解析の必要性を高めている。
既存の方法は、証明可能なエラー制御がなく、しばしば複数のソースの存在を見落としている指紋マッチング規則に大きく依存している。
まず、証明可能な保証でモデル証明問題を定式化し、所定の信頼度レベルで全ての真の証明を厳格に網羅する必要がある。
- 参考スコア(独自算出の注目度): 17.27624911800891
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The growing prevalence of unauthorized model usage and misattribution has increased the need for reliable model provenance analysis. However, existing methods largely rely on heuristic fingerprint-matching rules that lack provable error control and often overlook the existence of multiple sources, leaving the reliability of their provenance claims unverified. In this work, we first formalize the model provenance problem with provable guarantees, requiring rigorous coverage of all true provenances at a prescribed confidence level. Then, we propose the Model Provenance Set (MPS), which employs a sequential test-and-exclusion procedure to adaptively construct a small set satisfying the guarantee. The key idea of MPS is to test the significance of provenance existence within a candidate pool, thereby establishing a provable asymptotic guarantee at a user-specific confidence level. Extensive experiments demonstrate that MPS effectively achieves target provenance coverage while strictly limiting the inclusion of unrelated models, and further reveal its potential for practical provenance analysis in attribution and auditing tasks.
- Abstract(参考訳): 非許可モデルの使用頻度と誤帰が増加し、信頼性のあるモデル証明分析の必要性が高まった。
しかし、既存の手法は、証明可能なエラー制御を欠いたヒューリスティックな指紋マッチング規則に大きく依存しており、しばしば複数の情報源の存在を見落としている。
本研究は、まずモデル証明問題を証明可能な保証で定式化し、所定の信頼度レベルで全ての真の証明を厳格に網羅することを要求する。
そこで我々は, 連続的なテスト・アンド・エクスクルージョン手法を用いて, 保証を満たす小さな集合を適応的に構築するModel Provenance Set (MPS)を提案する。
MPSの鍵となる考え方は、候補プールにおける証明の存在の重要性をテストすることである。
広範囲な実験により、MPSは非関連モデルの包含を厳格に制限しつつ、効果的に目的の証明範囲を達成し、帰属および監査タスクにおける実践的証明分析の可能性を明らかにした。
関連論文リスト
- Trust in One Round: Confidence Estimation for Large Language Models via Structural Signals [13.89434979851652]
大規模言語モデル(LLM)は、エラーが社会的、科学的、安全コストの高い領域にますます展開されている。
本稿では,出力の正確性を予測する単一パスモデル依存フレームワークであるStructure Confidenceを提案する。
論文 参考訳(メタデータ) (2026-02-01T02:35:59Z) - Reliable Statistical Guarantees for Conformal Predictors with Small Datasets [3.062618143970653]
サーロゲートモデルは、科学と工学において、任意の複雑な入出力問題を近似することができる。
データに依存しない不確実性定量化のための標準的なアプローチは、共形予測(CP)を用いることである。
本稿では,1つの共形予測器のカバレッジに対して確率的情報を提供する新しい統計保証を提案する。
論文 参考訳(メタデータ) (2025-12-04T08:29:17Z) - HARMONY: Hidden Activation Representations and Model Output-Aware Uncertainty Estimation for Vision-Language Models [42.91752946934796]
不確実性推定は、モデル出力の信頼性の定量化において中心的な役割を果たす。
既存の確率に基づくUEアプローチの多くは、単一不確実性スコアにトークン確率を集約する出力確率分布に依存している。
本稿では,モデルアクティベーションにおける融合マルチモーダル情報とVLMの出力分布を協調的に活用する新しいUEフレームワークHARMONYを提案する。
論文 参考訳(メタデータ) (2025-10-25T05:45:18Z) - COIN: Uncertainty-Guarding Selective Question Answering for Foundation Models with Provable Risk Guarantees [51.5976496056012]
COINは、統計的に有効な閾値を校正し、質問毎に1つの生成された回答をフィルタリングする不確実性保護選択フレームワークである。
COINはキャリブレーションセット上で経験的誤差率を推定し、信頼区間法を適用して真誤差率に高い確率上界を確立する。
リスク管理におけるCOINの堅牢性,許容回答を維持するための強いテストタイムパワー,キャリブレーションデータによる予測効率を実証する。
論文 参考訳(メタデータ) (2025-06-25T07:04:49Z) - FactTest: Factuality Testing in Large Language Models with Finite-Sample and Distribution-Free Guarantees [41.78390564658645]
幻覚や非現実的コンテンツを生成するための大規模言語モデル(LLM)は、高い領域での信頼性を損なう。
FactTest は LLM が与えられた質問に対する正しい回答を確実に提供できるかどうかを統計的に評価する新しいフレームワークである。
本研究では,FactTestが幻覚を効果的に検出し,未知の疑問に答えることを禁じるモデルの能力を向上させることにより,40%以上の精度向上を実現していることを示す。
論文 参考訳(メタデータ) (2024-11-04T20:53:04Z) - Confidence Aware Learning for Reliable Face Anti-spoofing [52.23271636362843]
本稿では,その能力境界を意識した信頼認識顔アンチスプーフィングモデルを提案する。
各サンプルの予測中にその信頼性を推定する。
実験の結果,提案したCA-FASは予測精度の低いサンプルを効果的に認識できることがわかった。
論文 参考訳(メタデータ) (2024-11-02T14:29:02Z) - Measuring and Modeling Uncertainty Degree for Monocular Depth Estimation [50.920911532133154]
単分子深度推定モデル(MDE)の本質的な不適切さと順序感性は、不確かさの程度を推定する上で大きな課題となる。
本稿では,MDEモデルの不確かさを固有確率分布の観点からモデル化する。
新たなトレーニング正規化用語を導入することで、驚くほど単純な構成で、余分なモジュールや複数の推論を必要とせずに、最先端の信頼性で不確実性を推定できる。
論文 参考訳(メタデータ) (2023-07-19T12:11:15Z) - Reliability-Aware Prediction via Uncertainty Learning for Person Image
Retrieval [51.83967175585896]
UALは、データ不確実性とモデル不確実性を同時に考慮し、信頼性に配慮した予測を提供することを目的としている。
データ不確実性はサンプル固有のノイズを捕捉する」一方、モデル不確実性はサンプルの予測に対するモデルの信頼を表現している。
論文 参考訳(メタデータ) (2022-10-24T17:53:20Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。