論文の概要: From Model Choice to Model Belief: Establishing a New Measure for LLM-Based Research
- arxiv url: http://arxiv.org/abs/2512.23184v1
- Date: Mon, 29 Dec 2025 03:50:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-30 22:37:30.399988
- Title: From Model Choice to Model Belief: Establishing a New Measure for LLM-Based Research
- Title(参考訳): モデル選択からモデル信念へ:LLM研究の新しい尺度を確立する
- Authors: Hongshen Sun, Juanjuan Zhang,
- Abstract要約: 大規模言語モデル(LLM)は、人間の振る舞いをシミュレートするためにますます使われている。
LLMの出力を単一のデータポイントとして扱うことは、LLMの確率的性質に固有の情報を過小評価する。
本稿では, LLMのトークンレベルの確率から導かれる「モデル信念」を紹介し, 定式化する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) are increasingly used to simulate human behavior, but common practices to use LLM-generated data are inefficient. Treating an LLM's output ("model choice") as a single data point underutilizes the information inherent to the probabilistic nature of LLMs. This paper introduces and formalizes "model belief," a measure derived from an LLM's token-level probabilities that captures the model's belief distribution over choice alternatives in a single generation run. The authors prove that model belief is asymptotically equivalent to the mean of model choices (a non-trivial property) but forms a more statistically efficient estimator, with lower variance and a faster convergence rate. Analogous properties are shown to hold for smooth functions of model belief and model choice often used in downstream applications. The authors demonstrate the performance of model belief through a demand estimation study, where an LLM simulates consumer responses to different prices. In practical settings with limited numbers of runs, model belief explains and predicts ground-truth model choice better than model choice itself, and reduces the computation needed to reach sufficiently accurate estimates by roughly a factor of 20. The findings support using model belief as the default measure to extract more information from LLM-generated data.
- Abstract(参考訳): 大規模言語モデル(LLM)は人間の振舞いをシミュレートするために使われることが多いが、LLM生成データを使用する一般的なプラクティスは非効率である。
LLMの出力(モデル選択)を単一のデータポイントとして扱うことは、LLMの確率的性質に固有の情報を未利用にする。
本稿では, LLMのトークンレベル確率から導かれる「モデル信念」を1世代毎に導入し, 定式化する。
著者らは、モデル信念はモデル選択(非自明な性質)の平均と漸近的に等価であるが、より統計的に効率的な推定器を形成し、より分散度が低く、収束速度が速いことを証明している。
アナログ特性は、モデル信念の滑らかな関数と、下流のアプリケーションでよく使用されるモデル選択に成り立つ。
著者らは、LLMが異なる価格に対する消費者の反応をシミュレートする需要推定研究を通じて、モデル信念の性能を実証した。
実行回数が限られている現実的な環境では、モデル信念は、モデル選択自体よりも基礎的なモデル選択を説明・予測し、およそ20倍の精度で十分な精度の見積もりに到達するのに必要な計算を削減します。
これらの知見は, LLM生成データからより多くの情報を抽出するために, モデル信念をデフォルト尺度として用いることを支援する。
関連論文リスト
- Model Correlation Detection via Random Selection Probing [62.093777777813756]
既存の類似性に基づく手法では、モデルパラメータにアクセスしたり、しきい値なしでスコアを生成する必要がある。
本稿では,モデル相関検出を統計的テストとして定式化する仮説テストフレームワークであるランダム選択探索(RSP)を紹介する。
RSPは相関の証拠を定量化する厳密なp-値を生成する。
論文 参考訳(メタデータ) (2025-09-29T01:40:26Z) - Model Utility Law: Evaluating LLMs beyond Performance through Mechanism Interpretable Metric [99.56567010306807]
大規模言語モデル(LLM)は、学術、産業、そして日々のアプリケーションに欠かせないものになっている。
大規模言語モデル (LLM) 時代における評価の課題の1つは一般化問題である。
従来の性能スコアを補完するメカニズムの解釈可能性向上指標であるモデル利用指数(MUI)を提案する。
論文 参考訳(メタデータ) (2025-04-10T04:09:47Z) - Latent Thought Models with Variational Bayes Inference-Time Computation [52.63299874322121]
ラテント思考モデル(LTM)は、ラテント空間における明示的な事前モデルに従う明示的なラテント思考ベクトルを包含する。
LTMは自己回帰モデルや離散拡散モデルよりも優れたサンプルおよびパラメータ効率を示す。
論文 参考訳(メタデータ) (2025-02-03T17:50:34Z) - Induced Model Matching: Restricted Models Help Train Full-Featured Models [1.4963011898406866]
フル機能の(大きな)モデルをトレーニングする際に、制限された機能を使用した非常に正確な(小さな)予測モデルが利用可能であるシナリオを検討する。
制限されたモデルは、フルモデルにどのように役立つのか?
誘導モデルマッチング(IMM)と呼ばれる手法を導入する。
IMMは、大きなモデルのコンテキスト制限された、あるいは誘導されたバージョンと制限されたモデルとを一致させる。
論文 参考訳(メタデータ) (2024-02-19T20:21:09Z) - Learning from aggregated data with a maximum entropy model [73.63512438583375]
我々は,観測されていない特徴分布を最大エントロピー仮説で近似することにより,ロジスティック回帰と類似した新しいモデルが,集約データからのみ学習されることを示す。
我々は、この方法で学習したモデルが、完全な非凝集データでトレーニングされたロジスティックモデルに匹敵するパフォーマンスを達成することができるという、いくつかの公開データセットに関する実証的な証拠を提示する。
論文 参考訳(メタデータ) (2022-10-05T09:17:27Z) - A Statistical-Modelling Approach to Feedforward Neural Network Model Selection [0.8287206589886881]
フィードフォワードニューラルネットワーク(FNN)は非線形回帰モデルと見なすことができる。
FNNのためのベイズ情報基準(BIC)を用いて,新しいモデル選択法を提案する。
サンプル外性能よりもBICを選択することは、真のモデルを回復する確率を増大させる。
論文 参考訳(メタデータ) (2022-07-09T11:07:04Z) - Finding Materialized Models for Model Reuse [20.97918143614477]
物質化モデルクエリは、モデル再利用の初期モデルとして最も適切な物質化モデルを見つけることを目的としている。
提案するTextsfMMQは,オープンソースフリーで,汎用的で,効率的で,効果的なモデルクエリフレームワークである。
実用的なモデル再利用ワークロードの実験では、textsfMMQの有効性と効率が示されている。
論文 参考訳(メタデータ) (2021-10-13T06:55:44Z) - Model-based metrics: Sample-efficient estimates of predictive model
subpopulation performance [11.994417027132807]
健康状態の表示、診断、予測のために現在一般的に開発されている機械学習モデル$-$は、様々なパフォーマンス指標で評価される。
サブ集団のパフォーマンスメトリクスは、通常、そのサブグループのデータのみを使用して計算されるため、より小さなグループに対する分散推定が高くなる。
本稿では,予測モデルスコアの条件分布を記述した評価モデル$-$を用いて,モデルベース計量(MBM)の推定値を生成する。
論文 参考訳(メタデータ) (2021-04-25T19:06:34Z) - Model-based Policy Optimization with Unsupervised Model Adaptation [37.09948645461043]
本研究では,不正確なモデル推定による実データとシミュレーションデータのギャップを埋めて,より良いポリシ最適化を実現する方法について検討する。
本稿では,教師なしモデル適応を導入したモデルベース強化学習フレームワークAMPOを提案する。
提案手法は,一連の連続制御ベンチマークタスクにおけるサンプル効率の観点から,最先端の性能を実現する。
論文 参考訳(メタデータ) (2020-10-19T14:19:42Z) - VAE-LIME: Deep Generative Model Based Approach for Local Data-Driven
Model Interpretability Applied to the Ironmaking Industry [70.10343492784465]
モデル予測だけでなく、その解釈可能性も、プロセスエンジニアに公開する必要があります。
LIMEに基づくモデルに依存しない局所的解釈可能性ソリューションが最近出現し、元の手法が改良された。
本稿では, 燃焼炉で生成する高温金属の温度を推定するデータ駆動型モデルの局所的解釈可能性に関する新しいアプローチ, VAE-LIMEを提案する。
論文 参考訳(メタデータ) (2020-07-15T07:07:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。