論文の概要: Less is more: Probabilistic reduction is best explained by small-scale predictability measures
- arxiv url: http://arxiv.org/abs/2512.23659v2
- Date: Mon, 05 Jan 2026 22:28:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-07 13:14:29.349226
- Title: Less is more: Probabilistic reduction is best explained by small-scale predictability measures
- Title(参考訳): より少ない: 確率的還元は小規模の予測可能性尺度によって最もよく説明される
- Authors: Cassandra L. Jacobs, Andrés Buxó-Lugo, Anna K. Taylor, Marie Leopold-Hooke,
- Abstract要約: 本稿では,言語モデルの確率と認知現象の関係について検討する。
確率的減少を観測するために全発話が必要であるかどうかを考察し,n-gram表現が計画の認知単位として十分であることを示す。
- 参考スコア(独自算出の注目度): 11.116592863739577
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The primary research questions of this paper center on defining the amount of context that is necessary and/or appropriate when investigating the relationship between language model probabilities and cognitive phenomena. We investigate whether whole utterances are necessary to observe probabilistic reduction and demonstrate that n-gram representations suffice as cognitive units of planning.
- Abstract(参考訳): 本論文の主な研究課題は,言語モデル確率と認知現象の関係を調査する際に必要かつ適切である文脈の量を定義することである。
確率的減少を観測するために全発話が必要であるかどうかを考察し,n-gram表現が計画の認知単位として十分であることを示す。
関連論文リスト
- Reasoning Under Uncertainty: Exploring Probabilistic Reasoning Capabilities of LLMs [47.20307724127832]
我々は,大規模言語モデル(LLM)の推論能力について,初めて包括的な研究を行った。
我々は,3つの注意深く設計されたタスク,モード識別,最大推定,サンプル生成のモデルを評価する。
経験的評価を通じて、より小さなモデルと大きなモデルの間に明らかなパフォーマンスギャップがあることを実証する。
論文 参考訳(メタデータ) (2025-09-12T22:58:05Z) - On Generating Monolithic and Model Reconciling Explanations in Probabilistic Scenarios [46.24262986854885]
本稿では,確率論的モノリシックな説明とモデル整合的な説明を生成するための新しいフレームワークを提案する。
モノリシックな説明のために,本手法は確率論的論理を利用して不確実性を統合し,説明の確率を増大させる。
モデル整合性の説明のために,モデル整合性問題の論理に基づく変種を拡張し,確率的人間モデルを考慮したフレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-29T16:07:31Z) - Auxiliary task demands mask the capabilities of smaller language models [2.938889003635811]
タスク要求が大きい評価手法は、要求の少ない評価よりも性能が低いことを示す。
この結果から,LM性能はインテリジェンスの直接的な表示として解釈するべきではないことが示唆された。
論文 参考訳(メタデータ) (2024-04-03T02:56:52Z) - Predictive Coding beyond Correlations [59.47245250412873]
このようなアルゴリズムのうちの1つは、予測符号化と呼ばれ、因果推論タスクを実行することができるかを示す。
まず、予測符号化の推論過程における簡単な変化が、因果グラフを再利用したり再定義したりすることなく、介入を計算できることを示す。
論文 参考訳(メタデータ) (2023-06-27T13:57:16Z) - Advancing Counterfactual Inference through Nonlinear Quantile Regression [77.28323341329461]
ニューラルネットワークで実装された効率的かつ効果的な対実的推論のためのフレームワークを提案する。
提案手法は、推定された反事実結果から見つからないデータまでを一般化する能力を高める。
複数のデータセットで実施した実証実験の結果は、我々の理論的な主張に対する説得力のある支持を提供する。
論文 参考訳(メタデータ) (2023-06-09T08:30:51Z) - A Low Rank Promoting Prior for Unsupervised Contrastive Learning [108.91406719395417]
提案手法は,従来の低階の促進をコントラスト学習の枠組みに効果的に組み込む新しい確率的グラフィカルモデルを構築する。
我々の仮説は、同じインスタンスクラスに属するすべてのサンプルが、小さな次元の同じ部分空間上にあることを明示的に要求する。
実証的な証拠は、提案アルゴリズムが複数のベンチマークにおける最先端のアプローチを明らかに上回っていることを示している。
論文 参考訳(メタデータ) (2021-08-05T15:58:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。