論文の概要: Language Models are Pragmatic Speakers
- arxiv url: http://arxiv.org/abs/2305.17760v1
- Date: Sun, 28 May 2023 16:04:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-30 16:45:18.392143
- Title: Language Models are Pragmatic Speakers
- Title(参考訳): 言語モデルは実用的な話者です
- Authors: Khanh Nguyen
- Abstract要約: 本稿では,有界プラグマティック話者と呼ばれる確率論的認知モデルについて定式化する。
特に,人間のフィードバックから強化学習を施した大規模言語モデルについて述べる。
- 参考スコア(独自算出の注目度): 3.6702509833426613
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: How do language models "think"? This paper formulates a probabilistic
cognitive model called bounded pragmatic speaker, which can characterize the
operation of different variants of language models. In particular, we show that
large language models fine-tuned with reinforcement learning from human
feedback (Ouyang et al., 2022) implements a model of thought that conceptually
resembles a fast-and-slow model (Kahneman, 2011). We discuss the limitations of
reinforcement learning from human feedback as a fast-and-slow model of thought
and propose directions for extending this framework. Overall, our work
demonstrates that viewing language models through the lens of cognitive
probabilistic modeling can offer valuable insights for understanding,
evaluating, and developing them.
- Abstract(参考訳): 言語モデルはどのように考えるのか?
本稿では,言語モデルの多変量操作を特徴付ける有界プラグマティック話者と呼ばれる確率論的認知モデルを定式化する。
特に,人間のフィードバックから強化学習を施した大規模言語モデル(Ouyang et al., 2022)では,概念的には高速・低速モデルに類似した思考モデルが実装されている(Kahneman, 2011)。
本稿では,人間フィードバックからの強化学習の限界を思考の素早いモデルとして議論し,この枠組みを拡張するための方向性を提案する。
全体として、我々の研究は、認知確率論的モデリングのレンズを通して言語モデルを見ることが、言語モデルを理解し、評価し、開発するための貴重な洞察を提供することを示した。
関連論文リスト
- Trustworthy Alignment of Retrieval-Augmented Large Language Models via Reinforcement Learning [84.94709351266557]
検索強化に関して,言語モデルの信頼性に焦点をあてる。
検索強化言語モデルには,文脈的知識とパラメトリック的知識の両方に応じて応答を供給できる本質的な能力があると考えられる。
言語モデルと人間の嗜好の整合性に着想を得て,検索強化言語モデルを外部証拠にのみ依存する状況に整合させるための第一歩を踏み出した。
論文 参考訳(メタデータ) (2024-10-22T09:25:21Z) - Conceptual and Unbiased Reasoning in Language Models [98.90677711523645]
本稿では,抽象的質問に対する概念的推論をモデルに強制する,新しい概念化フレームワークを提案する。
既存の大規模言語モデルは概念的推論では不足しており、様々なベンチマークでは9%から28%に低下している。
ハイレベルな抽象的推論が不偏で一般化可能な意思決定の鍵となるので、モデルがどのように改善できるかについて議論する。
論文 参考訳(メタデータ) (2024-03-30T00:53:53Z) - Interpreting Pretrained Language Models via Concept Bottlenecks [55.47515772358389]
事前訓練された言語モデル(PLM)は、様々な自然言語処理タスクにおいて大きな進歩を遂げてきた。
ブラックボックスの性質による解釈可能性の欠如は、責任ある実装に課題をもたらす。
本研究では,人間にとって理解しやすい高レベルで有意義な概念を用いて,PLMを解釈する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T20:41:18Z) - From Word Models to World Models: Translating from Natural Language to
the Probabilistic Language of Thought [124.40905824051079]
言語インフォームド・シンキングのための計算フレームワークである「構成」を合理的に提案する。
我々は、自然言語から確率論的思考言語への文脈感応的なマッピングとして、言語の意味を定式化する。
LLMは、現実的に適切な言語的意味をキャプチャする文脈依存翻訳を生成することができることを示す。
認知的なモチベーションを持つシンボリックモジュールを統合するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2023-06-22T05:14:00Z) - Turning large language models into cognitive models [0.0]
大規模言語モデルが認知モデルに変換可能であることを示す。
これらのモデルは人間の行動の正確な表現を提供し、2つの意思決定領域において従来の認知モデルよりも優れている。
これらの結果は、大規模で事前学習されたモデルが一般的な認知モデルに適応できることを示唆している。
論文 参考訳(メタデータ) (2023-06-06T18:00:01Z) - Human-like Few-Shot Learning via Bayesian Reasoning over Natural
Language [7.11993673836973]
人間は幅広い概念を効率的に学習することができる。
我々はその意味で人間らしくなろうとする帰納的学習のモデルを導入する。
論文 参考訳(メタデータ) (2023-06-05T11:46:45Z) - Improving Factuality and Reasoning in Language Models through Multiagent
Debate [95.10641301155232]
複数の言語モデルインスタンスが共通の最終回答に到達するために、複数のラウンドで個別の応答と推論プロセスを提案し、議論する言語応答を改善するための補完的なアプローチを提案する。
以上の結果から,本手法は様々なタスクにおける数学的・戦略的推論を著しく向上させることが示唆された。
我々のアプローチは、既存のブラックボックスモデルに直接適用され、調査するすべてのタスクに対して、同じ手順とプロンプトを使用することができる。
論文 参考訳(メタデータ) (2023-05-23T17:55:11Z) - Chain of Hindsight Aligns Language Models with Feedback [62.68665658130472]
我々は,その極性に関係なく,任意の形式のフィードバックから学習し,最適化が容易な新しい手法であるChain of Hindsightを提案する。
我々は、あらゆる種類のフィードバックを文のシーケンスに変換し、それをモデルを微調整するために使用する。
そうすることで、モデルはフィードバックに基づいて出力を生成するように訓練され、負の属性やエラーを特定し修正する。
論文 参考訳(メタデータ) (2023-02-06T10:28:16Z) - Uncovering Constraint-Based Behavior in Neural Models via Targeted
Fine-Tuning [9.391375268580806]
本研究は,言語知識が不明な言語内での競合する言語プロセスを示す。
人間の行動は言語間で類似していることがわかったが、モデル行動の言語間差異は見いだされている。
以上の結果から,言語における言語的制約と相対的ランクの双方をモデルが学習する必要があることが示唆された。
論文 参考訳(メタデータ) (2021-06-02T14:52:11Z) - Probabilistic Predictions of People Perusing: Evaluating Metrics of
Language Model Performance for Psycholinguistic Modeling [0.8668211481067458]
我々は、Goodkind と Bicknell による主張を再評価し、言語モデルが読み出し時間をモデル化する能力は、その難易度の線形関数であると主張した。
提案手法は,Long Short-Term Memory Network, Transformer, および事前学習モデルに必ずしも適用されないことを示す。
論文 参考訳(メタデータ) (2020-09-08T19:12:06Z) - Probing Neural Language Models for Human Tacit Assumptions [36.63841251126978]
人間はステレオタイプ的暗黙の仮定(STA)または一般的な概念についての命題的信念を持っている。
大規模テキストコーパスキャプチャSTAで訓練された最近のニューラルネットワーク言語モデルを評価するために,単語予測プロンプトの診断セットを構築した。
論文 参考訳(メタデータ) (2020-04-10T01:48:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。