論文の概要: Fine-Tuning Language Models to Know What They Know
- arxiv url: http://arxiv.org/abs/2602.02605v1
- Date: Mon, 02 Feb 2026 04:08:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:14.974693
- Title: Fine-Tuning Language Models to Know What They Know
- Title(参考訳): きめ細かいチューニング言語モデル - 彼らが知っていることを知るために
- Authors: Sangjun Park, Elliot Meyerson, Xin Qiu, Risto Miikkulainen,
- Abstract要約: 本研究は,メタ認知能力の$d_rmtype2'$をデュアルプロンプト法を用いて測定するフレームワークを提案する。
次に、モデルの内部知識をその明示的な振る舞いに結びつけるために、メタ認知アライメントのための進化戦略(ESMA)を導入する。
ESMAは、訓練されていない様々な設定にまたがる堅牢な一般化を示し、モデルが自身の知識を参照する能力を強化していることを示している。
- 参考スコア(独自算出の注目度): 17.81468268125168
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Metacognition is a critical component of intelligence, specifically regarding the awareness of one's own knowledge. While humans rely on shared internal memory for both answering questions and reporting their knowledge state, this dependency in LLMs remains underexplored. This study proposes a framework to measure metacognitive ability $d_{\rm{type2}}'$ using a dual-prompt method, followed by the introduction of Evolution Strategy for Metacognitive Alignment (ESMA) to bind a model's internal knowledge to its explicit behaviors. ESMA demonstrates robust generalization across diverse untrained settings, indicating a enhancement in the model's ability to reference its own knowledge. Furthermore, parameter analysis attributes these improvements to a sparse set of significant modifications.
- Abstract(参考訳): メタ認知は知性の重要な構成要素であり、特に自分の知識の認識についてである。
人間は質問への回答と知識状態の報告の両方に共通の内部記憶を頼っているが、LLMにおけるこの依存はいまだに未調査である。
本研究では,メタ認知能力を測定するためのフレームワークである$d_{\rm{type2}}'をデュアルプロンプト法を用いて提案し,モデルの内部知識をその明示的な振る舞いに結びつけるためのメタ認知アライメントのための進化戦略(ESMA)を導入する。
ESMAは、訓練されていない様々な設定にまたがる堅牢な一般化を示し、モデルが自身の知識を参照する能力を強化していることを示している。
さらに、パラメータ分析はこれらの改善を重要な修正のスパースセットに特化している。
関連論文リスト
- Adapting Like Humans: A Metacognitive Agent with Test-time Reasoning [38.92106966820126]
近年のビジョン・ランゲージ・モデル(VLM)は、知覚的推論能力が強いが、テスト時に新しいタスクに遭遇する際には、効率よく適応するのに苦労することが多い。
対照的に、人間は記憶を伴うメタ認知モデルを活用し、新しい課題に直面したとき、メタ認知制御による継続的な戦略改善を可能にする。
メタ認知的自己更新(メタ認知的自己更新)により、メタ認知的テストタイム推論(MCTR)は、モデルにメタ認知的自己更新(メタ認知的自己更新)を通じて、テスト時間中に学習し、適応し、改善する能力を備えたフレームワークである。
論文 参考訳(メタデータ) (2025-11-28T15:15:47Z) - Towards Meta-Cognitive Knowledge Editing for Multimodal LLMs [71.8547241246169]
本稿では,MLLMのメタ認知的知識編集能力を評価するための新しいベンチマークであるCogEditを紹介する。
本稿では,自己認識のためのメタ知識メモリを構築するフレームワークであるMINDを提案する。
論文 参考訳(メタデータ) (2025-09-06T13:26:04Z) - Automatically Advancing LLM Expertise in Technology Judgment [1.1269582666887323]
大規模言語モデル(LLM)は、科学、工学、革新のための中核的なツールになりつつある。
ますます難しい問題に答えられるという印象的な能力にもかかわらず、LLMが新しい課題に直面する際に真に自分の知識を使うかどうかは不明だ。
我々は、2015年以降の1300万のコンピュータサイエンス特許ペアのベンチマークを評価し、密度の高い技術ジャーゴンと戦略的に複雑な書き込みを特徴とする。
LLMはベンチマークに失敗することが多く、セマンティックに類似した特許の識別に苦慮している。
論文 参考訳(メタデータ) (2025-05-18T15:04:02Z) - Unveiling Knowledge Utilization Mechanisms in LLM-based Retrieval-Augmented Generation [77.10390725623125]
検索強化世代(RAG)は知識範囲の拡大に広く利用されている。
RAGは、オープンドメインの質問応答のような知識集約的なタスクを約束しているので、複雑なタスクやインテリジェントアシスタントへの幅広い応用は、その実用性をさらに進歩させてきた。
本稿では、RAGが内部(パラメトリック)知識と外部(検索)知識を統合する本質的なメカニズムを体系的に検討する。
論文 参考訳(メタデータ) (2025-05-17T13:13:13Z) - Do Large Language Models Know How Much They Know? [26.09437131644674]
大規模言語モデル (LLM) は高機能なシステムとして登場した。
インテリジェントシステムの望ましい属性は、自身の知識の範囲を認識する能力である。
このベンチマークは、モデルが過度の、不十分な、あるいは正確な量の情報をリコールするかどうかを評価する。
論文 参考訳(メタデータ) (2025-02-26T21:33:06Z) - A Comprehensive Study of Knowledge Editing for Large Language Models [82.65729336401027]
大規模言語モデル(LLM)は、人間のコミュニケーションを忠実に反映したテキストの理解と生成の素晴らしい能力を示している。
本稿では,知識編集の問題を定義し,最先端アプローチの包括的レビューを行う。
我々は,代表的知識編集アプローチの総合的評価のための新しいベンチマークであるKnowEditを紹介した。
論文 参考訳(メタデータ) (2024-01-02T16:54:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。