論文の概要: Fine-Tuning Language Models to Know What They Know
- arxiv url: http://arxiv.org/abs/2602.02605v1
- Date: Mon, 02 Feb 2026 04:08:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:14.974693
- Title: Fine-Tuning Language Models to Know What They Know
- Title(参考訳): きめ細かいチューニング言語モデル - 彼らが知っていることを知るために
- Authors: Sangjun Park, Elliot Meyerson, Xin Qiu, Risto Miikkulainen,
- Abstract要約: 本研究は,メタ認知能力の$d_rmtype2'$をデュアルプロンプト法を用いて測定するフレームワークを提案する。
次に、モデルの内部知識をその明示的な振る舞いに結びつけるために、メタ認知アライメントのための進化戦略(ESMA)を導入する。
ESMAは、訓練されていない様々な設定にまたがる堅牢な一般化を示し、モデルが自身の知識を参照する能力を強化していることを示している。
- 参考スコア(独自算出の注目度): 17.81468268125168
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Metacognition is a critical component of intelligence, specifically regarding the awareness of one's own knowledge. While humans rely on shared internal memory for both answering questions and reporting their knowledge state, this dependency in LLMs remains underexplored. This study proposes a framework to measure metacognitive ability $d_{\rm{type2}}'$ using a dual-prompt method, followed by the introduction of Evolution Strategy for Metacognitive Alignment (ESMA) to bind a model's internal knowledge to its explicit behaviors. ESMA demonstrates robust generalization across diverse untrained settings, indicating a enhancement in the model's ability to reference its own knowledge. Furthermore, parameter analysis attributes these improvements to a sparse set of significant modifications.
- Abstract(参考訳): メタ認知は知性の重要な構成要素であり、特に自分の知識の認識についてである。
人間は質問への回答と知識状態の報告の両方に共通の内部記憶を頼っているが、LLMにおけるこの依存はいまだに未調査である。
本研究では,メタ認知能力を測定するためのフレームワークである$d_{\rm{type2}}'をデュアルプロンプト法を用いて提案し,モデルの内部知識をその明示的な振る舞いに結びつけるためのメタ認知アライメントのための進化戦略(ESMA)を導入する。
ESMAは、訓練されていない様々な設定にまたがる堅牢な一般化を示し、モデルが自身の知識を参照する能力を強化していることを示している。
さらに、パラメータ分析はこれらの改善を重要な修正のスパースセットに特化している。
関連論文リスト
- Know More, Know Clearer: A Meta-Cognitive Framework for Knowledge Augmentation in Large Language Models [80.21037538996553]
本稿では,異なる介入とアライメントによる信頼度向上のための新しいメタ認知フレームワークを提案する。
我々の手法は、知識空間をマスターされた、混乱した、行方不明な領域に分割し、対象とする知識拡大を導くために、内部認知信号を活用する。
我々のフレームワークは、知識能力の向上だけでなく、未知の知識をよりよく区別する認知行動の育成においても、その合理性を検証し、強いベースラインを一貫して上回ります。
論文 参考訳(メタデータ) (2026-02-13T15:07:35Z) - Adapting Like Humans: A Metacognitive Agent with Test-time Reasoning [38.92106966820126]
近年のビジョン・ランゲージ・モデル(VLM)は、知覚的推論能力が強いが、テスト時に新しいタスクに遭遇する際には、効率よく適応するのに苦労することが多い。
対照的に、人間は記憶を伴うメタ認知モデルを活用し、新しい課題に直面したとき、メタ認知制御による継続的な戦略改善を可能にする。
メタ認知的自己更新(メタ認知的自己更新)により、メタ認知的テストタイム推論(MCTR)は、モデルにメタ認知的自己更新(メタ認知的自己更新)を通じて、テスト時間中に学習し、適応し、改善する能力を備えたフレームワークである。
論文 参考訳(メタデータ) (2025-11-28T15:15:47Z) - Evidence for Limited Metacognition in LLMs [2.538209532048867]
LLMにおけるメタ認知能力を定量的に評価するための新しい手法を提案する。
非ヒト動物におけるメタ認知の研究からインスピレーションを得て、我々のアプローチは、モデルによる自己申告を行い、その代わりに、モデルが内部状態の知識を戦略的に展開できる程度にテストする。
論文 参考訳(メタデータ) (2025-09-25T20:30:15Z) - Towards Meta-Cognitive Knowledge Editing for Multimodal LLMs [71.8547241246169]
本稿では,MLLMのメタ認知的知識編集能力を評価するための新しいベンチマークであるCogEditを紹介する。
本稿では,自己認識のためのメタ知識メモリを構築するフレームワークであるMINDを提案する。
論文 参考訳(メタデータ) (2025-09-06T13:26:04Z) - Automatically Advancing LLM Expertise in Technology Judgment [1.1269582666887323]
大規模言語モデル(LLM)は、科学、工学、革新のための中核的なツールになりつつある。
ますます難しい問題に答えられるという印象的な能力にもかかわらず、LLMが新しい課題に直面する際に真に自分の知識を使うかどうかは不明だ。
我々は、2015年以降の1300万のコンピュータサイエンス特許ペアのベンチマークを評価し、密度の高い技術ジャーゴンと戦略的に複雑な書き込みを特徴とする。
LLMはベンチマークに失敗することが多く、セマンティックに類似した特許の識別に苦慮している。
論文 参考訳(メタデータ) (2025-05-18T15:04:02Z) - Unveiling Knowledge Utilization Mechanisms in LLM-based Retrieval-Augmented Generation [77.10390725623125]
検索強化世代(RAG)は知識範囲の拡大に広く利用されている。
RAGは、オープンドメインの質問応答のような知識集約的なタスクを約束しているので、複雑なタスクやインテリジェントアシスタントへの幅広い応用は、その実用性をさらに進歩させてきた。
本稿では、RAGが内部(パラメトリック)知識と外部(検索)知識を統合する本質的なメカニズムを体系的に検討する。
論文 参考訳(メタデータ) (2025-05-17T13:13:13Z) - Do Large Language Models Know How Much They Know? [26.09437131644674]
大規模言語モデル (LLM) は高機能なシステムとして登場した。
インテリジェントシステムの望ましい属性は、自身の知識の範囲を認識する能力である。
このベンチマークは、モデルが過度の、不十分な、あるいは正確な量の情報をリコールするかどうかを評価する。
論文 参考訳(メタデータ) (2025-02-26T21:33:06Z) - How Do LLMs Acquire New Knowledge? A Knowledge Circuits Perspective on Continual Pre-Training [92.88889953768455]
大きな言語モデル(LLM)は、どのようにして新しい知識を内部化するかを理解する上で、重大なギャップに直面します。
知識記憶と処理を容易にする計算サブグラフを同定する。
論文 参考訳(メタデータ) (2025-02-16T16:55:43Z) - Does Knowledge Localization Hold True? Surprising Differences Between Entity and Relation Perspectives in Language Models [20.157061521694096]
本研究では,知識編集による実体的知識と関係的知識の相違について検討する。
実体的知識と関係的知識の差異をさらに解明するために,関係的知識が事前学習されたモデルにどのように格納されているかを調べるために因果解析を用いる。
この洞察は、言語モデルにおける知識記憶の多面的な性質を強調し、これらのモデル内で特定の種類の知識を操作する複雑さを浮き彫りにしている。
論文 参考訳(メタデータ) (2024-09-01T05:09:11Z) - Knowledge Mechanisms in Large Language Models: A Survey and Perspective [88.51320482620679]
本稿では,知識利用と進化を含む新しい分類法から知識メカニズムの解析をレビューする。
LLMが学んだ知識、パラメトリック知識の脆弱性の理由、そして解決が難しい潜在的な暗黒知識(仮説)について論じる。
論文 参考訳(メタデータ) (2024-07-22T06:15:59Z) - A Comprehensive Study of Knowledge Editing for Large Language Models [82.65729336401027]
大規模言語モデル(LLM)は、人間のコミュニケーションを忠実に反映したテキストの理解と生成の素晴らしい能力を示している。
本稿では,知識編集の問題を定義し,最先端アプローチの包括的レビューを行う。
我々は,代表的知識編集アプローチの総合的評価のための新しいベンチマークであるKnowEditを紹介した。
論文 参考訳(メタデータ) (2024-01-02T16:54:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。