論文の概要: KA2L: A Knowledge-Aware Active Learning Framework for LLMs
- arxiv url: http://arxiv.org/abs/2603.17566v1
- Date: Wed, 18 Mar 2026 10:16:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-19 18:32:57.639096
- Title: KA2L: A Knowledge-Aware Active Learning Framework for LLMs
- Title(参考訳): KA2L - LLMのための知識対応アクティブラーニングフレームワーク
- Authors: Haoxuan Yin, Bojian Liu, Chen Tang, Yangfan Wang, Lian Yan, Jingchi Jiang,
- Abstract要約: 本研究では,大規模言語モデル(LLM)によるドメイン固有知識理解の深度について検討する。
本稿では,無知な質問を潜時空間分析によって構築するための知識認識型アクティブラーニングフレームワークを提案する。
その結果、KA2Lは2つのオープンドメインと1つの垂直ドメインデータセットに対して、アノテーションとコストを50%削減するだけでなく、大幅に削減できることが示唆された。
- 参考スコア(独自算出の注目度): 11.702131167960923
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fine-tuning large language models (LLMs) with high-quality knowledge has been shown to enhance their performance effectively. However, there is a paucity of research on the depth of domain-specific knowledge comprehension by LLMs and the application of targeted active learning to improve their expertise. To address this gap, we introduce the Knowledge-Aware Active Learning (KA2L) framework. This framework assesses LLMs' mastery of specific knowledge points to aid in constructing unanswerable or unknowable questions through latent space analysis. This active learning strategy enhances training efficiency by focusing on knowledge the model has yet to master, thereby minimizing redundancy in learning already acquired information. This study innovatively employs a knowledge distribution probing technique to examine the hidden states of specific Transformer layers and identify the distribution of known and unknown knowledge within the LLM. Additionally, a hidden-state decoding method is proposed to generate numerous unknown questions in natural language from the latent knowledge space. In our experiments, we selected nine open-source LLMs to validate the effectiveness of the proposed framework. Results indicate that KA2L not only significantly reduces 50% annotation and computation costs across two open-domain and one vertical-domain dataset but also achieves better performance, offering valuable insights into active learning strategies for LLMs. The code is available at https://anonymous.4open.science/r/KA2L-F15C.
- Abstract(参考訳): 高品質な知識を持つ微調整型大規模言語モデル(LLM)は、その性能を効果的に向上することが示されている。
しかし、LLMによるドメイン固有の知識理解の深みについての研究や、その専門性を改善するために対象とするアクティブラーニングの応用について、多くの研究がなされている。
このギャップに対処するため、我々はKnowledge-Aware Active Learning (KA2L)フレームワークを紹介します。
このフレームワークはLLMの特定の知識ポイントの熟達度を評価し、潜時空間解析を通じて解決不可能または不可解な質問を構築するのに役立つ。
このアクティブな学習戦略は、モデルがまだ習得していない知識に焦点をあてることで、トレーニング効率を向上させる。
本研究では,特定のトランスフォーマー層の隠れ状態を調べ,LLM内の未知の知識の分布を特定するために,知識分布探索手法を革新的に活用する。
さらに,隠れ状態復号法を提案し,潜在知識空間から未知の疑問を自然言語で生成する。
実験では,提案フレームワークの有効性を検証するため,9つのオープンソースLCMを選択した。
その結果、KA2Lは2つのオープンドメインと1つの垂直ドメインデータセットにまたがるアノテーションと計算コストを50%削減するだけでなく、性能も向上し、LLMのアクティブな学習戦略に関する貴重な洞察を提供することがわかった。
コードはhttps://anonymous.4open.science/r/KA2L-F15Cで公開されている。
関連論文リスト
- Unveiling Knowledge Utilization Mechanisms in LLM-based Retrieval-Augmented Generation [77.10390725623125]
検索強化世代(RAG)は知識範囲の拡大に広く利用されている。
RAGは、オープンドメインの質問応答のような知識集約的なタスクを約束しているので、複雑なタスクやインテリジェントアシスタントへの幅広い応用は、その実用性をさらに進歩させてきた。
本稿では、RAGが内部(パラメトリック)知識と外部(検索)知識を統合する本質的なメカニズムを体系的に検討する。
論文 参考訳(メタデータ) (2025-05-17T13:13:13Z) - Enhancing LLM Knowledge Learning through Generalization [73.16975077770765]
我々は,LLMが様々な言い換えの文脈に与えられた同じ事実的知識トークンを継続的に予測する能力は,質問応答によってその知識を抽出する能力と正の相関性を示す。
そこで本稿では,LLMの知識獲得能力を高めるための2つの戦略を提案する。
論文 参考訳(メタデータ) (2025-03-05T17:56:20Z) - KaLM: Knowledge-aligned Autoregressive Language Modeling via Dual-view Knowledge Graph Contrastive Learning [74.21524111840652]
本稿では、textitKnowledge-aligned Language Modeling アプローチである textbfKaLM を提案する。
明示的な知識アライメントと暗黙的な知識アライメントという共同目的を通じて、KG知識と整合するように、自己回帰的な大規模言語モデルを微調整する。
特に,本手法は知識駆動型タスクの評価において顕著な性能向上を実現している。
論文 参考訳(メタデータ) (2024-12-06T11:08:24Z) - InfuserKI: Enhancing Large Language Models with Knowledge Graphs via Infuser-Guided Knowledge Integration [58.61492157691623]
知識を統合する手法が開発され、外部モジュールを通してLLMをドメイン固有の知識グラフに拡張した。
本研究は,未知の知識をLLMに効率的に統合することで,未知の知識を不要に重複させるという,新たな問題に焦点をあてる。
新しい知識を導入するリスクは、既存の知識を忘れることである。
論文 参考訳(メタデータ) (2024-02-18T03:36:26Z) - Investigating the Factual Knowledge Boundary of Large Language Models with Retrieval Augmentation [109.8527403904657]
大規模言語モデル(LLM)は,その知識に対する信頼度が低く,内部知識と外部知識の衝突をうまく扱えないことを示す。
検索の強化は、LLMの知識境界に対する認識を高める効果的なアプローチであることが証明されている。
本稿では,文書を動的に活用するための簡易な手法を提案する。
論文 参考訳(メタデータ) (2023-07-20T16:46:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。