論文の概要: Cognitive-Level Adaptive Generation via Capability-Aware Retrieval and Style Adaptation
- arxiv url: http://arxiv.org/abs/2509.19336v1
- Date: Mon, 15 Sep 2025 10:11:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-25 20:53:19.486669
- Title: Cognitive-Level Adaptive Generation via Capability-Aware Retrieval and Style Adaptation
- Title(参考訳): 能力を考慮した検索とスタイル適応による認知レベル適応生成
- Authors: Qingsong Wang, Tao Wu, Wang Lin, Yueying Feng, Gongsheng Yuan, Chang Yao, Jingyuan Chen,
- Abstract要約: 大規模言語モデル(LLM)は、オープンな生成タスクにおいて強力なパフォーマンスを示している。
彼らはしばしば、異なる認知能力を持つユーザーにコンテンツを適用するのに苦労し、私たちが認知的ミスアライメントと呼ぶ現象につながります。
本稿では,知識複雑性とプレゼンテーションスタイルをユーザ認知と整合させるための認知レベルアライメントフレームワーク(CLAF)を提案する。
- 参考スコア(独自算出の注目度): 36.622949794875076
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) have demonstrated strong performance in open-ended generation tasks. However, they often struggle to adapt content to users with differing cognitive capacities, leading to a phenomenon we term cognitive misalignment. This issue arises in two forms: knowledge-level misalignment, where content is too complex or too simplistic relative to user understanding, and presentation-style misalignment, where the structure or tone hinders effective comprehension. To address these challenges, we propose the Cognitive-Level Alignment Framework (CLAF), a general-purpose generation framework that aligns both knowledge complexity and presentation style with user cognition. CLAF integrates a capability-aware retrieval module based on a hierarchical knowledge graph and a style optimization module guided by Bloom's taxonomy and preference learning. Additionally, a knowledge-controllable generation component ensures consistency and relevance throughout the output. To support training and evaluation, we construct SCALE, a cognitively annotated dataset containing responses at multiple comprehension levels per query. Empirical results show that CLAF enhances the adaptability and informativeness of LLM outputs across a range of user profiles, offering a robust solution to cognitive-level alignment in real-world applications.
- Abstract(参考訳): 大規模言語モデル(LLM)は、オープンな生成タスクにおいて強力なパフォーマンスを示している。
しかし、認知能力の異なるユーザーにコンテンツを適用するのに苦労することが多く、私たちが認知的不適応と呼ぶ現象に繋がる。
この問題は、コンテンツが複雑すぎるか単純すぎるという知識レベルのミスアライメントと、その構造やトーンが効果的な理解を妨げるプレゼンテーションスタイルのミスアライメントの2つの形式で生じる。
これらの課題に対処するために,知識複雑性とプレゼンテーションスタイルをユーザ認知に整合させる汎用生成フレームワークである認知レベルアライメントフレームワーク(CLAF)を提案する。
CLAFは、階層的な知識グラフに基づく機能認識検索モジュールと、ブルームの分類学と嗜好学習によってガイドされるスタイル最適化モジュールを統合している。
さらに、知識制御可能な生成コンポーネントは、出力全体の一貫性と関連性を保証する。
トレーニングと評価を支援するために,複数の問合せレベルの応答を含む認知的注釈付きデータセットであるSCALEを構築した。
実証的な結果から、CLAFはLLM出力の適応性と情報性を高め、現実のアプリケーションにおける認知レベルのアライメントに対する堅牢なソリューションを提供する。
関連論文リスト
- Towards LLM-Empowered Knowledge Tracing via LLM-Student Hierarchical Behavior Alignment in Hyperbolic Space [24.868649493405528]
知識追跡(KT)は、教育における継続的な学習状態のモニタリングを通じて、学生の概念を診断する。
既存の方法は、IDベースのシーケンスや浅いテキスト機能に依存している。
本稿では,大規模言語モデルハイパーボリックな知識追跡フレームワークを提案する。
論文 参考訳(メタデータ) (2026-02-26T11:17:31Z) - Consistency-Aware Editing for Entity-level Unlearning in Language Models [53.522931419965424]
本稿では,エンティティレベルのアンラーニングのための新しい一貫性対応編集(CAE)フレームワークを提案する。
CAEは、その属性、関係、および敵のパラフレーズを含む、ターゲットエンティティに関連する多様なプロンプトの集合を集約する。
次に、一貫性レギュレータによってガイドされる低ランクの更新を共同で学習し、プロンプトをまたいだ編集方向を調整する。
論文 参考訳(メタデータ) (2025-12-19T15:18:07Z) - Representation Interventions Enable Lifelong Unstructured Knowledge Control [54.86207134539453]
大規模言語モデル(LLM)は、しばしば誤った、または時代遅れのコンテンツを生成します。その知識を効率的に正確に更新し、コストのかかる再トレーニングなしにするというのは、大きな課題です。
本稿では,モデル表現空間内の介入として知識制御を扱う,堅牢でスケーラブルな手法であるRILKEを紹介する。
トレーニング中、RILKEはパラフレーズロバストと編集局所化モジュールを学び、低次元のサブスペースへの更新を制限し、クロスディジット干渉を最小限に抑える。
推論において、クエリ適応ルータは、モデル生成をガイドする適切なモジュールを選択する。
論文 参考訳(メタデータ) (2025-11-25T22:15:00Z) - CLLMRec: LLM-powered Cognitive-Aware Concept Recommendation via Semantic Alignment and Prerequisite Knowledge Distillation [3.200298153814017]
大規模オープンオンラインコース(MOOC)の成長は、概念が不可欠であるパーソナライズされた学習に重大な課題をもたらす。
既存のアプローチは通常、概念的関係を捉えるために異種情報ネットワークや知識グラフに依存し、学習者の認知状態を評価するための知識追跡モデルと組み合わせている。
本稿では,CLLMRecを提案する。CLLMRecは,大規模言語モデルを利用してパーソナライズされた概念レコメンデーションを生成する新しいフレームワークである。
論文 参考訳(メタデータ) (2025-11-21T08:37:39Z) - CAM: A Constructivist View of Agentic Memory for LLM-Based Reading Comprehension [55.29309306566238]
現在のLarge Language Models (LLM) は、長文文書を解釈する際に圧倒的な情報量に直面している。
この課題は、バニラLSMを自律的な読み出しエージェントに高めることができる凝集性メモリモジュールの必須性を高める。
我々はジャン・ピアジェの構成主義理論(Constructivist Theory)からインスピレーションを得て、エージェントメモリの3つの特性(構造化スキーマ、フレキシブルな同化、動的調節)を表現した。
論文 参考訳(メタデータ) (2025-10-07T02:16:30Z) - Federated Cross-Modal Style-Aware Prompt Generation [2.4472081831862655]
FedCSAPはコンテキスト対応のプロンプトトークンを生成する。
私たちのフレームワークは、クライアント固有のスタイルインジケータとともに、CLIPのビジョンエンコーダの低、中、高レベルの機能を活用しています。
論文 参考訳(メタデータ) (2025-08-17T15:23:45Z) - An Empirical Study of Federated Prompt Learning for Vision Language Model [89.2963764404892]
本稿では,言語プロンプト学習(VPT)と視覚プロンプト学習(VLM)の行動的差異を系統的に検討する。
我々は、FPL(Federated Prompt Learning)の堅牢性を評価するために、クライアントスケール、集約戦略、即時長といった様々なFLと迅速な構成の影響を評価する。
論文 参考訳(メタデータ) (2025-05-29T03:09:15Z) - DesCLIP: Robust Continual Learning via General Attribute Descriptions for VLM-Based Visual Recognition [27.429425225892675]
視覚言語モデル(VLM)の継続的な学習は、下流のタスクやデータセットの拡張に漸進的に適応するために、モーダルな事前訓練された知識を活用することに焦点を当てている。
既存の研究はしばしば、一般的な知識と専門知識の潜伏した関係を見越して、下流のタスクで特定のクラステキストと視覚的特徴を結びつけることに焦点を当てている。
汎用属性(GA)記述を利用して,特定のクラスオブジェクトの理解を導くDesCLIPを提案する。
論文 参考訳(メタデータ) (2025-02-02T01:06:02Z) - Compositional Zero-Shot Learning with Contextualized Cues and Adaptive Contrastive Training [17.893694262999826]
本稿では,コンポジションゼロショット学習(CZSL)における属性とオブジェクト(ULAO)の理解とリンクに関する新しい枠組みを紹介する。
ULAOは2つの革新的なモジュールから構成されている。理解属性とオブジェクト(UAO)モジュールは、逐次原始予測によって原始的理解を改善し、認識されたオブジェクトを属性分類の文脈的ヒントとして活用する。
Linking Attributes and Objects (LAO)モジュールは、調整されたハードネガティブ生成と適応的損失調整を含む新しいコントラスト学習戦略を通じて、属性オブジェクトのリンク理解を改善する。
論文 参考訳(メタデータ) (2024-12-10T03:41:20Z) - Composite Learning Units: Generalized Learning Beyond Parameter Updates to Transform LLMs into Adaptive Reasoners [0.0]
連続学習が可能な学習者へ推論器を変換する複合学習ユニット(CLU)を導入する。
CLUは、動的知識リポジトリの保守と進化を可能にするアーキテクチャ上に構築されている。
我々は暗号推論タスクを通じてCLUの有効性を実証し、フィードバックを通じて理解を継続的に進化させ、隠れた変換規則を明らかにする。
論文 参考訳(メタデータ) (2024-10-09T02:27:58Z) - HPT++: Hierarchically Prompting Vision-Language Models with Multi-Granularity Knowledge Generation and Improved Structure Modeling [39.14392943549792]
本稿では,階層型プロンプトチューニング(HPT)と呼ばれる新しい手法を提案し,構造化知識と従来の言語知識の同時モデリングを可能にする。
低レベルの即時学習のためのエンティティと属性間のペアワイズ関連をキャプチャする、関係誘導型アテンションモジュールを導入する。
全体意味論をモデル化する高レベルかつグローバルレベルのプロンプトを取り入れることで、提案された階層構造は、クロスレベルな相互リンクを偽造し、より複雑で長期的な関係を扱うようにモデルに権限を与える。
論文 参考訳(メタデータ) (2024-08-27T06:50:28Z) - A Comprehensive Study of Knowledge Editing for Large Language Models [82.65729336401027]
大規模言語モデル(LLM)は、人間のコミュニケーションを忠実に反映したテキストの理解と生成の素晴らしい能力を示している。
本稿では,知識編集の問題を定義し,最先端アプローチの包括的レビューを行う。
我々は,代表的知識編集アプローチの総合的評価のための新しいベンチマークであるKnowEditを紹介した。
論文 参考訳(メタデータ) (2024-01-02T16:54:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。