論文の概要: CDS: Data Synthesis Method Guided by Cognitive Diagnosis Theory
- arxiv url: http://arxiv.org/abs/2501.07674v1
- Date: Mon, 13 Jan 2025 20:13:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-15 13:25:28.639327
- Title: CDS: Data Synthesis Method Guided by Cognitive Diagnosis Theory
- Title(参考訳): CDS:認知診断理論に基づくデータ合成法
- Authors: Haokun Zhao, Jinyi Han, Jiaqing Liang, Yanghua Xiao,
- Abstract要約: 本研究では,認知診断理論(CDT)を用いた大規模言語モデル(LLM)の精度評価と目標拡張を目的とした認知診断合成(CDS)手法を提案する。
複雑なタスクを個別の知識ポイントに分解することで、CDSはモデルの弱点をターゲットとするデータを正確に識別し、合成し、モデルの性能を向上させる。
このフレームワークは、知識点評価、合成、データ拡張、フィルタリングによって駆動される包括的なパイプラインを提案し、最適なシナリオにおいて最大11.12%の改善を達成し、モデルの数学的およびコーディング能力を大幅に改善する。
- 参考スコア(独自算出の注目度): 38.32540433374892
- License:
- Abstract: Large Language Models (LLMs) have demonstrated outstanding capabilities across various domains, but the increasing complexity of new challenges demands enhanced performance and adaptability. Traditional benchmarks, although comprehensive, often lack the granularity needed for detailed capability analysis. This study introduces the Cognitive Diagnostic Synthesis (CDS) method, which employs Cognitive Diagnosis Theory (CDT) for precise evaluation and targeted enhancement of LLMs. By decomposing complex tasks into discrete knowledge points, CDS accurately identifies and synthesizes data targeting model weaknesses, thereby enhancing the model's performance. This framework proposes a comprehensive pipeline driven by knowledge point evaluation, synthesis, data augmentation, and filtering, which significantly improves the model's mathematical and coding capabilities, achieving up to an 11.12% improvement in optimal scenarios.
- Abstract(参考訳): 大規模言語モデル(LLM)は、様々な領域にまたがる優れた機能を示しているが、新しい課題の複雑さが増すにつれ、パフォーマンスと適応性の向上が求められている。
従来のベンチマークは包括的ではあるが、詳細な機能分析に必要な粒度を欠いていることが多い。
本研究では,認知診断理論(CDT)を用いた認知診断合成法を提案する。
複雑なタスクを個別の知識ポイントに分解することで、CDSはモデルの弱点をターゲットとするデータを正確に識別し、合成し、モデルの性能を向上させる。
このフレームワークは、知識点評価、合成、データ拡張、フィルタリングによって駆動される包括的なパイプラインを提案し、最適なシナリオにおいて最大11.12%の改善を達成し、モデルの数学的およびコーディング能力を大幅に改善する。
関連論文リスト
- Enhancing Few-Shot Learning with Integrated Data and GAN Model Approaches [35.431340001608476]
本稿では,データ拡張とモデルファインチューニングを融合することで,少数ショット学習を向上するための革新的なアプローチを提案する。
薬物発見、ターゲット認識、悪意のあるトラフィック検出などの分野で、小さなサンプルデータによって引き起こされる課題に対処することを目的としている。
その結果,本研究で開発されたMhERGANアルゴリズムは,数発の学習に極めて有効であることが確認された。
論文 参考訳(メタデータ) (2024-11-25T16:51:11Z) - Advanced Persistent Threats (APT) Attribution Using Deep Reinforcement Learning [0.0]
マルウェアの帰属に対するDRLモデルの開発には、広範な研究、反復的なコーディング、多数の調整が含まれていた。
モデルは低い精度で苦労したが、アーキテクチャと学習アルゴリズムの永続的な調整により、精度は劇的に向上した。
トレーニングの終わりまでに、モデルは98%近い精度に達し、マルウェアの活動を正確に認識し、属性付けする強力な能力を示した。
論文 参考訳(メタデータ) (2024-10-15T10:10:33Z) - Adversarial Learning for Neural PDE Solvers with Sparse Data [4.226449585713182]
本研究では,ロバストトレーニングのためのシステムモデル拡張(Systematic Model Augmentation for Robust Training)という,ニューラルネットワークPDEの普遍的学習戦略を紹介する。
モデルの弱点に挑戦し改善することに集中することにより、SMARTはデータスカース条件下でのトレーニング中の一般化エラーを低減する。
論文 参考訳(メタデータ) (2024-09-04T04:18:25Z) - Unveiling the Flaws: Exploring Imperfections in Synthetic Data and Mitigation Strategies for Large Language Models [89.88010750772413]
大規模言語モデル(LLM)の学習における高品質なデータ不足問題に対する解決法として,合成データを提案する。
我々の研究は、Q-A(Q-A)ペア、一般的な合成データに関連するこれらの特定の欠陥を掘り下げ、これらの欠陥を軽減するための未学習技術に基づく方法を提案する。
我々の研究は、より堅牢で効率的なLLMトレーニングを促進することを目的として、合成データの効果的な利用に関する重要な洞察を得た。
論文 参考訳(メタデータ) (2024-06-18T08:38:59Z) - Unified Uncertainty Estimation for Cognitive Diagnosis Models [70.46998436898205]
本稿では,幅広い認知診断モデルに対する統一的不確実性推定手法を提案する。
診断パラメータの不確かさをデータ・アスペクトとモデル・アスペクトに分解する。
本手法は有効であり,認知診断の不確実性に関する有用な知見を提供することができる。
論文 参考訳(メタデータ) (2024-03-09T13:48:20Z) - Less is more: Ensemble Learning for Retinal Disease Recognition Under
Limited Resources [12.119196313470887]
本稿では,限られた資源で網膜疾患を認識できる新しいアンサンブル学習機構を提案する。
このメカニズムは、複数の事前訓練されたモデルからの洞察を活用し、その知識を網膜CT画像に転送し適応させる。
論文 参考訳(メタデータ) (2024-02-15T06:58:25Z) - GLUECons: A Generic Benchmark for Learning Under Constraints [102.78051169725455]
本研究では,自然言語処理とコンピュータビジョンの分野における9つのタスクの集合であるベンチマークを作成する。
外部知識を制約としてモデル化し、各タスクの制約のソースを特定し、これらの制約を使用するさまざまなモデルを実装します。
論文 参考訳(メタデータ) (2023-02-16T16:45:36Z) - Latent Variable Representation for Reinforcement Learning [131.03944557979725]
モデルに基づく強化学習のサンプル効率を改善するために、潜在変数モデルが学習、計画、探索をいかに促進するかは理論上、実証上、不明である。
状態-作用値関数に対する潜在変数モデルの表現ビューを提供する。これは、抽出可能な変分学習アルゴリズムと楽観主義/悲観主義の原理の効果的な実装の両方を可能にする。
特に,潜伏変数モデルのカーネル埋め込みを組み込んだUPB探索を用いた計算効率の良い計画アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-17T00:26:31Z) - A General Framework for Sample-Efficient Function Approximation in
Reinforcement Learning [132.45959478064736]
モデルベースとモデルフリー強化学習を統合した汎用フレームワークを提案する。
最適化に基づく探索のための分解可能な構造特性を持つ新しい推定関数を提案する。
本フレームワークでは,OPERA (Optimization-based Exploration with Approximation) という新しいサンプル効率アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-09-30T17:59:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。