論文の概要: Instruction Tuning with Human Curriculum
- arxiv url: http://arxiv.org/abs/2310.09518v2
- Date: Tue, 13 Feb 2024 18:40:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-14 19:19:52.410869
- Title: Instruction Tuning with Human Curriculum
- Title(参考訳): 人間カリキュラムによる授業チューニング
- Authors: Bruce W. Lee, Hyunsoo Cho, Kang Min Yoo
- Abstract要約: 本研究は,構造化認知学習方法論の統合による指導指導への新たなアプローチを提案する。
合成指導データ生成パイプラインには,各指導のトピックや認知的厳密さを詳述したメタデータが組み込まれている。
命令チューニング中、質問がより複雑な方法で提示されるように命令をキュレートする。
- 参考スコア(独自算出の注目度): 16.887569210540192
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In building instruction-tuned large language models (LLMs), the importance of
a deep understanding of human knowledge can be often overlooked by the
importance of instruction diversification. This research proposes a novel
approach to instruction tuning by integrating a structured cognitive learning
methodology that takes inspiration from the systematic progression and
cognitively stimulating nature of human education through two key steps. First,
our synthetic instruction data generation pipeline, designed with some
references to human educational frameworks, is enriched with meta-data
detailing topics and cognitive rigor for each instruction. Specifically, our
generation framework is infused with questions of varying levels of
rigorousness, inspired by Bloom's Taxonomy, a classic educational model for
structured curriculum learning. Second, during instruction tuning, we curate
instructions such that questions are presented in an increasingly complex
manner utilizing the information on question complexity and cognitive
rigorousness produced by our data generation pipeline. Our human-inspired
curriculum learning yields significant performance enhancements compared to
uniform sampling or round-robin, improving MMLU by 3.06 on LLaMA 2. We conduct
extensive experiments and find that the benefits of our approach are
consistently observed in eight other benchmarks. We hope that our work will
shed light on the post-training learning process of LLMs and its similarity
with their human counterpart.
- Abstract(参考訳): 命令調整型大規模言語モデル(llm)の構築において、人間の知識を深く理解することの重要性は、命令の多様化の重要性によってしばしば見過ごされる。
本研究は,人間教育の体系的発展と認知的刺激的性質から着想を得た構造化認知学習方法論を2つの重要なステップで統合し,新しい指導チューニング手法を提案する。
まず、人間の教育フレームワークを参考に設計した人工的な指導データ生成パイプラインに、各指導のトピックや認知的厳密さを詳述したメタデータが組み込まれている。
具体的には,構造的カリキュラム学習のための古典的な教育モデルであるbloomの分類法に触発された,厳密さのさまざまなレベルに関する質問に,世代フレームワークが融合している。
第2に,データ生成パイプラインが生み出す質問の複雑さと認知力の厳密さを活かして,質問がより複雑な方法で提示されるように指示を整理する。
LLaMA 2でMMLUを3.06改良し, 単体サンプリングやラウンドロビンと比較して, 有意な性能向上を実現した。
我々は広範な実験を行い、我々のアプローチの利点が他の8つのベンチマークで一貫して観察されていることを発見した。
LLMの訓練後の学習プロセスと、その人間との類似性に光を当てることを願っています。
関連論文リスト
- Informed Meta-Learning [65.268245109828]
メタラーニングとインシデントMLは、事前知識をMLパイプラインに組み込むための2つのアプローチとして際立っている。
本稿では,タスク間の知識共有の相補性を求める,メタラーニングのための新しいハイブリッドパラダイムを提案する。
観測騒音に対するデータ効率とロバスト性を改善する上で,情報メタラーニングの潜在的な利点を実証する。
論文 参考訳(メタデータ) (2024-02-25T15:08:37Z) - YODA: Teacher-Student Progressive Learning for Language Models [82.0172215948963]
本稿では,教師が指導するプログレッシブ・ラーニング・フレームワークであるYodaを紹介する。
モデルファインチューニングの有効性を向上させるために,教師の教育過程をエミュレートする。
実験の結果, YODAのデータによるLLaMA2のトレーニングにより, SFTは大幅に向上した。
論文 参考訳(メタデータ) (2024-01-28T14:32:15Z) - Generative Multi-Modal Knowledge Retrieval with Large Language Models [75.70313858231833]
マルチモーダル知識検索のための革新的なエンドツーエンド生成フレームワークを提案する。
我々のフレームワークは,大規模言語モデル(LLM)が仮想知識ベースとして効果的に機能するという事実を生かしている。
強いベースラインと比較すると,すべての評価指標に対して3.0%から14.6%の大幅な改善が見られた。
論文 参考訳(メタデータ) (2024-01-16T08:44:29Z) - On the Necessity of Metalearning: Learning Suitable Parameterizations
for Learning Processes [9.7902367664742]
まず,学習プロセスにおける帰納的バイアスの重要性に対処する。
次に、適切に定義された学習プロセスで終わるのに適したパラメータ化を選択することの重要性を確認します。
パラメータタイリングスキームの観点と、学習したモデルにおける普遍的な側面の出現について論じる。
論文 参考訳(メタデータ) (2023-12-31T16:24:03Z) - Comparing Reinforcement Learning and Human Learning using the Game of
Hidden Rules [0.41998444721319217]
これらのシステムの設計は、ヒューマンラーニング(HL)と強化ラーニング(RL)の両方のタスク指向の理解に依存している。
本稿では,HLとRLに対するタスク構造の影響の厳密な研究を支援するための学習環境を提案する。
本研究では,人間とRLアルゴリズムの性能差を示すタスク構造における実例実験を通して,そのような研究のための環境の有用性を実証する。
論文 参考訳(メタデータ) (2023-06-30T16:18:07Z) - LIBERO: Benchmarking Knowledge Transfer for Lifelong Robot Learning [64.55001982176226]
LIBEROは、ロボット操作のための生涯学習の新しいベンチマークである。
宣言的知識、手続き的知識、あるいは両者の混在を効率的に伝達する方法に焦点を当てる。
我々は、無限に多くのタスクを生成できる拡張可能な手続き生成パイプラインを開発した。
論文 参考訳(メタデータ) (2023-06-05T23:32:26Z) - Scaling Evidence-based Instructional Design Expertise through Large
Language Models [0.0]
本稿では,大規模言語モデル(LLM),特にGPT-4を教育設計の分野で活用することを検討する。
本研究は,エビデンスに基づく教育設計の専門知識のスケールアップに着目し,理論教育学と実践実践のギャップを埋めることを目的としている。
我々は,AIによるコンテンツ生成のメリットと限界について論じ,教育資料の品質確保に人的監督が必要であることを強調した。
論文 参考訳(メタデータ) (2023-05-31T17:54:07Z) - Hierarchical Optimization-Derived Learning [58.69200830655009]
我々は,最適化モデル構築の本質的な動作とそれに対応する学習過程を同時に研究するために,階層型ODL(Hyerarchical ODL)という新しいフレームワークを構築した。
これは、最適化と学習という2つの結合されたODLコンポーネントに対する最初の理論的保証である。
論文 参考訳(メタデータ) (2023-02-11T03:35:13Z) - Anti-Retroactive Interference for Lifelong Learning [65.50683752919089]
我々は脳のメタラーニングと連想機構に基づく生涯学習のパラダイムを設計する。
知識の抽出と知識の記憶という2つの側面から問題に取り組む。
提案した学習パラダイムが,異なるタスクのモデルを同じ最適に収束させることができることを理論的に分析した。
論文 参考訳(メタデータ) (2022-08-27T09:27:36Z) - Comparison and Analysis of New Curriculum Criteria for End-to-End ASR [10.698093106994804]
カリキュラム学習は、知識の組織的で構造化された同化が、より速いトレーニングとより良い理解を可能にする能力を持つという観察に基づいて構築される。
我々は,自動音声認識の文脈でカリキュラム学習を採用する。
トレーニングセットに構造を付加するため、外部ニューラルネットワークからのフィードバックを利用するか、モデル自体からのフィードバックを取り入れる複数のスコアリング関数を探索した。
論文 参考訳(メタデータ) (2022-08-10T06:56:58Z) - Towards a General Pre-training Framework for Adaptive Learning in MOOCs [37.570119583573955]
異種学習要素を適切に活用した,データ観測と学習スタイル分析に基づく統合フレームワークを提案する。
授業の構造やテキスト,知識は,学生の非逐次学習行動に本質的に整合性があり,モデリングに有用であることがわかった。
論文 参考訳(メタデータ) (2022-07-18T13:18:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。