論文の概要: Self-directed Machine Learning
- arxiv url: http://arxiv.org/abs/2201.01289v1
- Date: Tue, 4 Jan 2022 18:32:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-05 13:40:40.933518
- Title: Self-directed Machine Learning
- Title(参考訳): 自己指向型機械学習
- Authors: Wenwu Zhu, Xin Wang and Pengtao Xie
- Abstract要約: 教育科学において、自己指導型学習は受動的教師指導型学習よりも効果的であることが示されている。
本稿では,自己指向機械学習(SDML)の基本概念を紹介し,SDMLのためのフレームワークを提案する。
提案したSDMLプロセスは,自己タスク選択,自己データ選択,自己モデル選択,自己最適化戦略選択,自己評価基準選択の恩恵を受ける。
- 参考スコア(独自算出の注目度): 86.3709575146414
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conventional machine learning (ML) relies heavily on manual design from
machine learning experts to decide learning tasks, data, models, optimization
algorithms, and evaluation metrics, which is labor-intensive, time-consuming,
and cannot learn autonomously like humans. In education science, self-directed
learning, where human learners select learning tasks and materials on their own
without requiring hands-on guidance, has been shown to be more effective than
passive teacher-guided learning. Inspired by the concept of self-directed human
learning, we introduce the principal concept of Self-directed Machine Learning
(SDML) and propose a framework for SDML. Specifically, we design SDML as a
self-directed learning process guided by self-awareness, including internal
awareness and external awareness. Our proposed SDML process benefits from self
task selection, self data selection, self model selection, self optimization
strategy selection and self evaluation metric selection through self-awareness
without human guidance. Meanwhile, the learning performance of the SDML process
serves as feedback to further improve self-awareness. We propose a mathematical
formulation for SDML based on multi-level optimization. Furthermore, we present
case studies together with potential applications of SDML, followed by
discussing future research directions. We expect that SDML could enable
machines to conduct human-like self-directed learning and provide a new
perspective towards artificial general intelligence.
- Abstract(参考訳): 従来の機械学習(ML)は、学習タスク、データ、モデル、最適化アルゴリズム、評価メトリクスを決定するために、機械学習の専門家による手動設計に大きく依存している。
教育科学において、人間学習者が自力で学習タスクや教材を選択できるセルフディレクティブ学習は、受動的な教師主導学習よりも効果的であることが示されている。
自己指向型機械学習の概念に触発されて,自己指向型機械学習(SDML)の基本概念を導入し,SDMLのためのフレームワークを提案する。
具体的には,sdmlを自己認識と外部認知を含む自己認識に基づく自己指向学習プロセスとして設計する。
提案したSDMLプロセスは,自己タスク選択,自己データ選択,自己モデル選択,自己最適化戦略選択,自己評価基準選択の恩恵を受けることができる。
一方、SDMLプロセスの学習性能は、自己認識をさらに改善するためのフィードバックとなる。
マルチレベル最適化に基づくSDMLの数学的定式化を提案する。
さらに,SDMLの応用の可能性とともに事例研究を行い,今後の研究方向性について論じる。
SDMLは、機械が人間のような自己指向学習を実行し、人工知能への新たな視点を提供することを期待している。
関連論文リスト
- KBAlign: Efficient Self Adaptation on Specific Knowledge Bases [75.78948575957081]
大規模言語モデル(LLM)は通常、知識材料を瞬時に活用するために、検索強化世代に依存している。
本稿では,知識ベースを含む下流タスクへの効率的な適応を目的としたKBAlignを提案する。
提案手法は,Q&Aペアやリビジョン提案などの自己注釈付きデータを用いて反復学習を行い,モデルが知識内容を効率的に把握できるようにする。
論文 参考訳(メタデータ) (2024-11-22T08:21:03Z) - Human-In-The-Loop Machine Learning for Safe and Ethical Autonomous Vehicles: Principles, Challenges, and Opportunities [33.853994070508485]
我々は、カリキュラム学習(CL)、ヒューマン・イン・ザ・ループ強化学習(HITL-RL)、アクティブ・ラーニング(AL)、倫理的原則に焦点を当てる。
CLでは、人間の専門家が単純なタスクから始めて、より難しいタスクへと徐々に進むことで、MLモデルを体系的に訓練する。
HITL-RLは報酬形成、アクションインジェクション、対話型学習といった技術を通じて人間の入力を組み込むことで、RLプロセスを大幅に強化する。
ALは、人間の監視でラベル付けする必要がある特定のインスタンスをターゲットにすることで、アノテーションプロセスを合理化する。
論文 参考訳(メタデータ) (2024-08-22T17:02:29Z) - LLMs Could Autonomously Learn Without External Supervision [36.36147944680502]
大規模言語モデル(LLM)は、伝統的に人間の注釈付きデータセットと事前定義されたトレーニング目標に結び付けられてきた。
本稿では,LLMのための自律学習手法を提案する。
本手法は, LLMに対して, 文章と直接対話して自己学習を行う能力を与える。
論文 参考訳(メタデータ) (2024-06-02T03:36:37Z) - Into the Unknown: Self-Learning Large Language Models [0.0]
モデルに未知の原子知識を特定するために,未知の点 (PiU) という概念を導入する。
LLMの自己学習能力を評価するための評価指標を開発した。
論文 参考訳(メタデータ) (2024-02-14T12:56:58Z) - Democratizing Reasoning Ability: Tailored Learning from Large Language
Model [97.4921006089966]
そこで我々は,そのような推論能力をより小さなLMに蒸留する,適切な学習手法を提案する。
対話型多ラウンド学習パラダイムを構築することにより,理科教員としてのLLMの可能性を活用する。
より小さなLMの推論可能性を活用するために,学生が自作ミスから学習する動機付けを目的とした自己回帰学習を提案する。
論文 参考訳(メタデータ) (2023-10-20T07:50:10Z) - SELF: Self-Evolution with Language Feedback [68.6673019284853]
SELF(Self-Evolution with Language Feedback)は、大規模言語モデルを進化させる新しいアプローチである。
LLMは、人間の学習プロセスと同様、自己回帰を通じて自己改善を可能にする。
数学および一般タスクにおける実験により,SELFは人間の介入なしにLLMの能力を高めることができることが示された。
論文 参考訳(メタデータ) (2023-10-01T00:52:24Z) - Empowering Private Tutoring by Chaining Large Language Models [87.76985829144834]
本研究は,最先端の大規模言語モデル(LLM)を活用した,本格的な知的チューリングシステムの開発を探求する。
このシステムは、相互に接続された3つのコアプロセス(相互作用、反射、反応)に分けられる。
各プロセスは LLM ベースのツールと動的に更新されたメモリモジュールによって実装される。
論文 参考訳(メタデータ) (2023-09-15T02:42:03Z) - Stabilizing Contrastive RL: Techniques for Robotic Goal Reaching from
Offline Data [101.43350024175157]
自己指導型学習は、制御戦略を学ぶのに必要な人間のアノテーションとエンジニアリングの労力を減らす可能性がある。
我々の研究は、強化学習(RL)自体が自己監督的な問題であることを示す先行研究に基づいている。
コントラスト学習に基づく自己教師付きRLアルゴリズムは,実世界の画像に基づくロボット操作タスクを解くことができることを示す。
論文 参考訳(メタデータ) (2023-06-06T01:36:56Z) - Towards Model-informed Precision Dosing with Expert-in-the-loop Machine
Learning [0.0]
モデル学習ループに人的専門家を取り入れることで、モデル学習を加速し、解釈可能性を向上させるMLフレームワークを検討する。
本稿では,データアノテーションのコストが高い学習問題に対処することを目的とした,新たなヒューマン・イン・ザ・ループMLフレームワークを提案する。
精度測定への応用により,本手法はデータから解釈可能なルールを学習し,専門家の作業負荷を低減できる可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-28T03:45:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。