論文の概要: Ultra Strong Machine Learning: Teaching Humans Active Learning Strategies via Automated AI Explanations
- arxiv url: http://arxiv.org/abs/2509.00961v1
- Date: Sun, 31 Aug 2025 19:04:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.479452
- Title: Ultra Strong Machine Learning: Teaching Humans Active Learning Strategies via Automated AI Explanations
- Title(参考訳): 超強力な機械学習:AIによる自動説明を通して人間にアクティブな学習戦略を教える
- Authors: Lun Ai, Johannes Langer, Ute Schmid, Stephen Muggleton,
- Abstract要約: LENSは,自然言語による機械学習論理プログラムの説明を自動化するために,記号型プログラム合成と大言語モデル(LLM)を組み合わせたニューロシンボリックな手法である。
LENSは、手作りの説明テンプレートをスケーラブルな自動生成に置き換えることで、以前のUSMLアプローチの鍵となる制限に対処する。
以上の結果から,LLMの総合的な応答は,学習支援ではなく,より単純な問題でユーザを圧倒する可能性が示唆された。
- 参考スコア(独自算出の注目度): 2.530461847957792
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ultra Strong Machine Learning (USML) refers to symbolic learning systems that not only improve their own performance but can also teach their acquired knowledge to quantifiably improve human performance. In this work, we present LENS (Logic Programming Explanation via Neural Summarisation), a neuro-symbolic method that combines symbolic program synthesis with large language models (LLMs) to automate the explanation of machine-learned logic programs in natural language. LENS addresses a key limitation of prior USML approaches by replacing hand-crafted explanation templates with scalable automated generation. Through systematic evaluation using multiple LLM judges and human validation, we demonstrate that LENS generates superior explanations compared to direct LLM prompting and hand-crafted templates. To investigate whether LENS can teach transferable active learning strategies, we carried out a human learning experiment across three related domains. Our results show no significant human performance improvements, suggesting that comprehensive LLM responses may overwhelm users for simpler problems rather than providing learning support. Our work provides a solid foundation for building effective USML systems to support human learning. The source code is available on: https://github.com/lun-ai/LENS.git.
- Abstract(参考訳): ウルトラ・ストロング・機械学習(USML)は、自身のパフォーマンスを向上するだけでなく、獲得した知識を定量的に人間のパフォーマンスを改善するために教えることのできるシンボリック・ラーニングシステムである。
本稿では,LENS(Logic Programming Explanation via Neural Summarisation)について述べる。LENS(Logic Programming Explanation via Neural Summarisation)は,記号型プログラム合成と大規模言語モデル(LLM)を組み合わせたニューラルシンボリックな手法で,自然言語による機械学習論理プログラムの説明を自動化する。
LENSは、手作りの説明テンプレートをスケーラブルな自動生成に置き換えることで、以前のUSMLアプローチの鍵となる制限に対処する。
複数のLLM判定器と人間の検証器を用いて系統的な評価を行い、LENSが直接LLMプロンプトや手作りテンプレートと比較して優れた説明を生成することを示した。
LENSが伝達可能な能動学習戦略を学べるかどうかを検討するため,3つの領域にわたる人間による学習実験を行った。
以上の結果から,LLMの総合的な応答は,学習支援ではなく,より単純な問題でユーザを圧倒する可能性が示唆された。
我々の研究は、人間の学習を支援する効果的なUSMLシステムを構築するための確かな基盤を提供する。
ソースコードは、https://github.com/lun-ai/LENS.git.comで入手できる。
関連論文リスト
- Leveraging Large Language Models for Explainable Activity Recognition in Smart Homes: A Critical Evaluation [0.29998889086656577]
XAIは、スマートホームにおけるセンサによる日常生活活動(ADL)認識に適用されている。
本稿では,XAIとLarge Language Models(LLM)を組み合わせたセンサを用いたADL認識の可能性について検討する。
論文 参考訳(メタデータ) (2025-03-20T18:23:03Z) - Large Language Models are Interpretable Learners [53.56735770834617]
本稿では,Large Language Models(LLM)とシンボルプログラムの組み合わせによって,表現性と解釈可能性のギャップを埋めることができることを示す。
自然言語プロンプトを持つ事前訓練されたLLMは、生の入力を自然言語の概念に変換することができる解釈可能な膨大なモジュールセットを提供する。
LSPが学んだ知識は自然言語の記述と記号規則の組み合わせであり、人間(解釈可能)や他のLLMに容易に転送できる。
論文 参考訳(メタデータ) (2024-06-25T02:18:15Z) - Verbalized Machine Learning: Revisiting Machine Learning with Language Models [63.10391314749408]
言語化機械学習(VML)の枠組みを紹介する。
VMLはパラメータ空間を人間の解釈可能な自然言語に制限する。
我々は,VMLの有効性を実証的に検証し,VMLがより強力な解釈可能性を実現するためのステップストーンとして機能することを期待する。
論文 参考訳(メタデータ) (2024-06-06T17:59:56Z) - LLM A*: Human in the Loop Large Language Models Enabled A* Search for Robotics [2.9053316583692146]
本研究は,ロボットなどの移動体エージェントの(パス)計画において,Large Language Models(LLM)がいかに役立つかに焦点を当てる。
LLM A* という新しいフレームワークは LLM のコモンセンスを活用することを目的としており、ユーティリティ最適化 A* は少数ショットに近い経路計画を容易にするために提案されている。
このアプローチでは、人間からのフィードバックを受け取り、計画プロセス全体を(ホワイトボックスのように)人間に透明にします。
論文 参考訳(メタデータ) (2023-12-04T10:37:58Z) - Accelerating Reinforcement Learning of Robotic Manipulations via
Feedback from Large Language Models [21.052532074815765]
本稿では,Lafite-RL (Language Agent feedback Interactive Reinforcement Learning) フレームワークを紹介する。
RLエージェントは、Large Language Modelsのタイムリーフィードバックを利用して、ロボットタスクを効率的に学習することができる。
学習効率と成功率の両方でベースラインを上回ります。
論文 参考訳(メタデータ) (2023-11-04T11:21:38Z) - Democratizing Reasoning Ability: Tailored Learning from Large Language
Model [97.4921006089966]
そこで我々は,そのような推論能力をより小さなLMに蒸留する,適切な学習手法を提案する。
対話型多ラウンド学習パラダイムを構築することにより,理科教員としてのLLMの可能性を活用する。
より小さなLMの推論可能性を活用するために,学生が自作ミスから学習する動機付けを目的とした自己回帰学習を提案する。
論文 参考訳(メタデータ) (2023-10-20T07:50:10Z) - Self-directed Machine Learning [86.3709575146414]
教育科学において、自己指導型学習は受動的教師指導型学習よりも効果的であることが示されている。
本稿では,自己指向機械学習(SDML)の基本概念を紹介し,SDMLのためのフレームワークを提案する。
提案したSDMLプロセスは,自己タスク選択,自己データ選択,自己モデル選択,自己最適化戦略選択,自己評価基準選択の恩恵を受ける。
論文 参考訳(メタデータ) (2022-01-04T18:32:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。