論文の概要: Generative Large Language Models for Knowledge Representation: A Systematic Review of Concept Map Generation
- arxiv url: http://arxiv.org/abs/2509.14554v1
- Date: Thu, 18 Sep 2025 02:36:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-19 17:26:53.031463
- Title: Generative Large Language Models for Knowledge Representation: A Systematic Review of Concept Map Generation
- Title(参考訳): 知識表現のための生成型大規模言語モデル:概念マップ生成の体系的レビュー
- Authors: Xiaoming Zhai,
- Abstract要約: 生成型大規模言語モデル(LLM)の台頭により,概念地図による知識表現を自動化する新たな機会が開かれた。
本総説では, LLM を用いた概念マップ生成に関する新たな研究の体系化について述べる。
人間のループシステム、弱い教師付き学習モデル、微調整されたドメイン固有LLM、素早いエンジニアリングによる事前訓練されたLLM、知識ベースを統合するハイブリッドシステム、シンボルと統計ツールを組み合わせたモジュラーフレームワークである。
- 参考スコア(独自算出の注目度): 1.163826615891678
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The rise of generative large language models (LLMs) has opened new opportunities for automating knowledge representation through concept maps, a long-standing pedagogical tool valued for fostering meaningful learning and higher-order thinking. Traditional construction of concept maps is labor-intensive, requiring significant expertise and time, limiting their scalability in education. This review systematically synthesizes the emerging body of research on LLM-enabled concept map generation, focusing on two guiding questions: (a) What methods and technical features of LLMs are employed to construct concept maps? (b) What empirical evidence exists to validate their educational utility? Through a comprehensive search across major databases and AI-in-education conference proceedings, 28 studies meeting rigorous inclusion criteria were analyzed using thematic synthesis. Findings reveal six major methodological categories: human-in-the-loop systems, weakly supervised learning models, fine-tuned domain-specific LLMs, pre-trained LLMs with prompt engineering, hybrid systems integrating knowledge bases, and modular frameworks combining symbolic and statistical tools. Validation strategies ranged from quantitative metrics (precision, recall, F1-score, semantic similarity) to qualitative evaluations (expert review, learner feedback). Results indicate LLM-generated maps hold promise for scalable, adaptive, and pedagogically relevant knowledge visualization, though challenges remain regarding validity, interpretability, multilingual adaptability, and classroom integration. Future research should prioritize interdisciplinary co-design, empirical classroom trials, and alignment with instructional practices to realize their full educational potential.
- Abstract(参考訳): ジェネレーティブな大規模言語モデル(LLM)の台頭は、意味のある学習と高次思考を育む上で価値のある長年の教育ツールである概念マップを通じて知識表現を自動化する新たな機会を開いた。
伝統的な概念地図の構築は労働集約的であり、重要な専門知識と時間を必要とし、教育のスケーラビリティを制限している。
本総説では, LLM を用いた概念マップ生成に関する新たな研究の体系化について述べる。
(a)概念地図の構築にLLMの手法と技術的特徴が用いられているか。
b)教育上の有用性を検証するための実証的証拠は何か。
主要なデータベースを網羅した検索とAI教育会議の手続きを通じて、厳密な包摂基準を満たす28の研究をテーマ合成を用いて分析した。
人間のループシステム、弱い教師付き学習モデル、微調整されたドメイン固有LLM、素早いエンジニアリングによる事前訓練されたLLM、知識ベースを統合するハイブリッドシステム、シンボルと統計ツールを組み合わせたモジュラーフレームワークである。
検証戦略は、定量的指標(精度、リコール、F1スコア、意味的類似性)から質的評価(エキスパートレビュー、学習者フィードバック)まで様々であった。
結果から,LLM生成マップは,妥当性,解釈可能性,多言語適応性,教室統合に関する課題は残るものの,拡張性,適応性,教育的な知識視覚化を約束するものであることが示唆された。
今後の研究は、学際的共同設計、実証的な教室の試行、教育的潜在能力を実現するための教育実践との整合性を優先すべきである。
関連論文リスト
- Multi-Agent Learning Path Planning via LLMs [10.288666777827578]
本研究では,大規模言語モデル(LLM)を利用した新しいマルチエージェント学習経路計画フレームワークを提案する。
このフレームワークは、学習者分析エージェント、経路計画エージェント、反射エージェントの3つのタスク固有エージェントを含む。
7つのLCMを用いてMOOCXデータセット上で行った実験により、MALPPはパス品質、知識シーケンスの整合性、認知負荷の整合性において、ベースラインモデルよりも著しく優れていた。
論文 参考訳(メタデータ) (2026-01-24T07:13:08Z) - CLLMRec: LLM-powered Cognitive-Aware Concept Recommendation via Semantic Alignment and Prerequisite Knowledge Distillation [3.200298153814017]
大規模オープンオンラインコース(MOOC)の成長は、概念が不可欠であるパーソナライズされた学習に重大な課題をもたらす。
既存のアプローチは通常、概念的関係を捉えるために異種情報ネットワークや知識グラフに依存し、学習者の認知状態を評価するための知識追跡モデルと組み合わせている。
本稿では,CLLMRecを提案する。CLLMRecは,大規模言語モデルを利用してパーソナライズされた概念レコメンデーションを生成する新しいフレームワークである。
論文 参考訳(メタデータ) (2025-11-21T08:37:39Z) - Simulating Students with Large Language Models: A Review of Architecture, Mechanisms, and Role Modelling in Education with Generative AI [0.8703455323398351]
大規模言語モデル(LLM)を用いた教育環境における学生の行動のシミュレートに関する研究のレビュー
LLMをベースとしたエージェントが学習者の古型をエミュレートし、指導的な入力に反応し、マルチエージェントの教室シナリオ内で相互作用する能力に関する現在の証拠を示す。
本稿では,カリキュラム開発,教育評価,教員養成におけるシステムの役割について検討する。
論文 参考訳(メタデータ) (2025-11-08T17:23:13Z) - A Survey on Generative Recommendation: Data, Model, and Tasks [55.36322811257545]
ジェネレーティブ・レコメンデーションは、差別的なスコアではなく、世代としてのレコメンデーションを再認識する。
この調査は、データ、モデル、タスク次元にまたがる統合された三部構成のフレームワークを通じて包括的な調査を提供する。
世界知識の統合、自然言語理解、推論能力、スケーリング法則、創造的生成の5つの主要な利点を特定します。
論文 参考訳(メタデータ) (2025-10-31T04:02:58Z) - LLM-empowered knowledge graph construction: A survey [0.0]
知識グラフは長い間、構造化知識表現と推論の基盤として機能してきた。
LLM(Large Language Models)の出現により、KGsの構築は、ルールベースおよび統計パイプラインから言語駆動および生成フレームワークへの、新たなパラダイムシフトに入った。
論文 参考訳(メタデータ) (2025-10-23T08:43:28Z) - Explain Before You Answer: A Survey on Compositional Visual Reasoning [74.27548620675748]
構成的視覚推論は、マルチモーダルAIにおける重要な研究フロンティアとして登場した。
本調査は,トップ会場(CVPR,ICCV,NeurIPS,ICML,ACLなど)から260以上の論文を体系的にレビューする。
次に60以上のベンチマークとそれに対応するメトリクスを、基底精度、連鎖忠実性、高分解能知覚などの次元に沿って探索する。
論文 参考訳(メタデータ) (2025-08-24T11:01:51Z) - ELMES: An Automated Framework for Evaluating Large Language Models in Educational Scenarios [23.549720214649476]
大規模言語モデル(LLM)は、多くの新しいアプリケーションシナリオを生成する、教育の変革的な機会を提供する。
現在のベンチマークは、教育能力よりも一般知能を主に測定している。
本研究では,オープンソースの自動評価フレームワークであるEMMESを紹介した。
論文 参考訳(メタデータ) (2025-07-27T15:20:19Z) - Chain of Methodologies: Scaling Test Time Computation without Training [77.85633949575046]
大規模言語モデル(LLM)は、トレーニングデータに対する詳細な洞察が不十分なため、複雑な推論タスクに苦しむことが多い。
本稿では,人間の方法論的洞察を統合することで構造的思考を強化するCoM(Chain of the CoM)フレームワークを紹介する。
論文 参考訳(メタデータ) (2025-06-08T03:46:50Z) - Applications of Large Language Model Reasoning in Feature Generation [0.0]
大規模言語モデル(LLM)は、その技術推論能力を通じて自然言語処理に革命をもたらした。
本稿では,LLM推論手法の収束と,機械学習タスクの機能生成について考察する。
本論文は、金融、医療、テキスト分析など、さまざまな分野にまたがるLLMベースの特徴生成手法を分類する。
論文 参考訳(メタデータ) (2025-03-15T04:18:01Z) - Coding for Intelligence from the Perspective of Category [66.14012258680992]
符号化の対象はデータの圧縮と再構成、インテリジェンスである。
最近の傾向は、これらの2つの分野の潜在的均一性を示している。
本稿では,カテゴリ理論の観点から,インテリジェンスのためのコーディングの新たな問題を提案する。
論文 参考訳(メタデータ) (2024-07-01T07:05:44Z) - Enhancing LLM-Based Feedback: Insights from Intelligent Tutoring Systems and the Learning Sciences [0.0]
この研究は、ITSのフィードバック生成に関する以前の研究を通し、AIEDの研究を慎重に支援するものである。
本論文の主な貢献は次のとおりである。 生成AIの時代におけるフィードバック生成において、より慎重で理論的に基礎付けられた手法を適用すること。
論文 参考訳(メタデータ) (2024-05-07T20:09:18Z) - Semi-Supervised and Unsupervised Deep Visual Learning: A Survey [76.2650734930974]
半教師なし学習と教師なし学習は、ラベルなしの視覚データから学ぶための有望なパラダイムを提供する。
本稿では, 半教師付き学習(SSL)と非教師付き学習(UL)の先進的な深層学習アルゴリズムについて, 統一的な視点による視覚的認識について概説する。
論文 参考訳(メタデータ) (2022-08-24T04:26:21Z) - Concept Learners for Few-Shot Learning [76.08585517480807]
本研究では,人間の解釈可能な概念次元に沿って学習することで,一般化能力を向上させるメタ学習手法であるCOMETを提案する。
我々は,細粒度画像分類,文書分類,セルタイプアノテーションなど,さまざまな領域からの少数ショットタスクによるモデルの評価を行った。
論文 参考訳(メタデータ) (2020-07-14T22:04:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。