論文の概要: Top-Down vs. Bottom-Up Approaches for Automatic Educational Knowledge Graph Construction in CourseMapper
- arxiv url: http://arxiv.org/abs/2505.10069v1
- Date: Thu, 15 May 2025 08:11:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-16 22:29:06.238337
- Title: Top-Down vs. Bottom-Up Approaches for Automatic Educational Knowledge Graph Construction in CourseMapper
- Title(参考訳): CourseMapperにおける学習知識グラフ構築のためのトップダウン対ボトムアップアプローチ
- Authors: Qurat Ul Ain, Mohamed Amine Chatti, Amr Shakhshir, Jean Qussa, Rawaa Alatrash, Shoeb Joarder,
- Abstract要約: 本研究では,自動EduKG構築におけるトップダウンとボトムアップのアプローチを比較した。
以上の結果から,ボトムアップアプローチは,重要な知識概念を正確に識別し,マッピングする上で,トップダウンアプローチよりも優れていることが示唆された。
- 参考スコア(独自算出の注目度): 0.5937476291232802
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The automatic construction of Educational Knowledge Graphs (EduKGs) is crucial for modeling domain knowledge in digital learning environments, particularly in Massive Open Online Courses (MOOCs). However, identifying the most effective approach for constructing accurate EduKGs remains a challenge. This study compares Top-down and Bottom-up approaches for automatic EduKG construction, evaluating their effectiveness in capturing and structuring knowledge concepts from learning materials in our MOOC platform CourseMapper. Through a user study and expert validation using Simple Random Sampling (SRS), results indicate that the Bottom-up approach outperforms the Top-down approach in accurately identifying and mapping key knowledge concepts. To further enhance EduKG accuracy, we integrate a Human-in-the-Loop approach, allowing course moderators to review and refine the EduKG before publication. This structured comparison provides a scalable framework for improving knowledge representation in MOOCs, ultimately supporting more personalized and adaptive learning experiences.
- Abstract(参考訳): 教育知識グラフ(EduKG)の自動構築は、特にMOOC(Massive Open Online Courses)において、デジタル学習環境におけるドメイン知識のモデリングに不可欠である。
しかしながら、正確なEduKGsを構築するための最も効果的なアプローチを特定することは、依然として課題である。
本研究は,MOOCプラットフォームCourseMapperにおける学習教材から知識概念を抽出・構造化する上での有効性を評価するとともに,自動EduKG構築のためのトップダウンとボトムアップのアプローチを比較した。
ユーザスタディとSRS(Simple Random Smpling)を用いた専門家による検証の結果,ボトムアップアプローチは,重要な知識概念を正確に識別しマッピングする上で,トップダウンアプローチよりも優れていることが示された。
EduKGの精度をさらに高めるために、我々はHuman-in-the-Loopアプローチを統合する。
この構造化された比較はMOOCの知識表現を改善するスケーラブルなフレームワークを提供し、最終的にはよりパーソナライズされ適応的な学習体験をサポートする。
関連論文リスト
- Path Pooling: Training-Free Structure Enhancement for Efficient Knowledge Graph Retrieval-Augmented Generation [19.239478003379478]
大規模言語モデルは、現実世界の応用において幻覚や知識不足に悩まされる。
本研究では,新しい経路中心プーリング操作を通じて構造情報を導入する学習自由戦略であるパスプーリングを提案する。
プラグイン・アンド・プレイ方式で既存のKG-RAGメソッドにシームレスに統合し、よりリッチな構造情報の利用を可能にする。
論文 参考訳(メタデータ) (2025-03-07T07:48:30Z) - Graph Foundation Models for Recommendation: A Comprehensive Survey [55.70529188101446]
大規模言語モデル(LLM)は自然言語を処理し、理解するために設計されており、どちらも非常に効果的で広く採用されている。
最近の研究はグラフ基礎モデル(GFM)に焦点を当てている。
GFM は GNN と LLM の強みを統合し,複雑な RS 問題をより効率的にモデル化する。
論文 参考訳(メタデータ) (2025-02-12T12:13:51Z) - LLM-Assisted Knowledge Graph Completion for Curriculum and Domain Modelling in Personalized Higher Education Recommendations [0.0]
本稿では,高等教育カリキュラムモデリングにおける革新的アプローチを紹介する。
本研究は,大学対象をモデル化し,そのトピックを対応するドメインモデルに関連付けることに焦点を当てている。
我々は,大学モジュールや利害関係者のためのドメイン,カリキュラム,ユーザモデルを開発する。
論文 参考訳(メタデータ) (2025-01-21T17:13:13Z) - KBAlign: Efficient Self Adaptation on Specific Knowledge Bases [73.34893326181046]
本稿では,効率的なモデル適応によりRAGシステムを強化する自己教師型フレームワークKBAlignを提案する。
私たちのキーとなる洞察は、2つの革新的なメカニズムを通じて、モデルの本質的な能力を知識の整合性に活用することです。
KBAlign は GPT-4 による適応によって得られる性能向上の90%を達成できることを示した。
論文 参考訳(メタデータ) (2024-11-22T08:21:03Z) - Learn To Learn More Precisely [30.825058308218047]
より正確に学習すること」は、モデルにデータから正確な目標知識を学習させることを目的としている。
学習知識の一貫性を最大化するために,メタ自己蒸留(Meta Self-Distillation:MSD)という,シンプルで効果的なメタ学習フレームワークを提案する。
MSDは、標準シナリオと拡張シナリオの両方において、数ショットの分類タスクにおいて顕著なパフォーマンスを示す。
論文 参考訳(メタデータ) (2024-08-08T17:01:26Z) - Structure-aware Domain Knowledge Injection for Large Language Models [38.08691252042949]
StructTuningは、大規模言語モデル(LLM)をドメインスペシャリストに変換する方法論である。
従来の知識注入性能の100パーセントを達成しながら、トレーニングコーパスに必要なトレーニングコーパスをわずか5%削減します。
論文 参考訳(メタデータ) (2024-07-23T12:38:48Z) - Subgraph-Aware Training of Language Models for Knowledge Graph Completion Using Structure-Aware Contrastive Learning [4.741342276627672]
微調整事前学習言語モデル(PLM)は、最近知識グラフ補完(KGC)を改善する可能性を示している。
そこで本研究では,KGC(SATKGC)のためのサブグラフ認識学習フレームワークを提案する。 (i)サブグラフ認識のミニバッチ化により,ハードネガティブサンプリングの促進とトレーニング中のエンティティ発生頻度の不均衡を軽減すること,および (ii)知識グラフの構造特性の観点から,よりハードなインバッチ負三重項とハードポジティブ三重項にフォーカスする新たなコントラスト学習を提案する。
論文 参考訳(メタデータ) (2024-07-17T16:25:37Z) - Hierarchical and Decoupled BEV Perception Learning Framework for Autonomous Driving [52.808273563372126]
本稿では,基本認識モジュールとユーザフレンドリなグラフィカルインタフェースのライブラリの提供を目的とした,新しい階層的BEV知覚パラダイムを提案する。
我々は,大規模公開データセットと合理化開発プロセスを効果的に活用するために,Pretrain-Finetune戦略を実行している。
また、マルチモジュールラーニング(MML)アプローチを提案し、複数のモデルの相乗的かつ反復的な訓練により性能を向上させる。
論文 参考訳(メタデータ) (2024-07-17T11:17:20Z) - Finding Paths for Explainable MOOC Recommendation: A Learner Perspective [2.4775868218890484]
グラフ推論を用いたMOOC(Massive Open Online Courses)の推薦システムを提案する。
提案手法の実践的意義を検証するため,利用者の知覚を調査した。
2つの教育データセットで実験を行うことにより,本手法の一般化可能性を示す。
論文 参考訳(メタデータ) (2023-12-11T15:27:22Z) - Set-to-Sequence Ranking-based Concept-aware Learning Path Recommendation [49.85548436111153]
SRC(Set-to-Sequence Ranking-based Concept-Aware Learning Path Recommendation)という新しいフレームワークを提案する。
SRCは、セット・ツー・シーケンス・パラダイムの下でレコメンデーション・タスクを定式化する。
実世界の2つの公開データセットと1つの産業データセットについて広範な実験を行う。
論文 参考訳(メタデータ) (2023-06-07T08:24:44Z) - Learning Large-scale Neural Fields via Context Pruned Meta-Learning [60.93679437452872]
本稿では,大規模ニューラルネットワーク学習のための最適化に基づくメタラーニング手法を提案する。
メタテスト時間における勾配再スケーリングは、非常に高品質なニューラルネットワークの学習を可能にすることを示す。
我々のフレームワークは、モデルに依存しない、直感的で、実装が容易であり、幅広い信号に対する大幅な再構成改善を示す。
論文 参考訳(メタデータ) (2023-02-01T17:32:16Z) - Great Truths are Always Simple: A Rather Simple Knowledge Encoder for
Enhancing the Commonsense Reasoning Capacity of Pre-Trained Models [89.98762327725112]
自然言語における常識推論は、人工知能システムの望ましい能力である。
複雑なコモンセンス推論タスクを解決するための典型的な解決策は、知識対応グラフニューラルネットワーク(GNN)エンコーダで事前訓練された言語モデル(PTM)を強化することである。
有効性にもかかわらず、これらのアプローチは重いアーキテクチャ上に構築されており、外部知識リソースがPTMの推論能力をどのように改善するかを明確に説明できない。
論文 参考訳(メタデータ) (2022-05-04T01:27:36Z) - Knowledge Distillation Meets Self-Supervision [109.6400639148393]
知識蒸留では、教師ネットワークから「暗黒の知識」を抽出し、学生ネットワークの学習を指導する。
一見異なる自己超越的なタスクが、単純だが強力なソリューションとして機能することを示します。
これらの自己超越信号の類似性を補助的タスクとして活用することにより、隠された情報を教師から生徒に効果的に転送することができる。
論文 参考訳(メタデータ) (2020-06-12T12:18:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。