論文の概要: DIY-MKG: An LLM-Based Polyglot Language Learning System
- arxiv url: http://arxiv.org/abs/2507.01872v1
- Date: Wed, 02 Jul 2025 16:38:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:23:00.378143
- Title: DIY-MKG: An LLM-Based Polyglot Language Learning System
- Title(参考訳): DIY-MKG:LLMに基づく多言語学習システム
- Authors: Kenan Tang, Yanhong Li, Yao Qin,
- Abstract要約: Do-It-Yourself Multilingual Knowledge Graph (DIY-MKG)は多言語学習をサポートするオープンソースのシステムである。
DIY-MKGでは,LLMが提案する関連する単語を選択的に拡張して構築した,個人化された語彙知識グラフを構築することができる。
DIY-MKG における LLM ベースのコンポーネントの評価は,語彙拡張が複数の言語で信頼性が高く公平であり,生成したクイズが極めて正確であることを示している。
- 参考スコア(独自算出の注目度): 8.850778795270351
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Existing language learning tools, even those powered by Large Language Models (LLMs), often lack support for polyglot learners to build linguistic connections across vocabularies in multiple languages, provide limited customization for individual learning paces or needs, and suffer from detrimental cognitive offloading. To address these limitations, we design Do-It-Yourself Multilingual Knowledge Graph (DIY-MKG), an open-source system that supports polyglot language learning. DIY-MKG allows the user to build personalized vocabulary knowledge graphs, which are constructed by selective expansion with related words suggested by an LLM. The system further enhances learning through rich annotation capabilities and an adaptive review module that leverages LLMs for dynamic, personalized quiz generation. In addition, DIY-MKG allows users to flag incorrect quiz questions, simultaneously increasing user engagement and providing a feedback loop for prompt refinement. Our evaluation of LLM-based components in DIY-MKG shows that vocabulary expansion is reliable and fair across multiple languages, and that the generated quizzes are highly accurate, validating the robustness of DIY-MKG.
- Abstract(参考訳): 既存の言語学習ツール、例えばLarge Language Models (LLMs) を利用したものでさえ、多言語学習者が複数の言語で語彙をまたいで言語接続を構築することをサポートしておらず、個々の学習ペースやニーズのカスタマイズが制限されており、有害な認知的オフロードに悩まされている。
これらの制約に対処するために,多言語学習をサポートするオープンソースシステムであるDo-It-Yourself Multilingual Knowledge Graph (DIY-MKG) を設計する。
DIY-MKGでは,LLMが提案する関連する単語を選択的に拡張して構築した,個人化された語彙知識グラフを構築することができる。
このシステムは、よりリッチなアノテーション機能による学習をさらに強化し、動的でパーソナライズされたクイズ生成にLLMを活用する適応レビューモジュールを提供する。
さらに、DIY-MKGでは、ユーザーが誤ったクイズ質問にフラグを付けることができ、同時にユーザエンゲージメントを増大させ、迅速な改善のためのフィードバックループを提供する。
DIY-MKGにおけるLCMベースのコンポーネントの評価は,語彙拡張が複数の言語で信頼性が高く公平であり,生成したクイズが極めて正確であることを示し,DIY-MKGの堅牢性を検証した。
関連論文リスト
- The Rise and Down of Babel Tower: Investigating the Evolution Process of Multilingual Code Large Language Model [59.357993924917]
本研究では,大規模言語モデル(LLM)における事前学習過程における多言語機能の進化について検討する。
本稿では,LLMが新たな言語能力を習得する過程全体を記述したBabel Tower仮説を提案する。
本論文では,多言語コードLLMのための事前学習コーパスを最適化する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-12-10T08:28:57Z) - Adapting Multilingual LLMs to Low-Resource Languages with Knowledge Graphs via Adapters [3.7273829129985305]
本稿では,言語から多言語大モデル(LLM)へのグラフ知識の統合について検討する。
我々は、感情分析(SA)および名前付きエンティティ認識(NER)における低リソース言語(LRL)の性能向上のために、言語固有のアダプタを使用している。
構造化グラフ知識が,SA および NER における LRL の多言語 LLM の性能に与える影響を評価する。
論文 参考訳(メタデータ) (2024-07-01T15:56:24Z) - Item-Language Model for Conversational Recommendation [24.00379652557269]
ユーザインタラクション信号をエンコードするテキスト整列アイテム表現を生成するために,ILM(Item-Language Model)を提案する。
項目エンコーダにおける言語アライメントの重要性とユーザインタラクション知識の両立を実証する広範な実験を行う。
論文 参考訳(メタデータ) (2024-06-05T01:35:50Z) - Okapi: Instruction-tuned Large Language Models in Multiple Languages
with Reinforcement Learning from Human Feedback [61.83548032416181]
複数の言語を対象としたRLHFに基づく命令調整型LLMシステムであるOkapiを提案する。
オカピは26の多言語言語でインストラクションと応答ランクデータを導入し、将来の多言語LLM研究の促進と開発に役立てている。
論文 参考訳(メタデータ) (2023-07-29T18:01:46Z) - Adapters for Enhanced Modeling of Multilingual Knowledge and Text [54.02078328453149]
言語モデルは多言語言語モデル(MLLM)に拡張された。
知識グラフは、注意深いキュレーションを必要とし、少数の高リソース言語でのみ利用可能である、明示的な三重形式で事実を含む。
我々は,MLLMを多言語知識グラフ(MLKG)からの知識で拡張し,言語や知識グラフのタスクに多くの言語で取り組むことを提案する。
論文 参考訳(メタデータ) (2022-10-24T21:33:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。