論文の概要: Linguistic Constructs as the Representation of the Domain Model in an
Intelligent Language Tutoring System
- arxiv url: http://arxiv.org/abs/2212.01711v1
- Date: Sat, 3 Dec 2022 23:42:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 16:41:39.136914
- Title: Linguistic Constructs as the Representation of the Domain Model in an
Intelligent Language Tutoring System
- Title(参考訳): 知的言語学習システムにおけるドメインモデルの表現としての言語構成
- Authors: Anisia Katinskaia, Jue Hou, Anh-Duc Vu, Roman Yangarber
- Abstract要約: 本稿では,AIを用いた言語学習プラットフォームRevitaの開発について述べる。
これは、低中間語から上級レベルまで、複数の言語の学習者をサポートするために開発された、無償で利用可能なインテリジェントなオンラインチューターである。
Revitaの主な特徴の1つは、ドメイン知識の表現としての言語構造体系の導入である。
- 参考スコア(独自算出の注目度): 0.6576173998482648
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents the development of an AI-based language learning platform
Revita. It is a freely available intelligent online tutor, developed to support
learners of multiple languages, from low-intermediate to advanced levels. It
has been in pilot use by hundreds of students at several universities, whose
feedback and needs are shaping the development. One of the main emerging
features of Revita is the introduction of a system of linguistic constructs as
the representation of domain knowledge. The system of constructs is developed
in close collaboration with experts in language teaching. Constructs define the
types of exercises, the content of the feedback, and enable the detailed
modeling and evaluation of learning progress.
- Abstract(参考訳): 本稿では,AIを用いた言語学習プラットフォームRevitaの開発について述べる。
低中間レベルから上級レベルまで、複数の言語の学習者をサポートするために開発された。
いくつかの大学の何百人もの学生がパイロットで利用しており、フィードバックとニーズが開発を形作っている。
Revitaの主な特徴の1つは、ドメイン知識の表現としての言語構造体系の導入である。
構成体系は言語教育の専門家と緊密に連携して開発されている。
構成は、エクササイズの種類、フィードバックの内容を定義し、学習進捗の詳細なモデリングと評価を可能にする。
関連論文リスト
- Engineering A Large Language Model From Scratch [0.0]
AtinukeはTransformerベースのニューラルネットワークで、さまざまな言語タスクのパフォーマンスを最適化する。
特徴を抽出し、複雑なマッピングを学習することで、人間のような言語をエミュレートすることができる。
システムは、解釈可能で堅牢なまま、自然言語タスクの最先端の結果を達成する。
論文 参考訳(メタデータ) (2024-01-30T04:29:48Z) - DIALIGHT: Lightweight Multilingual Development and Evaluation of
Task-Oriented Dialogue Systems with Large Language Models [76.79929883963275]
DIALIGHTは多言語タスク指向対話(ToD)システムの開発と評価のためのツールキットである。
ローカル発話レベルとグローバル対話レベルの両方において、人間のきめ細かい評価のためのセキュアでユーザフレンドリーなWebインターフェースを備えている。
評価の結果, PLMの微調整により精度とコヒーレンスが向上する一方, LLMベースのシステムは多様で類似した応答を生成するのに優れていた。
論文 参考訳(メタデータ) (2024-01-04T11:27:48Z) - How to Build an AI Tutor that Can Adapt to Any Course and Provide
Accurate Answers Using Large Language Model and Retrieval-Augmented
Generation [0.0]
本稿では,最先端のLarge Language Model (LLM)を用いて,どの科目でもパーソナライズされた学習を提供する,革新的なWebアプリケーションであるAI Tutorを紹介する。
学生が質問を行うと、最も関連性の高い情報を取得し、証拠を引用して詳細な会話応答を生成する。
私たちは、AI Tutorの汎用性をさまざまなテーマに示す、フル機能のWebインターフェースとビデオデモを紹介します。
論文 参考訳(メタデータ) (2023-11-29T15:02:46Z) - Learning to Model the World with Language [98.22400014565818]
我々は、将来のテキストや画像表現を予測するマルチモーダル世界モデルを学び、想像されたモデルロールアウトから行動を学ぶエージェントであるDynalangを紹介する。
アクションを予測するためにのみ言語を使用する従来のエージェントとは異なり、Dynalangは、過去の言語を使用して、将来の言語、ビデオ、報酬を予測することによって、リッチな言語理解を得る。
論文 参考訳(メタデータ) (2023-07-31T17:57:49Z) - SINC: Self-Supervised In-Context Learning for Vision-Language Tasks [64.44336003123102]
大規模言語モデルにおけるコンテキスト内学習を実現するためのフレームワークを提案する。
メタモデルは、カスタマイズされたデモからなる自己教師型プロンプトで学ぶことができる。
実験の結果、SINCは様々な視覚言語タスクにおいて勾配に基づく手法よりも優れていた。
論文 参考訳(メタデータ) (2023-07-15T08:33:08Z) - Accessible Instruction-Following Agent [0.0]
UVLNは、言語間視覚言語ナビゲーションのための新しい機械翻訳命令拡張フレームワークである。
我々は、標準VLNトレーニング目標を言語間エンコーダを介して多言語設定に拡張する。
Room Across Roomデータセットによる実験は、我々のアプローチの有効性を証明する。
論文 参考訳(メタデータ) (2023-05-08T23:57:26Z) - Language-Driven Representation Learning for Robotics [115.93273609767145]
ロボット工学における視覚表現学習の最近の研究は、日々の作業を行う人間の大規模なビデオデータセットから学ぶことの可能性を実証している。
人間のビデオやキャプションから言語による表現学習を行うためのフレームワークを提案する。
我々は、Voltronの言語駆動学習が、特に高レベル制御を必要とするターゲット問題において、先行技術よりも優れていることを発見した。
論文 参考訳(メタデータ) (2023-02-24T17:29:31Z) - On the cross-lingual transferability of multilingual prototypical models
across NLU tasks [2.44288434255221]
教師付きディープラーニングベースのアプローチはタスク指向のダイアログに適用され、限られたドメインや言語アプリケーションに有効であることが証明されている。
実際には、これらのアプローチはドメイン駆動設計とアンダーリソース言語の欠点に悩まされている。
本稿では,原型ニューラルネットワークと多言語トランスフォーマーモデルを用いた相乗的少数ショット学習の言語間変換可能性について検討する。
論文 参考訳(メタデータ) (2022-07-19T09:55:04Z) - Overcoming Language Disparity in Online Content Classification with
Multimodal Learning [22.73281502531998]
大規模言語モデルは、テキスト検出と分類タスクのための最先端のソリューションを開発するための標準となっている。
高度な計算技術と資源の開発は、英語に不相応に焦点が当てられている。
マルチモーダル機械学習を用いて画像に含まれる情報を統合するという約束を探求する。
論文 参考訳(メタデータ) (2022-05-19T17:56:02Z) - Exploring Teacher-Student Learning Approach for Multi-lingual
Speech-to-Intent Classification [73.5497360800395]
複数の言語をサポートするエンドツーエンドシステムを開発した。
我々は、事前訓練された多言語自然言語処理モデルからの知識を利用する。
論文 参考訳(メタデータ) (2021-09-28T04:43:11Z) - Towards Zero-shot Language Modeling [90.80124496312274]
人間の言語学習に誘導的に偏りを持つニューラルモデルを構築した。
類型的に多様な訓練言語のサンプルからこの分布を推測する。
我々は、保留言語に対する遠隔監視として、追加の言語固有の側情報を利用する。
論文 参考訳(メタデータ) (2021-08-06T23:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。