論文の概要: IdEALS: Idiomatic Expressions for Advancement of Language Skills
- arxiv url: http://arxiv.org/abs/2305.13637v1
- Date: Tue, 23 May 2023 03:11:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-24 19:21:17.946890
- Title: IdEALS: Idiomatic Expressions for Advancement of Language Skills
- Title(参考訳): IdEALS: 言語スキル向上のための慣用表現
- Authors: Narutatsu Ri, Bill Sun, Sam Davidson, Zhou Yu
- Abstract要約: 本稿では,学生書記における慣用的表現の活用の課題について検討する。
そこで本研究では,実世界のデータを用いて,広範囲なトレーニングセットと専門家アノテートテストセットをキュレートし,さまざまなアプローチを評価し,その性能を人的専門家と比較する。
- 参考スコア(独自算出の注目度): 46.42809610978052
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although significant progress has been made in developing methods for
Grammatical Error Correction (GEC), addressing word choice improvements has
been notably lacking and enhancing sentence expressivity by replacing phrases
with advanced expressions is an understudied aspect. In this paper, we focus on
this area and present our investigation into the task of incorporating the
usage of idiomatic expressions in student writing. To facilitate our study, we
curate extensive training sets and expert-annotated testing sets using
real-world data and evaluate various approaches and compare their performance
against human experts.
- Abstract(参考訳): 文法的誤り訂正法(GEC)の開発において顕著な進展がみられたが, 単語選択の改良は, 語句を先進表現に置き換えることによる文表現性の向上を目立って欠いている。
本稿では,この領域に焦点をあて,学生の文章に慣用表現を取り入れることの課題について検討する。
そこで本研究では,実世界のデータを用いて,広範囲なトレーニングセットと専門家アノテートテストセットをキュレートし,さまざまなアプローチを評価し,その性能を人的専門家と比較する。
関連論文リスト
- What is lost in Normalization? Exploring Pitfalls in Multilingual ASR Model Evaluations [0.0]
本稿では,OpenAI Whisper,MetaのMMS,Seamless,アセンブリAIのConformerなど,主要なASRモデルのテキスト正規化ルーチンについて検討する。
我々の研究は、現在のテキスト正規化の実践が、公正な比較のためにASR出力を標準化することを目的としている一方で、Indicスクリプトに適用した場合、根本的な欠陥があることを明らかにする。
本稿では,言語学の専門知識を生かしたテキスト正規化ルーチン開発へのシフトを提案する。
論文 参考訳(メタデータ) (2024-09-04T05:08:23Z) - Improving Korean NLP Tasks with Linguistically Informed Subword
Tokenization and Sub-character Decomposition [6.767341847275751]
本稿では, Byte Pairの適用課題に対処するために, サブ文字分解を利用した形態素認識サブワードトークン化手法を提案する。
我々のアプローチは、事前学習言語モデル(PLM)における言語精度と計算効率のバランスをとる
本手法は, NIKL-CoLAの構文的タスクにおいて, 総合的に優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2023-11-07T12:08:21Z) - Improving Factuality and Reasoning in Language Models through Multiagent
Debate [95.10641301155232]
複数の言語モデルインスタンスが共通の最終回答に到達するために、複数のラウンドで個別の応答と推論プロセスを提案し、議論する言語応答を改善するための補完的なアプローチを提案する。
以上の結果から,本手法は様々なタスクにおける数学的・戦略的推論を著しく向上させることが示唆された。
我々のアプローチは、既存のブラックボックスモデルに直接適用され、調査するすべてのタスクに対して、同じ手順とプロンプトを使用することができる。
論文 参考訳(メタデータ) (2023-05-23T17:55:11Z) - Improving Policy Learning via Language Dynamics Distillation [87.27583619910338]
本稿では,言語記述による実演を前提とした環境動態予測モデルであるLanguage Dynamics Distillation(LDD)を提案する。
実演における言語記述は,環境全体にわたるサンプル効率と一般化を改善することを示す。
論文 参考訳(メタデータ) (2022-09-30T19:56:04Z) - A Latent-Variable Model for Intrinsic Probing [93.62808331764072]
固有プローブ構築のための新しい潜在変数定式化を提案する。
我々は、事前訓練された表現が言語間交互に絡み合ったモルフォシンタクスの概念を発達させる経験的証拠を見出した。
論文 参考訳(メタデータ) (2022-01-20T15:01:12Z) - Probing as Quantifying the Inductive Bias of Pre-trained Representations [99.93552997506438]
本稿では,特定のタスクに対する表現の帰納的バイアスを評価することを目的とした,探索のための新しいフレームワークを提案する。
トークン、アーク、文レベルの一連のタスクに我々のフレームワークを適用します。
論文 参考訳(メタデータ) (2021-10-15T22:01:16Z) - Analysis of Language Change in Collaborative Instruction Following [15.605114421965045]
実用性を最大化する参加者がコンベンションを形成し、専門性を向上する、協調的な目標指向の指導タスクにおいて、言語の変化を経時的に分析する。
指導力を高める能力を考えると、教師はこれらの研究領域に沿って言語複雑性を増大させ、より熟練した指導者とよりよく協力できることが分かる。
論文 参考訳(メタデータ) (2021-09-09T17:51:59Z) - On the Impact of Knowledge-based Linguistic Annotations in the Quality
of Scientific Embeddings [0.0]
我々は, 科学的コーパスから埋め込みを生成するために, 明示的な言語アノテーションを用いた研究を行う。
以上の結果から,組込みにおけるアノテーションの効果は評価作業によってどのように変化するかを示す。
一般に,言語アノテーションを用いた埋め込み学習が,より良い評価結果の獲得に寄与すると考えられる。
論文 参考訳(メタデータ) (2021-04-13T13:51:22Z) - Multilingual Alignment of Contextual Word Representations [49.42244463346612]
BERTはXNLIのゼロショット性能をベースモデルに比べて大幅に改善した。
単語検索の文脈バージョンを導入し、下流のゼロショット転送とよく相関していることを示す。
これらの結果は、大規模多言語事前学習モデルの理解に有用な概念としてコンテキストアライメントをサポートする。
論文 参考訳(メタデータ) (2020-02-10T03:27:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。