論文の概要: Auto-Select Reading Passages in English Assessment Tests?
- arxiv url: http://arxiv.org/abs/2205.06961v1
- Date: Sat, 14 May 2022 04:06:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-17 16:55:02.350755
- Title: Auto-Select Reading Passages in English Assessment Tests?
- Title(参考訳): 英語アセスメントテストにおける自動選択読解文?
- Authors: Bruce W. Lee, Jason H. Lee
- Abstract要約: 英語評価試験において,読み出しパスを自動選択する手法を提案する。
同様のパス(すでにテストに現れているパス)を見つけることで、テスト開発に適したパスが得られることを証明します。
- 参考スコア(独自算出の注目度): 0.8020742121274418
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We show a method to auto-select reading passages in English assessment tests
and share some key insights that can be helpful in related fields. In
specifics, we prove that finding a similar passage (to a passage that already
appeared in the test) can give a suitable passage for test development. In the
process, we create a simple database-tagger-filter algorithm and perform a
human evaluation. However, 1. the textual features, that we analyzed, lack
coverage, and 2. we fail to find meaningful correlations between each feature
and suitability score. Lastly, we describe the future developments to improve
automated reading passage selection.
- Abstract(参考訳): 本稿では,英語評価試験における読解パスの自動選択手法を示し,関連する分野において有用な重要な知見を公開する。
具体例では、類似した通路(テストに既に現れた通路)を見つけることで、テスト開発に適した通路が得られることを証明します。
この過程で,簡単なデータベース・タガーフィルタアルゴリズムを作成し,人間の評価を行う。
しかし、
1. 分析したテキストの特徴、カバレッジの欠如、そして
2. それぞれの特徴と適合性スコアの間に有意な相関が見つからない。
最後に,自動読解路選択の改善に向けた今後の展開について述べる。
関連論文リスト
- How to Engage Your Readers? Generating Guiding Questions to Promote Active Reading [60.19226384241482]
教科書や科学論文から10Kのインテキスト質問のデータセットであるGuidingQを紹介した。
言語モデルを用いてこのような質問を生成するための様々なアプローチを探索する。
我々は、そのような質問が読解に与える影響を理解するために、人間の研究を行う。
論文 参考訳(メタデータ) (2024-07-19T13:42:56Z) - Automating Easy Read Text Segmentation [2.7309692684728617]
読みやすいテキストは、読み難い人のための情報にアクセスするための主要な形態の1つである。
このタイプのテキストの重要な特徴の1つは、文をより小さな文法セグメントに分割する必要があることである。
マスク付きおよび生成言語モデルと構成的構文解析を併用して,タスクのための新しい手法について検討する。
論文 参考訳(メタデータ) (2024-06-17T12:25:25Z) - Long-Span Question-Answering: Automatic Question Generation and QA-System Ranking via Side-by-Side Evaluation [65.16137964758612]
大規模言語モデルにおける長文文の活用について検討し,本書全体の読解データを作成する。
我々の目的は、長いテキストの詳細な理解を必要とする問題を分析し、理解し、推論するLLMの能力をテストすることである。
論文 参考訳(メタデータ) (2024-05-31T20:15:10Z) - Disco-Bench: A Discourse-Aware Evaluation Benchmark for Language
Modelling [70.23876429382969]
本研究では,多種多様なNLPタスクに対して,文内談話特性を評価できるベンチマークを提案する。
ディスコ・ベンチは文学領域における9つの文書レベルのテストセットから構成されており、豊富な談話現象を含んでいる。
また,言語分析のために,対象モデルが談話知識を学習するかどうかを検証できる診断テストスイートを設計する。
論文 参考訳(メタデータ) (2023-07-16T15:18:25Z) - Analyzing Multiple-Choice Reading and Listening Comprehension Tests [0.0]
本研究は,会話の書き起こしと聞き取りテストに基づいて,コンテキストパスを複数選択で読み取る必要があるかを検討する。
自動読解システムは、文脈パスへのアクセスを部分的にあるいは全く行わずに、ランダムよりもはるかに優れた性能を発揮することが判明した。
論文 参考訳(メタデータ) (2023-07-03T14:55:02Z) - Take the Hint: Improving Arabic Diacritization with
Partially-Diacritized Text [4.863310073296471]
本稿では,任意のダイアクリティカルティクスを効果的にサポートするマルチソースモデルである2SDiacを提案する。
また、ランダムマスキングのレベルが異なる入力において、与えられたダイアクリティカルを活用できるトレーニングスキームであるガイドドラーニングを導入する。
論文 参考訳(メタデータ) (2023-06-06T10:18:17Z) - Prompt-based Learning for Text Readability Assessment [0.4757470449749875]
可読性評価のための事前学習されたSeq2seqモデルの新規適応を提案する。
与えられた2つのテキストからより難しいテキストを区別するために、Seq2seqモデルを適用できることを実証する。
論文 参考訳(メタデータ) (2023-02-25T18:39:59Z) - Selective Annotation Makes Language Models Better Few-Shot Learners [97.07544941620367]
大規模な言語モデルはコンテキスト内学習を実行でき、いくつかのタスクデモから新しいタスクを学ぶことができる。
本研究は、新しい自然言語タスクのためのデータセット作成において、文脈内学習がもたらす意味について考察する。
本稿では,無教師付きグラフベースの選択的アノテーションであるvoke-kを提案する。
論文 参考訳(メタデータ) (2022-09-05T14:01:15Z) - Improving Cross-Lingual Reading Comprehension with Self-Training [62.73937175625953]
現在の最新モデルは、いくつかのベンチマークで人間のパフォーマンスを上回っています。
前作では、ゼロショットのクロスリンガル読解のための事前訓練された多言語モデルの能力を明らかにしている。
本稿では,ラベルのないデータを利用して性能を向上する。
論文 参考訳(メタデータ) (2021-05-08T08:04:30Z) - Weakly-Supervised Aspect-Based Sentiment Analysis via Joint
Aspect-Sentiment Topic Embedding [71.2260967797055]
アスペクトベース感情分析のための弱教師付きアプローチを提案する。
We learn sentiment, aspects> joint topic embeddeds in the word embedding space。
次に、ニューラルネットワークを用いて単語レベルの識別情報を一般化する。
論文 参考訳(メタデータ) (2020-10-13T21:33:24Z) - STARC: Structured Annotations for Reading Comprehension [23.153841344989143]
複数の選択肢を問う読み理解を評価するための新しいアノテーションフレームワークSTARCを提案する。
このフレームワークはOneStopQAで実装されており、英語の読み理解の評価と分析のための新しい高品質データセットである。
論文 参考訳(メタデータ) (2020-04-30T14:08:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。