論文の概要: Text similarity analysis for evaluation of descriptive answers
- arxiv url: http://arxiv.org/abs/2105.02935v1
- Date: Thu, 6 May 2021 20:19:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-10 12:23:57.012859
- Title: Text similarity analysis for evaluation of descriptive answers
- Title(参考訳): 記述的回答評価のためのテキスト類似性分析
- Authors: Vedant Bahel and Achamma Thomas
- Abstract要約: 本論文では, テキスト解析に基づく自動評価手法を提案する。
このアーキテクチャでは、検査者は与えられた質問の集合に対するサンプル回答シートを作成する。
テキスト要約、テキスト意味論、キーワード要約の概念を使用して、各回答の最終スコアを計算します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Keeping in mind the necessity of intelligent system in educational sector,
this paper proposes a text analysis based automated approach for automatic
evaluation of the descriptive answers in an examination. In particular, the
research focuses on the use of intelligent concepts of Natural Language
Processing and Data Mining for computer aided examination evaluation system.
The paper present an architecture for fair evaluation of answer sheet. In this
architecture, the examiner creates a sample answer sheet for given sets of
question. By using the concept of text summarization, text semantics and
keywords summarization, the final score for each answer is calculated. The text
similarity model is based on Siamese Manhattan LSTM (MaLSTM). The results of
this research were compared to manually graded assignments and other existing
system. This approach was found to be very efficient in order to be implemented
in an institution or in an university.
- Abstract(参考訳): 教育分野におけるインテリジェントなシステムの必要性を念頭に置いて,本研究では,テキスト分析に基づく自動評価手法を提案する。
特に,コンピュータ支援試験評価システムにおける自然言語処理とデータマイニングのインテリジェントな概念の利用に焦点を当てた。
本稿では,回答シートの公平な評価のためのアーキテクチャを提案する。
このアーキテクチャでは、検査者が与えられた質問に対するサンプル回答シートを作成する。
テキスト要約、テキスト意味論、キーワード要約という概念を用いて、各回答の最終スコアを算出する。
テキスト類似性モデルは、Siamese Manhattan LSTM (MaLSTM)に基づいている。
本研究の結果は,手作業による等級付けや既存システムと比較された。
このアプローチは、機関や大学で実施するために非常に効率的であることが判明した。
関連論文リスト
- A Comparative Study of Quality Evaluation Methods for Text Summarization [0.5512295869673147]
本稿では,大規模言語モデル(LLM)に基づくテキスト要約評価手法を提案する。
以上の結果から,LLMの評価は人間の評価と密接に一致しているが,ROUGE-2,BERTScore,SummaCなどの広く使用されている自動測定値には一貫性がない。
論文 参考訳(メタデータ) (2024-06-30T16:12:37Z) - Automatic assessment of text-based responses in post-secondary
education: A systematic review [0.0]
教育におけるテキストベースの反応の迅速な評価とフィードバックの自動化には大きな可能性がある。
近年,テキストによる自動評価システムがどのように開発され,教育に応用されているかを理解するために,三つの研究課題が検討されている。
この体系的なレビューは、テキストベースのアセスメントシステムの最近の教育応用の概要を提供する。
論文 参考訳(メタデータ) (2023-08-30T17:16:45Z) - Large Language Models are Diverse Role-Players for Summarization
Evaluation [82.31575622685902]
文書要約の品質は、文法や正しさといった客観的な基準と、情報性、簡潔さ、魅力といった主観的な基準で人間の注釈者によって評価することができる。
BLUE/ROUGEのような自動評価手法のほとんどは、上記の次元を適切に捉えることができないかもしれない。
目的と主観の両面から生成されたテキストと参照テキストを比較し,総合的な評価フレームワークを提供するLLMに基づく新しい評価フレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-27T10:40:59Z) - ProtSi: Prototypical Siamese Network with Data Augmentation for Few-Shot
Subjective Answer Evaluation [0.8959391124399926]
ProtSi Networkはユニークな半教師付きアーキテクチャであり、初めて数発の学習を使って主観的な回答評価を行う。
教師なし多種多様なパラフレーズモデルであるProtAugmentを用いて、効果的に複数ショットのテキスト分類に過度に適合しないようにする。
論文 参考訳(メタデータ) (2022-11-17T19:33:35Z) - Textual Entailment Recognition with Semantic Features from Empirical
Text Representation [60.31047947815282]
テキストが仮説を包含するのは、仮説の真の価値がテキストに従う場合に限る。
本稿では,テキストと仮説のテキストの包含関係を同定する新しい手法を提案する。
本手法では,テキスト・ハイブリッド・ペア間の意味的含意関係を識別できる要素ワイド・マンハッタン距離ベクトルベースの特徴を用いる。
論文 参考訳(メタデータ) (2022-10-18T10:03:51Z) - Suggesting Relevant Questions for a Query Using Statistical Natural
Language Processing Technique [0.0]
ユーザクエリに対する同様の質問の推奨には、EコマースWebサイトのユーザの検索時間短縮、企業の従業員のトレーニング、学生の全体学習など、多くのアプリケーションがある。
同様の疑問を提起するために自然言語処理技術が使われているのは、既存のアーキテクチャ上で一般的である。
論文 参考訳(メタデータ) (2022-04-26T04:30:16Z) - Get It Scored Using AutoSAS -- An Automated System for Scoring Short
Answers [63.835172924290326]
SAS(Automatic Short Answer Scoring)への高速でスケーラブルで正確なアプローチを提示します。
SASのためのシステム、すなわちAutoSASの設計と開発を提案し、説明します。
AutoSASは最先端のパフォーマンスを示し、いくつかの質問のプロンプトで8%以上良い結果が得られる。
論文 参考訳(メタデータ) (2020-12-21T10:47:30Z) - Hierarchical Bi-Directional Self-Attention Networks for Paper Review
Rating Recommendation [81.55533657694016]
本稿では,階層型双方向自己注意ネットワークフレームワーク(HabNet)を提案する。
具体的には、文エンコーダ(レベル1)、レビュー内エンコーダ(レベル2)、レビュー間エンコーダ(レベル3)の3つのレベルで、論文レビューの階層構造を利用する。
我々は、最終的な受理決定を行う上で有用な予測者を特定することができ、また、数値的なレビュー評価とレビュアーが伝えるテキストの感情の不整合を発見するのに役立てることができる。
論文 参考訳(メタデータ) (2020-11-02T08:07:50Z) - A computational model implementing subjectivity with the 'Room Theory'.
The case of detecting Emotion from Text [68.8204255655161]
本研究は,テキスト分析における主観性と一般的文脈依存性を考慮した新しい手法を提案する。
単語間の類似度を用いて、ベンチマーク中の要素の相対的関連性を抽出することができる。
この方法は、主観的評価がテキストの相対値や意味を理解するために関係しているすべてのケースに適用できる。
論文 参考訳(メタデータ) (2020-05-12T21:26:04Z) - Word Embedding-based Text Processing for Comprehensive Summarization and
Distinct Information Extraction [1.552282932199974]
オンラインレビューの分析に特化して設計された2つの自動テキスト処理フレームワークを提案する。
最初のフレームワークは、本質的な文章を抽出してレビューデータセットを要約することである。
第2のフレームワークは、複数の異なる質問に対する回答を抽出するように訓練された質問回答ニューラルネットワークモデルに基づいている。
論文 参考訳(メタデータ) (2020-04-21T02:43:31Z) - ORB: An Open Reading Benchmark for Comprehensive Evaluation of Machine
Reading Comprehension [53.037401638264235]
我々は,7種類の読解データセットの性能を報告する評価サーバORBを提案する。
評価サーバは、モデルのトレーニング方法に制限を課さないため、トレーニングパラダイムや表現学習の探索に適したテストベッドである。
論文 参考訳(メタデータ) (2019-12-29T07:27:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。