論文の概要: LC-Score: Reference-less estimation of Text Comprehension Difficulty
- arxiv url: http://arxiv.org/abs/2310.02754v1
- Date: Wed, 4 Oct 2023 11:49:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-05 15:20:26.989732
- Title: LC-Score: Reference-less estimation of Text Comprehension Difficulty
- Title(参考訳): lc-score:テキスト理解難易度の参照レス推定
- Authors: Paul Tardy, Charlotte Roze, Paul Poupet
- Abstract要約: 我々は、参照なしのフランス語テキストに対して、テキスト理解度を訓練するための簡単なアプローチであるtextscLC-Scoreを提示する。
我々の目的は,テキストがtextitLangage Clair (LC, textitClear Language) ガイドラインに適合する範囲を定量的に把握することである。
i) 統計モデルの学習に使用される言語的動機付け指標を使用すること,(ii) 事前学習された言語モデルを利用したテキストから直接ニューラルラーニングを行うこと,の2つのアプローチを探索する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Being able to read and understand written text is critical in a digital era.
However, studies shows that a large fraction of the population experiences
comprehension issues. In this context, further initiatives in accessibility are
required to improve the audience text comprehension. However, writers are
hardly assisted nor encouraged to produce easy-to-understand content. Moreover,
Automatic Text Simplification (ATS) model development suffers from the lack of
metric to accurately estimate comprehension difficulty We present
\textsc{LC-Score}, a simple approach for training text comprehension metric for
any French text without reference \ie predicting how easy to understand a given
text is on a $[0, 100]$ scale. Our objective with this scale is to
quantitatively capture the extend to which a text suits to the \textit{Langage
Clair} (LC, \textit{Clear Language}) guidelines, a French initiative closely
related to English Plain Language. We explore two approaches: (i) using
linguistically motivated indicators used to train statistical models, and (ii)
neural learning directly from text leveraging pre-trained language models. We
introduce a simple proxy task for comprehension difficulty training as a
classification task. To evaluate our models, we run two distinct human
annotation experiments, and find that both approaches (indicator based and
neural) outperforms commonly used readability and comprehension metrics such as
FKGL and SAMSA.
- Abstract(参考訳): 文章を読んだり理解したりすることは、デジタル時代において重要なことです。
しかし、調査の結果、人口の大多数は理解の問題を経験している。
この文脈では、オーディエンステキスト理解を改善するためにアクセシビリティのさらなる取り組みが必要である。
しかし、作家は容易に理解できるコンテンツを作るのをほとんど助けたり奨励したりしない。
さらに、自動テキスト簡易化(ats)モデルの開発は、正確な理解難易度を推定するためのメトリクスの欠如に苦しむ。ここでは、任意のフランス語テキストに対するテキスト理解度をトレーニングするための単純なアプローチである \textsc{lc-score} を紹介し、与えられたテキストが[0, 100]$スケールでどれだけ簡単に理解できるかを予測する。
このスケールの目的は、英語プレーン言語と密接に関連するフランスのイニシアチブである \textit{Langage Clair} (LC, \textit{Clear Language}) ガイドラインにテキストが適合する範囲を定量的に把握することである。
2つのアプローチを探求します
一 統計モデルの訓練に用いられる言語的動機付け指標を用いて、
(II)事前学習言語モデルを活用したテキストからのニューラルラーニング。
分類タスクとして,理解難易度学習のための簡易なプロキシタスクを提案する。
モデルを評価するために、2つの異なる人間のアノテーション実験を行い、両方のアプローチ(インディクタベースとニューラルネットワーク)が、fkglやsamsaのような可読性と理解のメトリクスよりも優れていることを見出しました。
関連論文リスト
- Coarse-to-Fine Highlighting: Reducing Knowledge Hallucination in Large Language Models [58.952782707682815]
COFTは、異なるレベルのキーテキストにフォーカスする新しい方法であり、長いコンテキストで失われることを避ける。
知識幻覚ベンチマークの実験ではCOFTの有効性が示され、F1スコアの30%以上の性能が向上した。
論文 参考訳(メタデータ) (2024-10-19T13:59:48Z) - Difficulty Estimation and Simplification of French Text Using LLMs [1.0568851068989973]
外国語テキストの難易度を推定することに集中して,大規模言語モデルを言語学習アプリケーションに活用する。
本研究では,ラベル付き例,移動学習,および大規模言語モデルを用いた難易度分類モデルを構築し,従来の手法に比べて精度が高いことを示す。
我々の実験はフランス語のテキストで行われているが、我々の手法は言語に依存しず、他の外国語にも直接適用できる。
論文 参考訳(メタデータ) (2024-07-25T14:16:08Z) - Automating Easy Read Text Segmentation [2.7309692684728617]
読みやすいテキストは、読み難い人のための情報にアクセスするための主要な形態の1つである。
このタイプのテキストの重要な特徴の1つは、文をより小さな文法セグメントに分割する必要があることである。
マスク付きおよび生成言語モデルと構成的構文解析を併用して,タスクのための新しい手法について検討する。
論文 参考訳(メタデータ) (2024-06-17T12:25:25Z) - Pixel Sentence Representation Learning [67.4775296225521]
本研究では,視覚表現学習プロセスとして,文レベルのテキスト意味論の学習を概念化する。
タイポスや単語順シャッフルのような視覚的に接地されたテキスト摂動法を採用し、人間の認知パターンに共鳴し、摂動を連続的に認識できるようにする。
我々のアプローチは、大規模に教師なしのトピックアライメントトレーニングと自然言語推論監督によってさらに強化されている。
論文 参考訳(メタデータ) (2024-02-13T02:46:45Z) - ChatPRCS: A Personalized Support System for English Reading
Comprehension based on ChatGPT [3.847982502219679]
本稿では,ChatPRCSと呼ばれる読解支援システムを提案する。
ChatPRCSは、理解能力予測、質問生成、自動評価などの手法を採用している。
論文 参考訳(メタデータ) (2023-09-22T11:46:44Z) - Learning Symbolic Rules over Abstract Meaning Representations for
Textual Reinforcement Learning [63.148199057487226]
本稿では,汎用的な意味一般化とルール誘導システムを組み合わせて,解釈可能なルールをポリシーとして学習するモジュール型 NEuroSymbolic Textual Agent (NESTA) を提案する。
実験の結果,NESTA法は,未確認テストゲームや少ないトレーニングインタラクションから学習することで,深層強化学習技術よりも優れることがわかった。
論文 参考訳(メタデータ) (2023-07-05T23:21:05Z) - Prompt-based Learning for Text Readability Assessment [0.4757470449749875]
可読性評価のための事前学習されたSeq2seqモデルの新規適応を提案する。
与えられた2つのテキストからより難しいテキストを区別するために、Seq2seqモデルを適用できることを実証する。
論文 参考訳(メタデータ) (2023-02-25T18:39:59Z) - Language Matters: A Weakly Supervised Pre-training Approach for Scene
Text Detection and Spotting [69.77701325270047]
本稿では,シーンテキストを効果的に表現できる弱教師付き事前学習手法を提案する。
本ネットワークは,画像エンコーダと文字認識型テキストエンコーダから構成され,視覚的特徴とテキスト的特徴を抽出する。
実験により、事前訓練されたモデルは、重みを他のテキスト検出やスポッティングネットワークに転送しながら、Fスコアを+2.5%、+4.8%改善することが示された。
論文 参考訳(メタデータ) (2022-03-08T08:10:45Z) - Leveraging Pre-trained Language Model for Speech Sentiment Analysis [58.78839114092951]
本研究では、事前学習された言語モデルを用いて、文章の感情情報を学習し、音声の感情分析を行う。
本稿では,言語モデルを用いた擬似ラベルに基づく半教師付き訓練戦略を提案する。
論文 参考訳(メタデータ) (2021-06-11T20:15:21Z) - Narrative Incoherence Detection [76.43894977558811]
本稿では,文間セマンティック理解のための新たなアリーナとして,物語不整合検出の課題を提案する。
複数文の物語を考えると、物語の流れに意味的な矛盾があるかどうかを決定します。
論文 参考訳(メタデータ) (2020-12-21T07:18:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。