論文の概要: Reading Between the Lines: A dataset and a study on why some texts are tougher than others
- arxiv url: http://arxiv.org/abs/2501.01796v1
- Date: Fri, 03 Jan 2025 13:09:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-06 15:11:48.759326
- Title: Reading Between the Lines: A dataset and a study on why some texts are tougher than others
- Title(参考訳): 行間を読む: データセットと、あるテキストが他のテキストよりも難しい理由に関する研究
- Authors: Nouran Khallaf, Carlo Eugeni, Serge Sharoff,
- Abstract要約: 本研究の目的は,知的障害のある特定の観衆に対して,テキストの読解が難しいことの理解を深めることである。
本稿では,心理学における経験的研究に基づく難易度アノテーションの体系について紹介する。
マルチクラス分類のタスクを実行するために,4種類の事前学習型トランスフォーマーモデルを微調整した。
- 参考スコア(独自算出の注目度): 0.20482269513546458
- License:
- Abstract: Our research aims at better understanding what makes a text difficult to read for specific audiences with intellectual disabilities, more specifically, people who have limitations in cognitive functioning, such as reading and understanding skills, an IQ below 70, and challenges in conceptual domains. We introduce a scheme for the annotation of difficulties which is based on empirical research in psychology as well as on research in translation studies. The paper describes the annotated dataset, primarily derived from the parallel texts (standard English and Easy to Read English translations) made available online. we fine-tuned four different pre-trained transformer models to perform the task of multiclass classification to predict the strategies required for simplification. We also investigate the possibility to interpret the decisions of this language model when it is aimed at predicting the difficulty of sentences. The resources are available from https://github.com/Nouran-Khallaf/why-tough
- Abstract(参考訳): 本研究の目的は、知的障害のある特定の観衆にとってテキストを読むのが難しいこと、具体的には、読解能力や理解能力、70歳未満のIQ、概念領域の課題など、認知機能に制限がある人々に対する理解を深めることである。
本稿では,心理学における実証的研究と翻訳研究に基づく難易度アノテーションの体系について紹介する。
本論文は、オンラインで利用可能な平行テキスト(標準英語と可読英語の翻訳)から主に派生した注釈付きデータセットについて述べる。
我々は4種類の事前学習型トランスフォーマーモデルを微調整し、マルチクラス分類のタスクを実行し、単純化に必要な戦略を予測した。
また、文の難易度を予測することを目的として、この言語モデルの決定を解釈する可能性についても検討する。
リソースはhttps://github.com/Nouran-Khallaf/why-toughから入手できる。
関連論文リスト
- Evaluating LLMs for Targeted Concept Simplification for Domain-Specific Texts [53.421616210871704]
コンテクストの欠如と難解な概念に対する不慣れさは、大人の読者がドメイン固有のテキストに難渋する大きな理由である。
テキストの書き直しを簡略化し,不慣れな概念を含むテキストの理解を支援する「目標概念の簡略化」を提案する。
本研究は,オープンソースおよび商用LLMの性能と,この課題に対する簡単な辞書ベースラインのベンチマークを行う。
論文 参考訳(メタデータ) (2024-10-28T05:56:51Z) - Interpreting Themes from Educational Stories [9.608135094187912]
本稿では,教育物語の解釈的理解に特化して設計された最初のデータセットを紹介する。
データセットはさまざまなジャンルや文化的な起源にまたがっており、人間に注釈を付けたテーマキーワードを含んでいる。
我々は、物語の主観に向けて解釈的理解の異なる抽象概念の下でNLPタスクを定式化する。
論文 参考訳(メタデータ) (2024-04-08T07:26:27Z) - LC-Score: Reference-less estimation of Text Comprehension Difficulty [0.0]
我々は、参照なしのフランス語テキストに対して、テキスト理解度を訓練するための簡単なアプローチであるtextscLC-Scoreを提示する。
我々の目的は,テキストがtextitLangage Clair (LC, textitClear Language) ガイドラインに適合する範囲を定量的に把握することである。
i) 統計モデルの学習に使用される言語的動機付け指標を使用すること,(ii) 事前学習された言語モデルを利用したテキストから直接ニューラルラーニングを行うこと,の2つのアプローチを探索する。
論文 参考訳(メタデータ) (2023-10-04T11:49:37Z) - ChatPRCS: A Personalized Support System for English Reading
Comprehension based on ChatGPT [3.847982502219679]
本稿では,ChatPRCSと呼ばれる読解支援システムを提案する。
ChatPRCSは、理解能力予測、質問生成、自動評価などの手法を採用している。
論文 参考訳(メタデータ) (2023-09-22T11:46:44Z) - A Neural-Symbolic Approach Towards Identifying Grammatically Correct
Sentences [0.0]
テキスト要約、質問回答、機械翻訳、代名詞分解といった課題に取り組むためには、有効な情報源から十分に書かれたテキストにアクセスすることが重要であると一般に受け入れられている。
本稿では,新しいニューラルシンボリックアプローチにより,英語の文を簡易に検証する方法を提案する。
論文 参考訳(メタデータ) (2023-07-16T13:21:44Z) - Lexical Complexity Prediction: An Overview [13.224233182417636]
テキスト中の未知の単語の発生は、読書の理解を著しく妨げている。
計算モデリングは、テキスト中の複雑な単語を識別し、より単純な代替語に置き換えるために応用されている。
本稿では,英文データに基づく語彙複雑性予測に対する計算手法の概要について述べる。
論文 参考訳(メタデータ) (2023-03-08T19:35:08Z) - APOLLO: A Simple Approach for Adaptive Pretraining of Language Models
for Logical Reasoning [73.3035118224719]
本稿では,論理的推論能力を改善した適応事前学習型言語モデルAPOLLOを提案する。
APOLLOはReClorで比較可能であり、LogiQAでベースラインを上回ります。
論文 参考訳(メタデータ) (2022-12-19T07:40:02Z) - Narrative Incoherence Detection [76.43894977558811]
本稿では,文間セマンティック理解のための新たなアリーナとして,物語不整合検出の課題を提案する。
複数文の物語を考えると、物語の流れに意味的な矛盾があるかどうかを決定します。
論文 参考訳(メタデータ) (2020-12-21T07:18:08Z) - Abstractive Summarization of Spoken and Written Instructions with BERT [66.14755043607776]
本稿では,BERTSumモデルの最初の対話型言語への応用について述べる。
我々は多種多様な話題にまたがるナレーションビデオの抽象要約を生成する。
我々は、これをインテリジェントな仮想アシスタントの機能として統合し、要求に応じて文字と音声の両方の指導内容の要約を可能にすることを想定する。
論文 参考訳(メタデータ) (2020-08-21T20:59:34Z) - Expertise Style Transfer: A New Task Towards Better Communication
between Experts and Laymen [88.30492014778943]
そこで我々は,手動で注釈付きデータセットを手動で提供し,専門的なスタイルの転送を行う新しいタスクを提案する。
このタスクの解決は、プロの言語を単純化するだけでなく、レイメンの記述の正確さと専門性の向上にも寄与する。
スタイル転送とテキスト単純化のための5つの最先端モデルのベンチマーク性能を確立する。
論文 参考訳(メタデータ) (2020-05-02T04:50:20Z) - Information-Theoretic Probing for Linguistic Structure [74.04862204427944]
本稿では,相互情報を推定するための情報理論による探索運用手法を提案する。
我々は,NLP研究でしばしば不足している10の型的多様言語について評価した。
論文 参考訳(メタデータ) (2020-04-07T01:06:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。