論文の概要: Cognitive Simplification Operations Improve Text Simplification
- arxiv url: http://arxiv.org/abs/2211.08825v1
- Date: Wed, 16 Nov 2022 10:51:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 13:51:15.984577
- Title: Cognitive Simplification Operations Improve Text Simplification
- Title(参考訳): テキストのシンプル化を改善する認知的単純化操作
- Authors: Eytan Chamovitz and Omri Abend
- Abstract要約: 本稿では,認知的アクセシビリティ領域からの知識をテキスト単純化モデルに組み込む手法を提案する。
TS学習モデルにこの帰納バイアスを加えることで、CSデータを見ることなく認知単純化に適応できることを示す。
- 参考スコア(独自算出の注目度): 24.970301040693883
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Text Simplification (TS) is the task of converting a text into a form that is
easier to read while maintaining the meaning of the original text. A sub-task
of TS is Cognitive Simplification (CS), converting text to a form that is
readily understood by people with cognitive disabilities without rendering it
childish or simplistic. This sub-task has yet to be explored with neural
methods in NLP, and resources for it are scarcely available. In this paper, we
present a method for incorporating knowledge from the cognitive accessibility
domain into a TS model, by introducing an inductive bias regarding what
simplification operations to use. We show that by adding this inductive bias to
a TS-trained model, it is able to adapt better to CS without ever seeing CS
data, and outperform a baseline model on a traditional TS benchmark. In
addition, we provide a novel test dataset for CS, and analyze the differences
between CS corpora and existing TS corpora, in terms of how simplification
operations are applied.
- Abstract(参考訳): Text Simplification (TS) は、テキストを元のテキストの意味を維持しながら読みやすい形式に変換するタスクである。
TSのサブタスクは認知単純化(Cognitive Simplification, CS)であり、テキストを認知障害のある人に容易に理解できる形式に変換する。
このサブタスクはnlpのニューラルメソッドではまだ検討されておらず、そのリソースはほとんど利用できない。
本稿では,認知アクセシビリティ領域からの知識をTSモデルに組み込む手法を提案する。
この帰納バイアスをTSトレーニングモデルに追加することにより、CSデータを見ることなくCSに適応し、従来のTSベンチマークでベースラインモデルより優れていることを示す。
さらに,CS コーパスと既存の TS コーパスの違いを,単純化操作の適用方法の観点から解析し,新しい CS テストデータセットを提供する。
関連論文リスト
- Analysing Zero-Shot Readability-Controlled Sentence Simplification [54.09069745799918]
本研究では,異なる種類の文脈情報が,所望の可読性を持つ文を生成するモデルの能力に与える影響について検討する。
結果から,全ての試験されたモデルは,原文の制限や特徴のため,文の簡略化に苦慮していることがわかった。
実験では、RCTSに合わせたより良い自動評価指標の必要性も強調した。
論文 参考訳(メタデータ) (2024-09-30T12:36:25Z) - Injecting linguistic knowledge into BERT for Dialogue State Tracking [60.42231674887294]
本稿では,教師なしの枠組みを用いて言語知識を抽出する手法を提案する。
次に、この知識を用いて、対話状態追跡(DST)タスクにおけるBERTの性能と解釈可能性を高める。
このフレームワークを様々なDSTタスクでベンチマークし、精度の顕著な改善を観察する。
論文 参考訳(メタデータ) (2023-11-27T08:38:42Z) - Learning Symbolic Rules over Abstract Meaning Representations for
Textual Reinforcement Learning [63.148199057487226]
本稿では,汎用的な意味一般化とルール誘導システムを組み合わせて,解釈可能なルールをポリシーとして学習するモジュール型 NEuroSymbolic Textual Agent (NESTA) を提案する。
実験の結果,NESTA法は,未確認テストゲームや少ないトレーニングインタラクションから学習することで,深層強化学習技術よりも優れることがわかった。
論文 参考訳(メタデータ) (2023-07-05T23:21:05Z) - On Conditional and Compositional Language Model Differentiable Prompting [75.76546041094436]
プロンプトは、下流タスクでうまく機能するために、凍結した事前訓練言語モデル(PLM)を適応するための効果的な方法であることが示されている。
タスク命令や入力メタデータを連続的なプロンプトに変換することを学習する新しいモデル Prompt Production System (PRopS) を提案する。
論文 参考訳(メタデータ) (2023-07-04T02:47:42Z) - Scalable Learning of Latent Language Structure With Logical Offline
Cycle Consistency [71.42261918225773]
概念的には、LOCCOは、トレーニング対象のセマンティクスを使用してラベルなしテキストのアノテーションを生成する、自己学習の一形態と見なすことができる。
追加ボーナスとして、LOCCOによって生成されたアノテーションは、神経テキスト生成モデルをトレーニングするために自明に再利用することができる。
論文 参考訳(メタデータ) (2023-05-31T16:47:20Z) - (Psycho-)Linguistic Features Meet Transformer Models for Improved
Explainable and Controllable Text Simplification [31.64341800095214]
我々は、説明可能かつ制御可能なTSに関する現在の研究を進めることを目指している。
我々は、説明可能な複雑性予測を改善するために、事前訓練された言語モデルと組み合わせて、多数の(心理学的)言語的特徴を用いる。
最新のSeq2Seq TSモデルであるACCESSを拡張して、10つの属性の明示的な制御を可能にする。
論文 参考訳(メタデータ) (2022-12-19T20:46:21Z) - Investigating Text Simplification Evaluation [21.128143745540292]
現代のテキスト単純化(TS)は、機械学習モデルを構築するための金の標準データの利用に大きく依存している。
既存の研究では、平行TSコーパスは不正確な単純化と不正確なアライメントを含むことが示されている。
評価は通常、BLEUやSARIといったメトリクスを使用して、システム出力と金の標準を比較することで行われる。
論文 参考訳(メタデータ) (2021-07-28T22:49:32Z) - A Survey on Text Simplification [0.0]
Text Simplification (TS)は、コンテンツの言語的複雑さを減らし、理解しやすくすることを目的としている。
この調査は、TSの包括的な概要を提供し、それ以前に使用されていたアプローチの簡単な説明を含むことを目指している。
論文 参考訳(メタデータ) (2020-08-19T18:12:33Z) - Predicting What You Already Know Helps: Provable Self-Supervised
Learning [60.27658820909876]
自己教師付き表現学習は、ラベル付きデータを必要としない補助的な予測タスク(プリテキストタスクと呼ばれる)を解決する。
本研究では,特定のエミュレーションに基づくプレテキストタスク間の統計的関係を利用して,優れた表現を学習することを保証する機構を示す。
複素基底真理関数クラスにおいても線形層は近似誤差が小さいことを証明した。
論文 参考訳(メタデータ) (2020-08-03T17:56:13Z) - Deep Transformer based Data Augmentation with Subword Units for
Morphologically Rich Online ASR [0.0]
ディープトランスフォーマーモデルは、ASRの言語モデリングタスクにおいて特に強力であることが証明されている。
近年の研究では、ニューラルネットワーク言語モデル(LM)の知識の大部分は、ニューラルテキスト生成に基づくデータ拡張を用いて従来のn-gramに転送可能であることが示されている。
トランスフォーマー生成したテキストによるデータ拡張は、孤立言語ではうまく機能するが、形態的にリッチな言語では語彙が爆発する。
そこで我々は,生成したテキストを統計的に派生したサブワードに再学習する,サブワードベースのニューラルテキスト拡張法を提案する。
論文 参考訳(メタデータ) (2020-07-14T10:22:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。