論文の概要: Unsupervised Editing for Counterfactual Stories
- arxiv url: http://arxiv.org/abs/2112.05417v1
- Date: Fri, 10 Dec 2021 09:49:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-13 13:20:57.126387
- Title: Unsupervised Editing for Counterfactual Stories
- Title(参考訳): 疑似ストーリーの教師なし編集
- Authors: Jiangjie Chen, Chun Gan, Sijie Cheng, Hao Zhou, Yanghua Xiao, Lei Li
- Abstract要約: 本稿では,編集による非教師なしのストーリー書き換え手法であるEDUCATを提案する。
EDUCATは, 自動評価と人的評価の両面から, 教師なしSOTA法よりも優れたトレードオフを達成できることを示す。
- 参考スコア(独自算出の注目度): 22.843821370913655
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Creating what-if stories requires reasoning about prior statements and
possible outcomes of the changed conditions. One can easily generate coherent
endings under new conditions, but it would be challenging for current systems
to do it with minimal changes to the original story. Therefore, one major
challenge is the trade-off between generating a logical story and rewriting
with minimal-edits. In this paper, we propose EDUCAT, an editing-based
unsupervised approach for counterfactual story rewriting. EDUCAT includes a
target position detection strategy based on estimating causal effects of the
what-if conditions, which keeps the causal invariant parts of the story. EDUCAT
then generates the stories under fluency, coherence and minimal-edits
constraints. We also propose a new metric to alleviate the shortcomings of
current automatic metrics and better evaluate the trade-off. We evaluate EDUCAT
on a public counterfactual story rewriting benchmark. Experiments show that
EDUCAT achieves the best trade-off over unsupervised SOTA methods according to
both automatic and human evaluation. The resources of EDUCAT are available at:
https://github.com/jiangjiechen/EDUCAT.
- Abstract(参考訳): what-ifストーリーを作成するには、事前のステートメントと変更条件の可能な結果について推論する必要がある。
新しい条件下では、一貫性のある終端を簡単に生成できるが、現在のシステムでは、元のストーリーに最小限の変更を加えることは困難である。
したがって、大きな課題のひとつは、論理的なストーリーの生成と最小限の編集による書き直しのトレードオフである。
本稿では,編集による非教師なしのストーリー書き換え手法であるEDUCATを提案する。
EDUCATは、What-if条件の因果効果を推定した目標位置検出戦略を含み、ストーリーの因果不変部分を保っている。
EDUCATは、流布、一貫性、最小限の編集制約の下でストーリーを生成する。
また、現在の自動メトリクスの欠点を緩和し、トレードオフをよりよく評価する新しい指標を提案する。
我々は, EDUCATを公開対実ストーリ書き換えベンチマークで評価した。
実験の結果,EDUCATは自動評価と人的評価の両方で,教師なしSOTA法よりも最良のトレードオフを実現することがわかった。
EDUCATのリソースは、https://github.com/jiangjiechen/EDUCATで入手できる。
関連論文リスト
- Failing Forward: Improving Generative Error Correction for ASR with Synthetic Data and Retrieval Augmentation [73.9145653659403]
生成誤差補正モデルは、トレーニング中に発生する特定の種類のエラーを超えて一般化することが困難であることを示す。
DARAGは、ドメイン内(ID)およびOODシナリオにおけるASRのためのGCCを改善するために設計された新しいアプローチである。
私たちのアプローチはシンプルでスケーラブルで、ドメインと言語に依存しません。
論文 参考訳(メタデータ) (2024-10-17T04:00:29Z) - Beyond human subjectivity and error: a novel AI grading system [67.410870290301]
オープンエンドの質問の格付けは、教育における高い努力と高いインパクトの課題である。
AI技術の最近のブレークスルーは、このような自動化を促進するかもしれないが、大規模に実証されていない。
本稿では,新しい自動短解階調システム(ASAG)を提案する。
論文 参考訳(メタデータ) (2024-05-07T13:49:59Z) - WeCheck: Strong Factual Consistency Checker via Weakly Supervised
Learning [40.5830891229718]
本稿では,複数のリソースを集約して,正確かつ効率的な実測値(WeCheck)をトレーニングする,弱教師付きフレームワークを提案する。
様々なタスクに関する総合的な実験は、平均してTRUEベンチマークにおける従来の最先端手法よりも3.4%の絶対的な改善を実現するWeCheckの強い性能を示す。
論文 参考訳(メタデータ) (2022-12-20T08:04:36Z) - CORE: A Retrieve-then-Edit Framework for Counterfactual Data Generation [91.16551253297588]
Counterfactual Generation via Retrieval and Editing (CORE) は、トレーニングのための多様な反事実摂動を生成するための検索強化された生成フレームワークである。
COREはまず、学習されたバイエンコーダを用いて、タスク関連未ラベルテキストコーパス上で密集した検索を行う。
COREはこれらを、反ファクト編集のために、数ショットの学習機能を備えた大規模な言語モデルへのプロンプトに組み込む。
論文 参考訳(メタデータ) (2022-10-10T17:45:38Z) - EditEval: An Instruction-Based Benchmark for Text Improvements [73.5918084416016]
編集機能の自動評価のためのインストラクションベース、ベンチマーク、評価スイートであるEditEvalを提示する。
InstructGPTとPEERが最良であることを示す事前学習モデルをいくつか評価するが,ほとんどのベースラインは教師付きSOTA以下である。
我々の分析は、タスクの編集によく使われるメトリクスが必ずしも相関しているとは限らないことを示し、最高の性能を持つプロンプトに対する最適化は、必ずしも異なるモデルに対して強い堅牢性を持つとは限らないことを示唆している。
論文 参考訳(メタデータ) (2022-09-27T12:26:05Z) - Towards Automated Document Revision: Grammatical Error Correction,
Fluency Edits, and Beyond [46.130399041820716]
ACLアンソロジーから採取した学術論文をプロの編集者が改訂する文書改訂コーパスTETRAを導入する。
TETRAの独特性を既存の文書修正コーパスと比較し、微妙な違いであっても、修正後の文書の品質を識別できることを実証する。
論文 参考訳(メタデータ) (2022-05-23T17:37:20Z) - Factual Error Correction for Abstractive Summaries Using Entity
Retrieval [57.01193722520597]
本稿では,エンティティ検索後処理に基づく効率的な事実誤り訂正システムRFECを提案する。
RFECは、原文と対象要約とを比較して、原文から証拠文を検索する。
次に、RFECは、エビデンス文を考慮し、要約中のエンティティレベルのエラーを検出し、エビデンス文から正確なエンティティに置換する。
論文 参考訳(メタデータ) (2022-04-18T11:35:02Z) - UNION: An Unreferenced Metric for Evaluating Open-ended Story Generation [92.42032403795879]
UNIONは、オープンなストーリー生成を評価するための、学習可能な未参照メトリックである。
人書きストーリーとネガティブなサンプルを区別し、ネガティブなストーリーの摂動を回復するように訓練されている。
2つのストーリーデータセットの実験では、UNIONが生成されたストーリーの品質を評価するための信頼性の高い尺度であることが示されている。
論文 参考訳(メタデータ) (2020-09-16T11:01:46Z) - Distributional Discrepancy: A Metric for Unconditional Text Generation [6.6159481812419045]
非条件テキスト生成の目的は、実際の文でモデルを訓練し、トレーニングデータと同じ品質と多様性の新規な文を生成することである。
生成した訓練文と実際の訓練文の相違に基づいて, 生成物を評価するために, 分散不一致(DD)の新たな指標を考案した。
DDは、これらの生成モデルをランキングする上で、既存の3つの指標よりもはるかに優れている。
論文 参考訳(メタデータ) (2020-05-04T05:53:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。