論文の概要: A Computational Analysis of Vagueness in Revisions of Instructional
Texts
- arxiv url: http://arxiv.org/abs/2309.12107v1
- Date: Thu, 21 Sep 2023 14:26:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-22 14:57:07.448822
- Title: A Computational Analysis of Vagueness in Revisions of Instructional
Texts
- Title(参考訳): 教育用テキストの改訂における曖昧さの計算解析
- Authors: Alok Debnath, Michael Roth
- Abstract要約: 修正前後の命令のペアワイズ版を抽出する。
データ中の2種類の命令を区別するニューラルネットワークの能力について検討する。
- 参考スコア(独自算出の注目度): 2.2577978123177536
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: WikiHow is an open-domain repository of instructional articles for a variety
of tasks, which can be revised by users. In this paper, we extract pairwise
versions of an instruction before and after a revision was made. Starting from
a noisy dataset of revision histories, we specifically extract and analyze
edits that involve cases of vagueness in instructions. We further investigate
the ability of a neural model to distinguish between two versions of an
instruction in our data by adopting a pairwise ranking task from previous work
and showing improvements over existing baselines.
- Abstract(参考訳): WikiHowは、様々なタスクのための教育記事のオープンドメインリポジトリであり、ユーザーが修正することができる。
本稿では,修正前後の命令のペアバージョンを抽出する。
ノイズの多いリビジョン履歴のデータセットから、特に指示の不明瞭なケースを含む編集を抽出し分析する。
さらに,前回の作業からペアワイズランキングタスクを採用し,既存のベースラインよりも改善を示すことで,データ内の命令の2つのバージョンを区別するニューラルモデルの可能性についても検討した。
関連論文リスト
- Beyond Coarse-Grained Matching in Video-Text Retrieval [50.799697216533914]
きめ細かい評価のための新しいアプローチを導入する。
テストキャプションを自動的に生成することで,既存のデータセットにアプローチを適用することができる。
きめ細かい評価実験は、このアプローチがきめ細かな違いを理解するモデルの能力を高めることを実証している。
論文 参考訳(メタデータ) (2024-10-16T09:42:29Z) - One-Shot Learning as Instruction Data Prospector for Large Language Models [108.81681547472138]
textscNuggetsはワンショット学習を使用して、広範なデータセットから高品質な命令データを選択する。
我々は,textscNuggets がキュレートした例の上位1%による命令チューニングが,データセット全体を用いた従来の手法よりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2023-12-16T03:33:12Z) - To Revise or Not to Revise: Learning to Detect Improvable Claims for
Argumentative Writing Support [20.905660642919052]
特定の修正が必要な議論的クレームを特定するための主な課題について検討する。
本稿では,リビジョン距離に基づく新しいサンプリング戦略を提案する。
文脈情報とドメイン知識を用いることで、予測結果をさらに改善できることを示す。
論文 参考訳(メタデータ) (2023-05-26T10:19:54Z) - EditEval: An Instruction-Based Benchmark for Text Improvements [73.5918084416016]
編集機能の自動評価のためのインストラクションベース、ベンチマーク、評価スイートであるEditEvalを提示する。
InstructGPTとPEERが最良であることを示す事前学習モデルをいくつか評価するが,ほとんどのベースラインは教師付きSOTA以下である。
我々の分析は、タスクの編集によく使われるメトリクスが必ずしも相関しているとは限らないことを示し、最高の性能を持つプロンプトに対する最適化は、必ずしも異なるモデルに対して強い堅牢性を持つとは限らないことを示唆している。
論文 参考訳(メタデータ) (2022-09-27T12:26:05Z) - Understanding Iterative Revision from Human-Written Text [10.714872525208385]
IteraTeRは、反復的に修正されたテキストの最初の大規模、複数ドメイン、編集意図の注釈付きコーパスである。
テキストのリビジョンプロセスをよりよく理解し、編集意図と執筆品質の間に重要なつながりを築き上げます。
論文 参考訳(メタデータ) (2022-03-08T01:47:42Z) - Aspect-Controllable Opinion Summarization [58.5308638148329]
アスペクトクエリに基づいてカスタマイズした要約を生成する手法を提案する。
レビューコーパスを用いて、アスペクトコントローラで強化された(リビュー、サマリ)ペアの合成トレーニングデータセットを作成する。
合成データセットを用いて事前学習したモデルを微調整し、アスペクトコントローラを変更することでアスペクト固有の要約を生成する。
論文 参考訳(メタデータ) (2021-09-07T16:09:17Z) - WikiAsp: A Dataset for Multi-domain Aspect-based Summarization [69.13865812754058]
マルチドメインアスペクトベースの要約のための大規模データセットであるWikiAspを提案する。
具体的には、アスペクトアノテーションのプロキシとして、各記事のセクションタイトルとバウンダリを使用して、20の異なるドメインからウィキペディア記事を使用してデータセットを構築します。
その結果,既存の要約モデルがこの設定で直面する重要な課題,例えば引用されたソースの適切な代名詞処理,時間に敏感なイベントの一貫した説明などが浮き彫りになった。
論文 参考訳(メタデータ) (2020-11-16T10:02:52Z) - From Dataset Recycling to Multi-Property Extraction and Beyond [7.670897251425096]
本稿では,WikiReading Information extractとMachine Readingのデータセット上で,様々なトランスフォーマーアーキテクチャについて検討する。
提案したデュアルソースモデルは,現在の最先端技術よりも大きなマージンで優れている。
WikiReading Recycled - 新たに開発された公開データセットと複数プロパティ抽出の課題を紹介する。
論文 参考訳(メタデータ) (2020-11-06T08:22:12Z) - Learning to Update Natural Language Comments Based on Code Changes [48.829941738578086]
我々は、対応するコード本体の変更に基づいて、既存の自然言語コメントを自動的に更新する新しいタスクを定式化する。
本稿では,2つの異なる言語表現にまたがる変化の相関関係を学習し,ソースコード修正を反映した既存のコメントに適用される一連の編集を生成する手法を提案する。
論文 参考訳(メタデータ) (2020-04-25T15:37:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。