論文の概要: Hone as You Read: A Practical Type of Interactive Summarization
- arxiv url: http://arxiv.org/abs/2105.02923v1
- Date: Thu, 6 May 2021 19:36:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-10 12:14:35.830270
- Title: Hone as You Read: A Practical Type of Interactive Summarization
- Title(参考訳): Hone as you Read: A Practical Type of Interactive Summarization
- Authors: Tanner Bohn and Charles X. Ling
- Abstract要約: HAREは、個人的な興味のためにドキュメント要約を最適化するために読者からのフィードバックを使用する新しいタスクです。
このタスクは、長いフィードバックステージに従ってパーソナライズされた要約が生成されるインタラクティブな要約に関連している。
読み上げプロセス中に最小限の侵襲的なフィードバックを収集し、ユーザの関心に適応し、ドキュメントをリアルタイムで拡張することを提案する。
- 参考スコア(独自算出の注目度): 6.662800021628275
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present HARE, a new task where reader feedback is used to optimize
document summaries for personal interest during the normal flow of reading.
This task is related to interactive summarization, where personalized summaries
are produced following a long feedback stage where users may read the same
sentences many times. However, this process severely interrupts the flow of
reading, making it impractical for leisurely reading. We propose to gather
minimally-invasive feedback during the reading process to adapt to user
interests and augment the document in real-time. Building off of recent
advances in unsupervised summarization evaluation, we propose a suitable metric
for this task and use it to evaluate a variety of approaches. Our approaches
range from simple heuristics to preference-learning and their analysis provides
insight into this important task. Human evaluation additionally supports the
practicality of HARE. The code to reproduce this work is available at
https://github.com/tannerbohn/HoneAsYouRead.
- Abstract(参考訳): 本稿では,通常の読み出しフローにおいて,文書要約を個人的関心事に最適化する新しいタスクであるHAREを提案する。
このタスクは、ユーザーが同じ文章を何度も読むことができる長いフィードバックステージに従ってパーソナライズされた要約が生成されるインタラクティブな要約に関連している。
しかし、このプロセスは読みの流れを著しく中断し、余暇に読み取るには実用的でない。
本稿では,読解プロセス中に最小限の侵襲的なフィードバックを収集し,ユーザの関心に適応し,文書をリアルタイムで拡張することを提案する。
教師なし要約評価の最近の進歩を生かして,本課題に適した指標を提案し,様々なアプローチを評価する。
私たちのアプローチは、単純なヒューリスティックから選好学習までさまざまで、分析によってこの重要なタスクに対する洞察が得られます。
人的評価もHAREの実践性を支持する。
この作業を再現するコードはhttps://github.com/tannerbohn/HoneAsYouRead.comで公開されている。
関連論文リスト
- Previously on the Stories: Recap Snippet Identification for Story
Reading [51.641565531840186]
本稿では,手作り評価データセットを用いたRecap Snippet Identificationと呼ばれる,この有用なタスクに関する最初のベンチマークを提案する。
本実験により,提案課題は,提案課題がスニペット間のプロット相関の深い理解を必要とするため,PLM,LSM,および提案手法に難題であることが判明した。
論文 参考訳(メタデータ) (2024-02-11T18:27:14Z) - OpineSum: Entailment-based self-training for abstractive opinion
summarization [6.584115526134759]
本稿では,抽象的な意見要約のための新しい自己学習手法,OpineSumを提案する。
このアプローチの要約は、テキスト・エンターメントの新たな応用を用いて構築されている。
OpineSumは、両方の設定で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-12-21T06:20:28Z) - Summarization with Graphical Elements [55.5913491389047]
本稿では,グラフィカル要素による要約という新しい課題を提案する。
タスクの研究を支援するために,高品質なラベル付きデータセットを収集する。
論文 参考訳(メタデータ) (2022-04-15T17:16:41Z) - Make The Most of Prior Data: A Solution for Interactive Text
Summarization with Preference Feedback [15.22874706089491]
我々は、好みのフィードバックで要約モデルを対話的に訓練する新しいフレームワークを導入する。
オフラインデータと新しい報酬モデルを適切に活用することにより、ROUGEスコアとサンプル効率に関する性能を向上させる。
論文 参考訳(メタデータ) (2022-04-12T03:56:59Z) - FineDiving: A Fine-grained Dataset for Procedure-aware Action Quality
Assessment [93.09267863425492]
競争力のあるスポーツビデオにおける行動の高レベル意味論と内部時間構造の両方を理解することが、予測を正確かつ解釈可能なものにする鍵である、と我々は主張する。
本研究では,多様なダイビングイベントに対して,アクションプロシージャに関する詳細なアノテーションを付加した,ファインディビングと呼ばれる詳細なデータセットを構築した。
論文 参考訳(メタデータ) (2022-04-07T17:59:32Z) - iFacetSum: Coreference-based Interactive Faceted Summarization for
Multi-Document Exploration [63.272359227081836]
iFacetSumは、インタラクティブな要約と顔検索を統合している。
微粒なファセットは、クロスドキュメントのコア参照パイプラインに基づいて自動的に生成される。
論文 参考訳(メタデータ) (2021-09-23T20:01:11Z) - Adaptive Summaries: A Personalized Concept-based Summarization Approach
by Learning from Users' Feedback [0.0]
本稿では,アダプティブ・サマリー(Adaptive Summaries)と呼ばれるインタラクティブな概念に基づく要約モデルを提案する。
本システムは,反復ループでフィードバックを与えることで,システムと対話しながら,ユーザの提供した情報から徐々に学習する。
生成したサマリーでユーザ好みのコンテンツを最大化することで、ユーザの好みに基づいた高品質なサマリー作成を支援する。
論文 参考訳(メタデータ) (2020-12-24T18:27:50Z) - Read what you need: Controllable Aspect-based Opinion Summarization of
Tourist Reviews [23.7107052882747]
オンライン観光レビューからパーソナライズされたアスペクトベースの意見要約を作成するためのソリューションの必要性と提案を議論する。
読者に、興味のある長さや特定の側面など、要約のいくつかの属性を決定し、制御させます。
具体的には、TripAdvisorに投稿された観光レビューからコヒーレントな側面を抽出するための教師なしアプローチを採っている。
論文 参考訳(メタデータ) (2020-06-08T15:03:38Z) - Unsupervised Opinion Summarization with Noising and Denoising [85.49169453434554]
ユーザレビューのコーパスから合成データセットを作成し、レビューをサンプリングし、要約のふりをして、ノイズのあるバージョンを生成します。
テスト時に、モデルは本物のレビューを受け入れ、健全な意見を含む要約を生成し、合意に達しないものをノイズとして扱います。
論文 参考訳(メタデータ) (2020-04-21T16:54:57Z) - ORB: An Open Reading Benchmark for Comprehensive Evaluation of Machine
Reading Comprehension [53.037401638264235]
我々は,7種類の読解データセットの性能を報告する評価サーバORBを提案する。
評価サーバは、モデルのトレーニング方法に制限を課さないため、トレーニングパラダイムや表現学習の探索に適したテストベッドである。
論文 参考訳(メタデータ) (2019-12-29T07:27:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。