論文の概要: Hone as You Read: A Practical Type of Interactive Summarization
- arxiv url: http://arxiv.org/abs/2105.02923v1
- Date: Thu, 6 May 2021 19:36:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-10 12:14:35.830270
- Title: Hone as You Read: A Practical Type of Interactive Summarization
- Title(参考訳): Hone as you Read: A Practical Type of Interactive Summarization
- Authors: Tanner Bohn and Charles X. Ling
- Abstract要約: HAREは、個人的な興味のためにドキュメント要約を最適化するために読者からのフィードバックを使用する新しいタスクです。
このタスクは、長いフィードバックステージに従ってパーソナライズされた要約が生成されるインタラクティブな要約に関連している。
読み上げプロセス中に最小限の侵襲的なフィードバックを収集し、ユーザの関心に適応し、ドキュメントをリアルタイムで拡張することを提案する。
- 参考スコア(独自算出の注目度): 6.662800021628275
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present HARE, a new task where reader feedback is used to optimize
document summaries for personal interest during the normal flow of reading.
This task is related to interactive summarization, where personalized summaries
are produced following a long feedback stage where users may read the same
sentences many times. However, this process severely interrupts the flow of
reading, making it impractical for leisurely reading. We propose to gather
minimally-invasive feedback during the reading process to adapt to user
interests and augment the document in real-time. Building off of recent
advances in unsupervised summarization evaluation, we propose a suitable metric
for this task and use it to evaluate a variety of approaches. Our approaches
range from simple heuristics to preference-learning and their analysis provides
insight into this important task. Human evaluation additionally supports the
practicality of HARE. The code to reproduce this work is available at
https://github.com/tannerbohn/HoneAsYouRead.
- Abstract(参考訳): 本稿では,通常の読み出しフローにおいて,文書要約を個人的関心事に最適化する新しいタスクであるHAREを提案する。
このタスクは、ユーザーが同じ文章を何度も読むことができる長いフィードバックステージに従ってパーソナライズされた要約が生成されるインタラクティブな要約に関連している。
しかし、このプロセスは読みの流れを著しく中断し、余暇に読み取るには実用的でない。
本稿では,読解プロセス中に最小限の侵襲的なフィードバックを収集し,ユーザの関心に適応し,文書をリアルタイムで拡張することを提案する。
教師なし要約評価の最近の進歩を生かして,本課題に適した指標を提案し,様々なアプローチを評価する。
私たちのアプローチは、単純なヒューリスティックから選好学習までさまざまで、分析によってこの重要なタスクに対する洞察が得られます。
人的評価もHAREの実践性を支持する。
この作業を再現するコードはhttps://github.com/tannerbohn/HoneAsYouRead.comで公開されている。
関連論文リスト
- Annotator in the Loop: A Case Study of In-Depth Rater Engagement to Create a Bridging Benchmark Dataset [1.825224193230824]
本稿では,アノテーションのための新規かつ協調的かつ反復的なアノテーション手法について述べる。
以上の結果から,アノテータとの連携によりアノテーションの手法が強化されることが示唆された。
論文 参考訳(メタデータ) (2024-08-01T19:11:08Z) - Long-Span Question-Answering: Automatic Question Generation and QA-System Ranking via Side-by-Side Evaluation [65.16137964758612]
大規模言語モデルにおける長文文の活用について検討し,本書全体の読解データを作成する。
我々の目的は、長いテキストの詳細な理解を必要とする問題を分析し、理解し、推論するLLMの能力をテストすることである。
論文 参考訳(メタデータ) (2024-05-31T20:15:10Z) - Narrative Action Evaluation with Prompt-Guided Multimodal Interaction [60.281405999483]
ナラティブ・アクション・アセスメント(NAE)は、行動の実行を評価する専門家のコメントを作成することを目的としている。
NAEは、物語の柔軟性と評価の厳格さの両方を必要とするため、より困難なタスクです。
本稿では,様々な情報モダリティ間のインタラクションを容易にするための,プロンプト誘導型マルチモーダルインタラクションフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-22T17:55:07Z) - Previously on the Stories: Recap Snippet Identification for Story
Reading [51.641565531840186]
本稿では,手作り評価データセットを用いたRecap Snippet Identificationと呼ばれる,この有用なタスクに関する最初のベンチマークを提案する。
本実験により,提案課題は,提案課題がスニペット間のプロット相関の深い理解を必要とするため,PLM,LSM,および提案手法に難題であることが判明した。
論文 参考訳(メタデータ) (2024-02-11T18:27:14Z) - Summarization with Graphical Elements [55.5913491389047]
本稿では,グラフィカル要素による要約という新しい課題を提案する。
タスクの研究を支援するために,高品質なラベル付きデータセットを収集する。
論文 参考訳(メタデータ) (2022-04-15T17:16:41Z) - Make The Most of Prior Data: A Solution for Interactive Text
Summarization with Preference Feedback [15.22874706089491]
我々は、好みのフィードバックで要約モデルを対話的に訓練する新しいフレームワークを導入する。
オフラインデータと新しい報酬モデルを適切に活用することにより、ROUGEスコアとサンプル効率に関する性能を向上させる。
論文 参考訳(メタデータ) (2022-04-12T03:56:59Z) - FineDiving: A Fine-grained Dataset for Procedure-aware Action Quality
Assessment [93.09267863425492]
競争力のあるスポーツビデオにおける行動の高レベル意味論と内部時間構造の両方を理解することが、予測を正確かつ解釈可能なものにする鍵である、と我々は主張する。
本研究では,多様なダイビングイベントに対して,アクションプロシージャに関する詳細なアノテーションを付加した,ファインディビングと呼ばれる詳細なデータセットを構築した。
論文 参考訳(メタデータ) (2022-04-07T17:59:32Z) - Adaptive Summaries: A Personalized Concept-based Summarization Approach
by Learning from Users' Feedback [0.0]
本稿では,アダプティブ・サマリー(Adaptive Summaries)と呼ばれるインタラクティブな概念に基づく要約モデルを提案する。
本システムは,反復ループでフィードバックを与えることで,システムと対話しながら,ユーザの提供した情報から徐々に学習する。
生成したサマリーでユーザ好みのコンテンツを最大化することで、ユーザの好みに基づいた高品質なサマリー作成を支援する。
論文 参考訳(メタデータ) (2020-12-24T18:27:50Z) - Read what you need: Controllable Aspect-based Opinion Summarization of
Tourist Reviews [23.7107052882747]
オンライン観光レビューからパーソナライズされたアスペクトベースの意見要約を作成するためのソリューションの必要性と提案を議論する。
読者に、興味のある長さや特定の側面など、要約のいくつかの属性を決定し、制御させます。
具体的には、TripAdvisorに投稿された観光レビューからコヒーレントな側面を抽出するための教師なしアプローチを採っている。
論文 参考訳(メタデータ) (2020-06-08T15:03:38Z) - ORB: An Open Reading Benchmark for Comprehensive Evaluation of Machine
Reading Comprehension [53.037401638264235]
我々は,7種類の読解データセットの性能を報告する評価サーバORBを提案する。
評価サーバは、モデルのトレーニング方法に制限を課さないため、トレーニングパラダイムや表現学習の探索に適したテストベッドである。
論文 参考訳(メタデータ) (2019-12-29T07:27:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。