論文の概要: Decontextualization: Making Sentences Stand-Alone
- arxiv url: http://arxiv.org/abs/2102.05169v1
- Date: Tue, 9 Feb 2021 22:52:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-11 14:21:36.324039
- Title: Decontextualization: Making Sentences Stand-Alone
- Title(参考訳): Decontextualization: 文をスタンドアローンにする
- Authors: Eunsol Choi, Jennimaria Palomaki, Matthew Lamm, Tom Kwiatkowski,
Dipanjan Das, Michael Collins
- Abstract要約: 質問応答、対話エージェント、要約のモデルは、しばしばリッチな文脈で文の意味を解釈する。
キーピースはローカルウィンドウで明示されない可能性があるため、テキストの抜粋を取ることは問題となる可能性がある。
文の非文脈化(decontextualization)の問題は、文を文脈とともに取り、文脈から解釈できるように書き換えることである。
- 参考スコア(独自算出の注目度): 13.465459751619818
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Models for question answering, dialogue agents, and summarization often
interpret the meaning of a sentence in a rich context and use that meaning in a
new context. Taking excerpts of text can be problematic, as key pieces may not
be explicit in a local window. We isolate and define the problem of sentence
decontextualization: taking a sentence together with its context and rewriting
it to be interpretable out of context, while preserving its meaning. We
describe an annotation procedure, collect data on the Wikipedia corpus, and use
the data to train models to automatically decontextualize sentences. We present
preliminary studies that show the value of sentence decontextualization in a
user facing task, and as preprocessing for systems that perform document
understanding. We argue that decontextualization is an important subtask in
many downstream applications, and that the definitions and resources provided
can benefit tasks that operate on sentences that occur in a richer context.
- Abstract(参考訳): 質問応答、対話エージェント、要約のためのモデルは、リッチな文脈で文の意味を解釈し、新しい文脈でその意味を使用することが多い。
テキストの抜粋を取ることは、ローカルウィンドウでキーピースが明示されない可能性があるため、問題となることがある。
我々は文の非文脈化の問題を分離し、定義する: 文をその文脈と共に取り、文脈から解釈可能なように書き直す。
アノテーション手順を記述し,wikipediaコーパスのデータを収集し,モデルをトレーニングして文を自動的に非コンテキスト化する。
ユーザが直面するタスクにおける文の非文脈化の価値を示す予備的研究と,文書理解を行うシステムの前処理について述べる。
我々は、デコンテキスト化は多くの下流アプリケーションにおいて重要なサブタスクであり、提供された定義とリソースはよりリッチなコンテキストで発生する文を操作するタスクに役立つと論じている。
関連論文リスト
- ContextCite: Attributing Model Generation to Context [64.90535024385305]
我々は文脈属性の問題を導入し、あるモデルが特定の文を生成するきっかけとなった文脈の一部を特定する。
次に、既存の言語モデルの上に適用可能な、コンテキスト属性のシンプルでスケーラブルなメソッドであるContextCiteを紹介します。
ContextCiteは、生成されたステートメントの検証、応答品質の改善、中毒攻撃の検出という3つのアプリケーションを通して紹介します。
論文 参考訳(メタデータ) (2024-09-01T14:36:36Z) - Explicating the Implicit: Argument Detection Beyond Sentence Boundaries [24.728886446551577]
本稿では,文境界を越えた意味的関係を捉えるために,文内包による議論検出の問題を再検討する。
本手法は直接監視を必要としないが,データセット不足のため一般的には欠落している。
近年の文書レベルのベンチマークでは、教師付き手法や現代言語モデルよりも優れています。
論文 参考訳(メタデータ) (2024-08-08T06:18:24Z) - PropSegmEnt: A Large-Scale Corpus for Proposition-Level Segmentation and
Entailment Recognition [63.51569687229681]
文中の各命題の文的含意関係を個別に認識する必要性について論じる。
提案するPropSegmEntは45K以上の提案のコーパスであり, 専門家によるアノテートを行う。
我々のデータセット構造は、(1)文書内の文章を命題の集合に分割し、(2)異なるが、トポジカルに整合した文書に対して、各命題の含意関係を分類するタスクに類似している。
論文 参考訳(メタデータ) (2022-12-21T04:03:33Z) - Dense Paraphrasing for Textual Enrichment [7.6233489924270765]
文構造において(必要に)表現されない意味論をDense Paraphrasing(DP)として明示しつつ、曖昧さを低減させるような文表現(レキセムやフレーズ)を書き換えるプロセスを定義する。
我々は、最初の完全なDPデータセットを構築し、アノテーションタスクのスコープと設計を提供し、このDPプロセスがどのようにソーステキストを豊かにし、推論とQAタスクのパフォーマンスを改善するかを示す。
論文 参考訳(メタデータ) (2022-10-20T19:58:31Z) - Do Context-Aware Translation Models Pay the Right Attention? [61.25804242929533]
コンテキスト対応機械翻訳モデルは文脈情報を活用するように設計されているが、しばしば失敗する。
本稿では,人間の翻訳者が曖昧な単語を解くために使用する文脈について述べる。
SCAT(Supporting Context for Ambiguous Translations)は、14K翻訳のコンテキストワードをサポートする新しい英仏データセットです。
SCATを用いて,支援語の位置的特徴と語彙的特徴をあいまいにするために使用される文脈を詳細に分析する。
論文 参考訳(メタデータ) (2021-05-14T17:32:24Z) - Measuring and Increasing Context Usage in Context-Aware Machine
Translation [64.5726087590283]
機械翻訳モデルによるコンテキストの使用を定量的にするために、新しいメトリクス、条件付き相互情報を導入します。
次に,コンテキスト認識モデルによってコンテキストの使用量を増やすために,コンテキスト認識ワードドロップアウトという,新しい簡易なトレーニング手法を導入する。
論文 参考訳(メタデータ) (2021-05-07T19:55:35Z) - On the Use of Context for Predicting Citation Worthiness of Sentences in
Scholarly Articles [10.28696219236292]
この問題を階層的BiLSTMモデルを用いて解いたシーケンスラベリングタスクとして定式化する。
我々は200万以上の文とそのラベルを含む新しいベンチマークデータセットをコントリビュートする。
本研究は,引用価値のための文脈埋め込みと文脈埋め込みの利点を定量化する。
論文 参考訳(メタデータ) (2021-04-18T21:47:30Z) - Narrative Incoherence Detection [76.43894977558811]
本稿では,文間セマンティック理解のための新たなアリーナとして,物語不整合検出の課題を提案する。
複数文の物語を考えると、物語の流れに意味的な矛盾があるかどうかを決定します。
論文 参考訳(メタデータ) (2020-12-21T07:18:08Z) - XTE: Explainable Text Entailment [8.036150169408241]
あるテキストが論理的に他のテキストから続くかどうかを判断する作業である。
XTE (Explainable Text Entailment) は、テキストエンターメントを認識するための新しい複合アプローチである。
論文 参考訳(メタデータ) (2020-09-25T20:49:07Z) - Understanding Points of Correspondence between Sentences for Abstractive
Summarization [39.7404761923196]
本稿では,文書から引き出された文の融合について,対応点の概念を導入して検討する。
我々は、文書、ソースおよび融合文、および文間の対応点の人間のアノテーションを含むデータセットを作成する。
論文 参考訳(メタデータ) (2020-06-10T02:42:38Z) - Context-based Transformer Models for Answer Sentence Selection [109.96739477808134]
本稿では,文選択作業における文脈情報の役割を分析する。
本稿では,ローカルとグローバルの2種類のコンテキストを活用するTransformerベースのアーキテクチャを提案する。
その結果,トランスフォーマーモデルにおける局所コンテキストとグローバルコンテキストの組み合わせは,解答文選択の精度を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2020-06-01T21:52:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。