論文の概要: Self-Consistent Narrative Prompts on Abductive Natural Language
Inference
- arxiv url: http://arxiv.org/abs/2309.08303v1
- Date: Fri, 15 Sep 2023 10:48:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-18 15:04:51.916282
- Title: Self-Consistent Narrative Prompts on Abductive Natural Language
Inference
- Title(参考訳): 帰納的自然言語推論における自己矛盾的ナラティブプロンプト
- Authors: Chunkit Chan, Xin Liu, Tsz Ho Chan, Jiayang Cheng, Yangqiu Song, Ginny
Wong, Simon See
- Abstract要約: アブダクションは、物語の理解と日常の状況の推論に欠かせないものと見なされてきた。
本稿では,自己整合性と相互整合性を考慮した即時チューニングモデル$alpha$-PACEを提案する。
- 参考スコア(独自算出の注目度): 42.201304482932706
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Abduction has long been seen as crucial for narrative comprehension and
reasoning about everyday situations. The abductive natural language inference
($\alpha$NLI) task has been proposed, and this narrative text-based task aims
to infer the most plausible hypothesis from the candidates given two
observations. However, the inter-sentential coherence and the model consistency
have not been well exploited in the previous works on this task. In this work,
we propose a prompt tuning model $\alpha$-PACE, which takes self-consistency
and inter-sentential coherence into consideration. Besides, we propose a
general self-consistent framework that considers various narrative sequences
(e.g., linear narrative and reverse chronology) for guiding the pre-trained
language model in understanding the narrative context of input. We conduct
extensive experiments and thorough ablation studies to illustrate the necessity
and effectiveness of $\alpha$-PACE. The performance of our method shows
significant improvement against extensive competitive baselines.
- Abstract(参考訳): アブダクションは、物語の理解と日常の状況の推論に欠かせないものと見なされてきた。
帰納的自然言語推論(\alpha$NLI)タスクが提案され、この物語テキストベースのタスクは、2つの観測結果から最も妥当な仮説を推測することを目的としている。
しかし、このタスクでは、知覚間コヒーレンスとモデルの一貫性が十分に活用されていない。
本研究では,自己整合性および相互整合性を考慮したプロンプトチューニングモデルである$\alpha$-PACEを提案する。
また,入力の物語文脈を理解する上で,事前学習された言語モデルを導くために,様々な物語列(線形物語や逆年代学など)を考慮した汎用的自己整合フレームワークを提案する。
我々は,$\alpha$-pace の必要性と有効性を説明するため,広範囲な実験と徹底的なアブレーション研究を行う。
提案手法の性能は,幅広い競争基準に対して著しく向上した。
関連論文リスト
- Can Language Models Take A Hint? Prompting for Controllable Contextualized Commonsense Inference [12.941933077524919]
我々は、文脈化されたコモンセンス推論を強化するデータ拡張手法である"hinting"を導入する。
『Hinting』では、ハードプロンプトとソフトプロンプトを併用して推論プロセスの導出を行う。
この結果から,"隠れ"は文脈コモンセンス推論の性能を損なうことなく,制御性の向上を図っている。
論文 参考訳(メタデータ) (2024-10-03T04:32:46Z) - Fine-Grained Modeling of Narrative Context: A Coherence Perspective via Retrospective Questions [48.18584733906447]
この研究は、物語の中の個々の通路が孤立するよりも密接な関係にある傾向があるという特徴から生まれた、物語理解のためのオリジナルで実践的なパラダイムを取り入れたものである。
本稿では,タスク非依存のコヒーレンス依存を明示的に表現したNarCoというグラフを定式化することにより,物語コンテキストのきめ細かいモデリングを提案する。
論文 参考訳(メタデータ) (2024-02-21T06:14:04Z) - DenoSent: A Denoising Objective for Self-Supervised Sentence
Representation Learning [59.4644086610381]
本稿では,他の視点,すなわち文内視点から継承する新たな認知的目的を提案する。
離散ノイズと連続ノイズの両方を導入することで、ノイズの多い文を生成し、モデルを元の形式に復元するように訓練する。
我々の経験的評価は,本手法が意味的テキスト類似性(STS)と幅広い伝達タスクの両面で競合する結果をもたらすことを示した。
論文 参考訳(メタデータ) (2024-01-24T17:48:45Z) - Topic-DPR: Topic-based Prompts for Dense Passage Retrieval [6.265789210037749]
トピックベースのプロンプトを用いた高密度経路探索モデルであるTopic-DPRを提案する。
本稿では, 半構造化データを利用して高密度検索効率を向上させる, 新規な正負サンプリング手法を提案する。
論文 参考訳(メタデータ) (2023-10-10T13:45:24Z) - DiPlomat: A Dialogue Dataset for Situated Pragmatic Reasoning [89.92601337474954]
プラグマティック推論は、実生活における会話でしばしば起こる暗黙の意味を解読する上で重要な役割を担っている。
そこで我々は,現実的な推論と会話理解の場所に関するマシンの能力のベンチマークを目的とした,新しい挑戦であるDiPlomatを紹介した。
論文 参考訳(メタデータ) (2023-06-15T10:41:23Z) - Probing as Quantifying the Inductive Bias of Pre-trained Representations [99.93552997506438]
本稿では,特定のタスクに対する表現の帰納的バイアスを評価することを目的とした,探索のための新しいフレームワークを提案する。
トークン、アーク、文レベルの一連のタスクに我々のフレームワークを適用します。
論文 参考訳(メタデータ) (2021-10-15T22:01:16Z) - Dynamic Sliding Window for Meeting Summarization [25.805553277418813]
代表コーパス上での会議記録の言語的特徴を分析し,要約を含む文が会議議題と相関していることを確認した。
そこで本研究では,会議要約のための動的スライディングウインドウ戦略を提案する。
論文 参考訳(メタデータ) (2021-08-31T05:39:48Z) - COINS: Dynamically Generating COntextualized Inference Rules for
Narrative Story Completion [16.676036625561057]
我々は、文脈文を反復的に読み出し、文脈化された推論規則を生成し、それらを符号化し、タスク固有の出力生成をガイドするフレームワークであるCOINSを提案する。
繰り返しモデルで推論と文生成のステップをモジュール化することにより、推論のステップとその次の文生成に対する影響を透過的にすることを目指す。
自動的および手動的評価は、特にコヒーレンスの観点から、SOTAベースラインよりも優れたストーリー文を生成することを示す。
論文 参考訳(メタデータ) (2021-06-04T14:06:33Z) - Structural Pre-training for Dialogue Comprehension [51.215629336320305]
本稿では,SPIDER, Structure Pre-trained DialoguE Readerについて述べる。
対話のような特徴をシミュレートするために,元のLM目的に加えて,2つの訓練目標を提案する。
広く使われている対話ベンチマークの実験結果から,新たに導入した自己教師型タスクの有効性が検証された。
論文 参考訳(メタデータ) (2021-05-23T15:16:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。