論文の概要: Implicit Premise Generation with Discourse-aware Commonsense Knowledge
Models
- arxiv url: http://arxiv.org/abs/2109.05358v1
- Date: Sat, 11 Sep 2021 19:54:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-17 07:56:13.810894
- Title: Implicit Premise Generation with Discourse-aware Commonsense Knowledge
Models
- Title(参考訳): 談話認識コモンセンス知識モデルを用いた暗黙的前提生成
- Authors: Tuhin Chakrabarty, Aadit Trivedi, and Smaranda Muresan
- Abstract要約: 我々は暗黙の前提を暗黙の前提で生成する作業に取り組む。
このデータに微調整された最先端のseq2seqモデルを使用することで、意味のある暗黙的な前提を生成できないことを示す。
微調整中の会話認識コモンセンスの符号化により,生成した暗黙的前提の品質が向上することが実証された。
- 参考スコア(独自算出の注目度): 12.078052727772718
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Enthymemes are defined as arguments where a premise or conclusion is left
implicit. We tackle the task of generating the implicit premise in an
enthymeme, which requires not only an understanding of the stated conclusion
and premise but also additional inferences that could depend on commonsense
knowledge. The largest available dataset for enthymemes (Habernal et al., 2018)
consists of 1.7k samples, which is not large enough to train a neural text
generation model. To address this issue, we take advantage of a similar task
and dataset: Abductive reasoning in narrative text (Bhagavatula et al., 2020).
However, we show that simply using a state-of-the-art seq2seq model fine-tuned
on this data might not generate meaningful implicit premises associated with
the given enthymemes. We demonstrate that encoding discourse-aware commonsense
during fine-tuning improves the quality of the generated implicit premises and
outperforms all other baselines both in automatic and human evaluations on
three different datasets.
- Abstract(参考訳): エンサイメムは前提や結論が暗黙的に残される引数として定義される。
我々は、暗黙の前提を暗黙の前提で生成するタスクに取り組む。これは、述べられている結論と前提を理解するだけでなく、常識知識に依存する可能性のある追加の推論を必要とする。
エンティメムのための最大のデータセット(Habernal et al., 2018)は1.7kサンプルで構成されており、ニューラルテキスト生成モデルのトレーニングには不十分である。
この問題に対処するために、同様のタスクとデータセットを利用する: 物語テキストにおける帰納的推論(Bhagavatula et al., 2020)。
しかし、このデータに微調整された最先端のseq2seqモデルを使用することで、与えられたエントロメムに関連する意味のある暗黙的な前提を生成できないことを示す。
微調整中の談話認識コモンセンスの符号化は,生成した暗黙的前提の品質を向上し,3つの異なるデータセットにおける自動評価と人的評価の両方において,他のすべてのベースラインを上回ることを実証する。
関連論文リスト
- QUITE: Quantifying Uncertainty in Natural Language Text in Bayesian Reasoning Scenarios [15.193544498311603]
本稿では,カテゴリー的確率変数と複雑な関係を持つ実世界のベイズ推論シナリオのデータセットであるQUITEを提案する。
我々は幅広い実験を行い、論理ベースのモデルが全ての推論型において、アウト・オブ・ボックスの大規模言語モデルより優れていることを発見した。
以上の結果から,ニューロシンボリックモデルが複雑な推論を改善する上で有望な方向であることを示す。
論文 参考訳(メタデータ) (2024-10-14T12:44:59Z) - Forging the Forger: An Attempt to Improve Authorship Verification via Data Augmentation [52.72682366640554]
著者検証(英語: Authorship Verification, AV)とは、ある特定の著者によって書かれたか、別の人物によって書かれたのかを推測するテキスト分類タスクである。
多くのAVシステムは敵の攻撃に弱いことが示されており、悪意のある著者は、その書体スタイルを隠蔽するか、あるいは他の著者の書体を模倣することによって、積極的に分類者を騙そうとしている。
論文 参考訳(メタデータ) (2024-03-17T16:36:26Z) - What Makes it Ok to Set a Fire? Iterative Self-distillation of Contexts
and Rationales for Disambiguating Defeasible Social and Moral Situations [48.686872351114964]
道徳的または倫理的な判断は、それらが起こる特定の文脈に大きく依存する。
我々は,行動が多かれ少なかれ道徳的に容認されるような,根底的な文脈を提供するという,デファシブルな道徳的推論を導入する。
文脈化と論理の1.2M項目からなる高品質なデータセットを115Kデファシブルな道徳行動のために蒸留する。
論文 参考訳(メタデータ) (2023-10-24T00:51:29Z) - Meaning Representations from Trajectories in Autoregressive Models [106.63181745054571]
入力テキストを拡張可能なすべてのトラジェクトリの分布を考慮し,自己回帰言語モデルから意味表現を抽出する。
この戦略はプロンプトフリーであり、微調整は必要とせず、事前訓練された自己回帰モデルにも適用できる。
我々は,大規模なモデルから得られた表現が人間のアノテーションとよく一致し,意味的類似性タスクにおける他のゼロショットおよびプロンプトフリーメソッドよりも優れており,標準埋め込みが扱えないより複雑なエンタテインメントや包含タスクの解決に使用できることを実証的に示す。
論文 参考訳(メタデータ) (2023-10-23T04:35:58Z) - Does entity abstraction help generative Transformers reason? [8.159805544989359]
本稿では,事前学習したトランスフォーマーにエンティティ型抽象化を組み込むことの有用性について検討する。
論理的推論の異なる4つのNLPタスクに対して,これらの手法を検証した。
論文 参考訳(メタデータ) (2022-01-05T19:00:53Z) - Zero-shot Commonsense Question Answering with Cloze Translation and
Consistency Optimization [20.14487209460865]
自然質問をクローズスタイルの文に翻訳できる4つの翻訳手法について検討する。
提案手法は知識ベース改良モデルと相補的なデータセットであり,それらを組み合わせることで,最先端のゼロショット性能を実現することができることを示す。
論文 参考訳(メタデータ) (2022-01-01T07:12:49Z) - Provable Limitations of Acquiring Meaning from Ungrounded Form: What
will Future Language Models Understand? [87.20342701232869]
未知のシステムが意味を習得する能力について検討する。
アサーションによってシステムが等価性のような意味関係を保存する表現をエミュレートできるかどうか検討する。
言語内のすべての表現が参照的に透明であれば,アサーションによってセマンティックエミュレーションが可能になる。
しかし、言語が変数バインディングのような非透過的なパターンを使用する場合、エミュレーションは計算不能な問題になる可能性がある。
論文 参考訳(メタデータ) (2021-04-22T01:00:17Z) - $Q^{2}$: Evaluating Factual Consistency in Knowledge-Grounded Dialogues
via Question Generation and Question Answering [38.951535576102906]
ナレッジベース対話モデルにおける事実整合性のための自動評価指標を提案する。
当社のメトリクスは、共参照解像度と自然言語推論機能を利用しています。
We curate a novel dataset of state-of-the-art dialogue system outputs for the Wizard-of-Wikipedia dataset。
論文 参考訳(メタデータ) (2021-04-16T16:21:16Z) - Lexically-constrained Text Generation through Commonsense Knowledge
Extraction and Injection [62.071938098215085]
我々は、ある入力概念のセットに対して妥当な文を生成することを目的としているcommongenベンチマークに焦点を当てる。
生成したテキストの意味的正しさを高めるための戦略を提案する。
論文 参考訳(メタデータ) (2020-12-19T23:23:40Z) - Fusing Context Into Knowledge Graph for Commonsense Reasoning [21.33294077354958]
外部エンティティ記述を利用して,グラフエンティティのコンテキスト情報を提供する。
CommonsenseQAタスクでは、まず質問と選択から概念を抽出し、これらの概念の間に関連するトリプルを見つけます。
CommonsenseQAデータセットでは、80.7%(シングルモデル)と83.3%(アンサンブルモデル)の精度で最新の結果を達成しています。
論文 参考訳(メタデータ) (2020-12-09T00:57:49Z) - Commonsense Evidence Generation and Injection in Reading Comprehension [57.31927095547153]
本稿では,CEGI と命名された理解を読み取るためのコモンセンス・エビデンス・ジェネレーション・インジェクション・フレームワークを提案する。
この枠組みは、2種類の補助的コモンセンス証拠を包括的読解に注入し、機械に合理的思考能力を持たせる。
CosmosQAデータセットの実験では、提案されたCEGIモデルが現在の最先端アプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2020-05-11T16:31:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。