論文の概要: Multiview Contextual Commonsense Inference: A New Dataset and Task
- arxiv url: http://arxiv.org/abs/2210.02890v1
- Date: Thu, 6 Oct 2022 13:08:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 16:27:11.711687
- Title: Multiview Contextual Commonsense Inference: A New Dataset and Task
- Title(参考訳): multiview context commonsense inference: 新しいデータセットとタスク
- Authors: Siqi Shen, Deepanway Ghosal, Navonil Majumder, Henry Lim, Rada
Mihalcea, Soujanya Poria
- Abstract要約: CICEROv2は2,379の対話から8,351のインスタンスからなるデータセットである。
それは、コンテキストのコモンセンス推論の質問に対して、複数の人間が書いた回答を含んでいる。
CICEROv2の推論は、他の文脈コモンセンス推論データセットよりも意味的に多様であることを示す。
- 参考スコア(独自算出の注目度): 40.566530682082714
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Contextual commonsense inference is the task of generating various types of
explanations around the events in a dyadic dialogue, including cause,
motivation, emotional reaction, and others. Producing a coherent and
non-trivial explanation requires awareness of the dialogue's structure and of
how an event is grounded in the context. In this work, we create CICEROv2, a
dataset consisting of 8,351 instances from 2,379 dialogues, containing multiple
human-written answers for each contextual commonsense inference question,
representing a type of explanation on cause, subsequent event, motivation, and
emotional reaction. We show that the inferences in CICEROv2 are more
semantically diverse than other contextual commonsense inference datasets. To
solve the inference task, we propose a collection of pre-training objectives,
including concept denoising and utterance sorting to prepare a pre-trained
model for the downstream contextual commonsense inference task. Our results
show that the proposed pre-training objectives are effective at adapting the
pre-trained T5-Large model for the contextual commonsense inference task.
- Abstract(参考訳): コンテキストコモンセンス推論(Contextual Commonsense Inference)は、原因、モチベーション、感情反応など、ダイアディック対話における事象に関する様々な説明を生成するタスクである。
コヒーレントで非自明な説明を生成するには、対話の構造と、その文脈における出来事の根拠に対する認識が必要である。
本研究では,2,379の対話から8,351のインスタンスからなるデータセットである「cicerov2」を作成し,それぞれの文脈的コモンセンス推論質問に対して,複数の人文による回答を格納し,原因,その後の出来事,動機,感情的反応に関する説明のタイプを表現する。
CICEROv2の推論は、他の文脈コモンセンス推論データセットよりも意味的に多様であることを示す。
推定課題を解決するため,提案手法では,提案課題の事前学習モデルを作成するために,概念記述や発話ソートを含む事前学習対象の収集を提案する。
提案した事前学習目標が,文脈コモンセンス推論タスクに対する事前学習T5-ラージモデルの適用に有効であることを示す。
関連論文リスト
- Can Language Models Take A Hint? Prompting for Controllable Contextualized Commonsense Inference [12.941933077524919]
我々は、文脈化されたコモンセンス推論を強化するデータ拡張手法である"hinting"を導入する。
『Hinting』では、ハードプロンプトとソフトプロンプトを併用して推論プロセスの導出を行う。
この結果から,"隠れ"は文脈コモンセンス推論の性能を損なうことなく,制御性の向上を図っている。
論文 参考訳(メタデータ) (2024-10-03T04:32:46Z) - DiPlomat: A Dialogue Dataset for Situated Pragmatic Reasoning [89.92601337474954]
プラグマティック推論は、実生活における会話でしばしば起こる暗黙の意味を解読する上で重要な役割を担っている。
そこで我々は,現実的な推論と会話理解の場所に関するマシンの能力のベンチマークを目的とした,新しい挑戦であるDiPlomatを紹介した。
論文 参考訳(メタデータ) (2023-06-15T10:41:23Z) - Pre-training Multi-party Dialogue Models with Latent Discourse Inference [85.9683181507206]
我々は、多人数対話の会話構造、すなわち、各発話が応答する相手を理解するモデルを事前訓練する。
ラベル付きデータを完全に活用するために,談話構造を潜在変数として扱い,それらを共同で推論し,談話認識モデルを事前学習することを提案する。
論文 参考訳(メタデータ) (2023-05-24T14:06:27Z) - COMET-M: Reasoning about Multiple Events in Complex Sentences [14.644677930985816]
本稿では,複合文中の対象事象に対するコモンセンス推論を生成可能なイベント中心のコモンセンスモデルであるCOMET-Mを提案する。
COMET-Mは、単純な文に対するイベント中心の推論を排他的に生成するCOMETの上に構築されている。
論文 参考訳(メタデータ) (2023-05-24T01:35:01Z) - UniDU: Towards A Unified Generative Dialogue Understanding Framework [62.8474841241855]
DUタスク間の情報交換を実現するために,統合された生成対話理解フレームワークであるUniDUについて検討する。
我々は,5つの基本課題にまたがる10の対話理解データセットの実験を行う。
提案したUniDUフレームワークは5つのタスクすべてにおいてタスク固有のよく設計されたメソッドよりも優れている。
論文 参考訳(メタデータ) (2022-04-10T09:32:34Z) - Topic-Aware Contrastive Learning for Abstractive Dialogue Summarization [41.75442239197745]
本研究は,コヒーレンス検出とサブ・サブ・サブ・サブ・サブ・サブ・サブ・サブ・サブ・サミマリ・ジェネレーションという2つのトピック・アウェア・コントラスト学習目標を提案する。
ベンチマークデータセットの実験では、提案手法が強いベースラインを著しく上回ることを示した。
論文 参考訳(メタデータ) (2021-09-10T17:03:25Z) - Probing Task-Oriented Dialogue Representation from Language Models [106.02947285212132]
本稿では,タスク指向対話タスクにおいて,どのモデルが本質的に最も有意義な表現を担っているかを明らかにするために,事前学習された言語モデルについて検討する。
我々は、アノテートラベルを教師付き方法で固定された事前学習言語モデルの上に、分類器プローブとしてフィードフォワード層を微調整する。
論文 参考訳(メタデータ) (2020-10-26T21:34:39Z) - Fact-based Dialogue Generation with Convergent and Divergent Decoding [2.28438857884398]
本稿では,コンバージェントな思考能力を備えたエンドツーエンドのファクトベース対話システムを提案する。
我々のモデルは、情報的かつ多様な応答を生成できる新しい収束および分岐復号を組み込んでいる。
論文 参考訳(メタデータ) (2020-05-06T23:49:35Z) - Masking Orchestration: Multi-task Pretraining for Multi-role Dialogue
Representation Learning [50.5572111079898]
マルチロール対話理解は、質問応答、行動分類、対話要約など、幅広い多様なタスクを含む。
対話コーパスは豊富に利用可能であるが、特定の学習タスクのためのラベル付きデータは非常に不足しており、高価である。
本研究では,教師なし事前学習タスクを用いた対話文脈表現学習について検討する。
論文 参考訳(メタデータ) (2020-02-27T04:36:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。