論文の概要: DiscoSense: Commonsense Reasoning with Discourse Connectives
- arxiv url: http://arxiv.org/abs/2210.12478v1
- Date: Sat, 22 Oct 2022 15:33:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 16:18:23.748160
- Title: DiscoSense: Commonsense Reasoning with Discourse Connectives
- Title(参考訳): DiscoSense:commonsense Reasoning with Discourse Connectives
- Authors: Prajjwal Bhargava, Vincent Ng
- Abstract要約: 最先端の事前訓練言語モデルでは,DiscoSenseの性能向上に苦慮していることを示す。
このデータセットは次世代のコモンセンス推論システムを評価するのに最適である。
- 参考スコア(独自算出の注目度): 33.43202685138164
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present DiscoSense, a benchmark for commonsense reasoning via
understanding a wide variety of discourse connectives. We generate compelling
distractors in DiscoSense using Conditional Adversarial Filtering, an extension
of Adversarial Filtering that employs conditional generation. We show that
state-of-the-art pre-trained language models struggle to perform well on
DiscoSense, which makes this dataset ideal for evaluating next-generation
commonsense reasoning systems.
- Abstract(参考訳): 本稿では、多種多様な談話接続を理解することによって、常識推論のためのベンチマークであるDiscoSenseを紹介する。
条件生成を利用した条件付き逆フィルタの拡張である条件付き逆フィルタを用いて、DiscoSenseにおいて魅力的な乱れを発生させる。
最先端の事前学習言語モデルはDiscoSenseでうまく機能しておらず、次世代のコモンセンス推論システムを評価するのに理想的なデータセットであることを示す。
関連論文リスト
- Can Language Models Take A Hint? Prompting for Controllable Contextualized Commonsense Inference [12.941933077524919]
我々は、文脈化されたコモンセンス推論を強化するデータ拡張手法である"hinting"を導入する。
『Hinting』では、ハードプロンプトとソフトプロンプトを併用して推論プロセスの導出を行う。
この結果から,"隠れ"は文脈コモンセンス推論の性能を損なうことなく,制御性の向上を図っている。
論文 参考訳(メタデータ) (2024-10-03T04:32:46Z) - ConvoSense: Overcoming Monotonous Commonsense Inferences for
Conversational AI [14.314435286162311]
ConvoSenseは、対話コンテキストにおけるコモンセンス推論のためのデータセットで、GPT、ConvoSenseを使用している。
私たちのデータセットには12,000の対話で50万以上の推論があり、10の一般的な推論タイプがあります。
論文 参考訳(メタデータ) (2024-01-27T17:51:05Z) - uSee: Unified Speech Enhancement and Editing with Conditional Diffusion
Models [57.71199494492223]
本稿では,条件付き拡散モデルを用いた統一音声強調編集(uSee)モデルを提案する。
実験の結果,提案したuSeeモデルは,他の生成的音声強調モデルと比較して,発声および発声の双方において優れた性能が得られることがわかった。
論文 参考訳(メタデータ) (2023-10-02T04:36:39Z) - SituatedGen: Incorporating Geographical and Temporal Contexts into
Generative Commonsense Reasoning [55.44065342292846]
生成的コモンセンス推論(英: Generative Commonsense reasoning)とは、一群のキーワードが与えられた機械が、コモンセンスの確率で単一のコヒーレントな文を構成することを要求するタスクである。
我々は、この課題をSituatedGenとして定式化し、地理的または時間的エンティティを含むキーワード群を与えられたコントラスト文のペアを生成する。
実験によると、最先端の生成言語モデルは、常識的妥当性のある文を生成するのに苦労し、人間のパフォーマンスよりずっと遅れている。
論文 参考訳(メタデータ) (2023-06-21T20:36:55Z) - Bootstrapping meaning through listening: Unsupervised learning of spoken
sentence embeddings [4.582129557845177]
本研究では,音声発話における意味表現の教師なし学習に取り組む。
音声の高密度表現から隠れ単位を予測するシーケンシャルオートエンコーダWavEmbedを提案する。
また,S-HuBERTを用いて知識蒸留による意味の誘導を提案する。
論文 参考訳(メタデータ) (2022-10-23T21:16:09Z) - $C^3$: Compositional Counterfactual Contrastive Learning for
Video-grounded Dialogues [97.25466640240619]
映像対話システムの目的は、映像理解と対話理解を統合し、対話と映像コンテキストの両方に関連する応答を生成することである。
既存のアプローチのほとんどはディープラーニングモデルを採用しており、比較的小さなデータセットが利用可能であることを考えると、優れたパフォーマンスを実現している。
本稿では,映像対話における実例と反実例の対比学習を開発するために,合成対実的コントラスト学習の新たなアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-16T16:05:27Z) - Retrieval Enhanced Model for Commonsense Generation [27.808363395849536]
本稿では,コモンセンス生成のための事前学習と微調整の両方を強化するために,検索手法を用いた新しいフレームワークを提案する。
我々は、概念マッチングによりプロトタイプ文候補を検索し、補助入力として使用する。
提案手法は, 大規模CommonGenベンチマークを用いて, 最新の成果を実証する。
論文 参考訳(メタデータ) (2021-05-24T09:49:17Z) - Lexically-constrained Text Generation through Commonsense Knowledge
Extraction and Injection [62.071938098215085]
我々は、ある入力概念のセットに対して妥当な文を生成することを目的としているcommongenベンチマークに焦点を当てる。
生成したテキストの意味的正しさを高めるための戦略を提案する。
論文 参考訳(メタデータ) (2020-12-19T23:23:40Z) - Discern: Discourse-Aware Entailment Reasoning Network for Conversational
Machine Reading [157.14821839576678]
Discernは、ドキュメントとダイアログの両方の理解を強化するために、接続を強化し、理解を深める、談話対応の係り受け推論ネットワークである。
実験の結果,意思決定におけるマクロ平均精度78.3%,フォローアップ質問生成における64.0 BLEU1が得られた。
論文 参考訳(メタデータ) (2020-10-05T07:49:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。