論文の概要: SaFeRDialogues: Taking Feedback Gracefully after Conversational Safety
Failures
- arxiv url: http://arxiv.org/abs/2110.07518v1
- Date: Thu, 14 Oct 2021 16:41:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-15 12:58:36.795080
- Title: SaFeRDialogues: Taking Feedback Gracefully after Conversational Safety
Failures
- Title(参考訳): SaFeRDialogues:会話の安全性が損なわれた後、フィードバックを優遇
- Authors: Megan Ung, Jing Xu, Y-Lan Boureau
- Abstract要約: この研究は、安全障害に関するフィードバックに対する優雅な応答のタスクとデータセットであるSaFeRDialoguesを提案する。
安全障害を示す10k対話のデータセットを収集し,フィードバックの合図とフィードバックの認識を行う。
このデータセットの微調整が、人間のレイパーが市民の会話に繋がる可能性がかなり高いと判断する会話をもたらすことを示す。
- 参考スコア(独自算出の注目度): 9.38317687250036
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current open-domain conversational models can easily be made to talk in
inadequate ways. Online learning from conversational feedback given by the
conversation partner is a promising avenue for a model to improve and adapt, so
as to generate fewer of these safety failures. However, current
state-of-the-art models tend to react to feedback with defensive or oblivious
responses. This makes for an unpleasant experience and may discourage
conversation partners from giving feedback in the future. This work proposes
SaFeRDialogues, a task and dataset of graceful responses to conversational
feedback about safety failures. We collect a dataset of 10k dialogues
demonstrating safety failures, feedback signaling them, and a response
acknowledging the feedback. We show how fine-tuning on this dataset results in
conversations that human raters deem considerably more likely to lead to a
civil conversation, without sacrificing engagingness or general conversational
ability.
- Abstract(参考訳): 現在のオープンドメインの会話モデルは、不適切な方法で簡単に会話できる。
会話パートナーが与える会話フィードバックからのオンライン学習は、モデルの改善と適応のための有望な道であり、これらの安全性の失敗を少なくする。
しかし、現在の最先端モデルでは、防御的あるいは不快な反応でフィードバックに反応する傾向がある。
これは不快な経験をもたらし、会話パートナーが将来フィードバックを与えるのを妨げる可能性がある。
この研究は、安全障害に関する会話フィードバックに対する優雅な応答のタスクとデータセットであるSaFeRDialoguesを提案する。
安全障害を示す10k対話のデータセットを収集し,フィードバックを発信し,フィードバックを応答として認識する。
このデータセットの微調整が、人間のラテンダーが、一般の会話能力やエンゲージメントを犠牲にすることなく、市民の会話につながる可能性がかなり高いと判断する会話をもたらすことを示す。
関連論文リスト
- Interactive Dialogue Agents via Reinforcement Learning on Hindsight Regenerations [58.65755268815283]
多くの実際の対話は対話的であり、つまりエージェントの発話が会話の相手に影響を与えるか、情報を引き出すか、意見を変えるかである。
この事実を利用して、既存の最適データを書き直し、拡張し、オフライン強化学習(RL)を介してトレーニングする。
実際の人間によるユーザ調査の結果、我々のアプローチは既存の最先端の対話エージェントを大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-07T21:37:51Z) - Improving Dialog Safety using Socially Aware Contrastive Learning [8.503001932363704]
対人・カジュアル・ダイアログの文脈における社会性について検討する。
これらの問題に対処するための2段階の微調整プロセスを提案する。
私たちは、Moral Integrity Corpus(MIC)やProsocialDialogといったデータセットを活用することで、社会行動を統合するベースモデルをトレーニングします。
論文 参考訳(メタデータ) (2024-02-01T09:24:33Z) - WHAT, WHEN, and HOW to Ground: Designing User Persona-Aware
Conversational Agents for Engaging Dialogue [4.328280329592151]
本稿では,WWH問題に対処するオープンドメイン対話システムを構築する方法を提案する。
提案手法は、重み付けされたデータセットブレンディング、ネガティブなペルソナ情報拡張方法、パーソナライズされた会話データセットの設計を含む。
本研究は,対話の流速と接地傾向のバランスを効果的に保ちつつ,接地応答の制御性と説明性を向上させるための応答型ラベルを導入する。
論文 参考訳(メタデータ) (2023-06-06T02:28:38Z) - SQuARe: A Large-Scale Dataset of Sensitive Questions and Acceptable
Responses Created Through Human-Machine Collaboration [75.62448812759968]
このデータセットは、韓国の大規模データセットで、49kの機密性があり、42kの許容範囲と46kの非許容応答がある。
データセットは、実際のニュースの見出しに基づいて、HyperCLOVAを人道的に活用して構築された。
論文 参考訳(メタデータ) (2023-05-28T11:51:20Z) - Boosting Distress Support Dialogue Responses with Motivational
Interviewing Strategy [4.264192013842096]
いくつかの応答型が、より MI に固執した形式に書き換えられるかを示す。
We build several rephrasers by fine-tuning Blender and GPT3 to rephrasers MI non-adherent "Advise without permission" response to "Advise with permission"
論文 参考訳(メタデータ) (2023-05-17T13:18:28Z) - Conversation Modeling to Predict Derailment [15.45515784064555]
進行中の会話が脱線する可能性があるかどうかを予測する能力は、インターロケータやモデレーターに貴重なリアルタイム洞察を提供する可能性がある。
会話が発達するにつれて動的予測を試みようとする研究もあるが、会話構造や脱線距離といった多元的情報を組み込むことは困難である。
本稿では,発話レベルと会話レベルの情報を組み合わせた階層型トランスフォーマーベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-20T15:10:45Z) - Using In-Context Learning to Improve Dialogue Safety [45.303005593685036]
チャットボットからの応答のバイアスや毒性を低減するための検索手法について検討する。
コンテキスト内学習を使用して、モデルをより安全な世代に向けて操る。
本手法は,トレーニングを必要とせず,強いベースラインと競合する。
論文 参考訳(メタデータ) (2023-02-02T04:46:03Z) - AutoReply: Detecting Nonsense in Dialogue Introspectively with
Discriminative Replies [71.62832112141913]
対話モデルは、不適切なメッセージを示す応答の確率を計算し、内観的に自分のメッセージの誤りを検出することができることを示す。
まず、手作りの返信は外交と同じくらい複雑なアプリケーションにおけるナンセンスを検出するタスクに有効であることを示す。
AutoReplyの生成した応答は手作りの応答よりも優れており、慎重に調整された大規模な教師付きモデルと同等に動作することがわかった。
論文 参考訳(メタデータ) (2022-11-22T22:31:34Z) - ProsocialDialog: A Prosocial Backbone for Conversational Agents [104.92776607564583]
ProsocialDialogは、対話エージェントに社会規範に従って問題コンテンツに応答するように教える最初の大規模対話データセットである。
ProsocialDialogは、人間とAIのコラボレーションフレームワークで作られ、58Kの対話と331Kの発話、160KのRoT、および497Kの対話安全ラベルで構成されている。
本データセットでは,対話型安全性検出モジュールであるCanaryを導入し,会話コンテキストを指定したRoTを生成するとともに,社会的にインフォームドされた対話エージェントであるProstを導入する。
論文 参考訳(メタデータ) (2022-05-25T11:48:47Z) - Counterfactual Off-Policy Training for Neural Response Generation [94.76649147381232]
本稿では,反実的推論による潜在的応答の探索を提案する。
対人学習の枠組みの下での対物反応の訓練は、潜在的応答空間の高逆領域を探索するのに役立つ。
DailyDialogデータセットに関する実証的研究は、我々のアプローチがHREDモデルを大幅に上回っていることを示している。
論文 参考訳(メタデータ) (2020-04-29T22:46:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。