論文の概要: SQuARe: A Large-Scale Dataset of Sensitive Questions and Acceptable
Responses Created Through Human-Machine Collaboration
- arxiv url: http://arxiv.org/abs/2305.17696v1
- Date: Sun, 28 May 2023 11:51:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-30 17:17:22.548249
- Title: SQuARe: A Large-Scale Dataset of Sensitive Questions and Acceptable
Responses Created Through Human-Machine Collaboration
- Title(参考訳): SQuARe:人間と機械のコラボレーションによる感性的な質問と受け入れ可能な反応の大規模データセット
- Authors: Hwaran Lee, Seokhee Hong, Joonsuk Park, Takyoung Kim, Meeyoung Cha,
Yejin Choi, Byoung Pil Kim, Gunhee Kim, Eun-Ju Lee, Yong Lim, Alice Oh,
Sangchul Park and Jung-Woo Ha
- Abstract要約: このデータセットは、韓国の大規模データセットで、49kの機密性があり、42kの許容範囲と46kの非許容応答がある。
データセットは、実際のニュースの見出しに基づいて、HyperCLOVAを人道的に活用して構築された。
- 参考スコア(独自算出の注目度): 75.62448812759968
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The potential social harms that large language models pose, such as
generating offensive content and reinforcing biases, are steeply rising.
Existing works focus on coping with this concern while interacting with
ill-intentioned users, such as those who explicitly make hate speech or elicit
harmful responses. However, discussions on sensitive issues can become toxic
even if the users are well-intentioned. For safer models in such scenarios, we
present the Sensitive Questions and Acceptable Response (SQuARe) dataset, a
large-scale Korean dataset of 49k sensitive questions with 42k acceptable and
46k non-acceptable responses. The dataset was constructed leveraging HyperCLOVA
in a human-in-the-loop manner based on real news headlines. Experiments show
that acceptable response generation significantly improves for HyperCLOVA and
GPT-3, demonstrating the efficacy of this dataset.
- Abstract(参考訳): 攻撃的なコンテンツの生成やバイアスの強化など、大きな言語モデルがもたらす潜在的な社会的害は、急速に増加している。
既存の作業では、ヘイトスピーチを明示的に行い、有害な反応を誘発するユーザなど、意図しないユーザと対話しながら、この懸念に対処することに重点を置いている。
しかし、ユーザが十分に意識している場合でも、センシティブな問題に関する議論は有害になる可能性がある。
このようなシナリオにおいて、より安全なモデルのために、49kのセンシティブな質問と42kの許容可能な46kの許容できない応答からなる、韓国の大規模データセットである、センシティブな質問と受け入れ可能な応答(square)データセットを提示します。
データセットは、実際のニュースの見出しに基づいて、HyperCLOVAを人道的に活用して構築された。
実験の結果,HyperCLOVAとGPT-3では許容応答生成が有意に改善し,このデータセットの有効性が示された。
関連論文リスト
- When Large Language Models contradict humans? Large Language Models' Sycophantic Behaviour [0.8133739801185272]
主観的意見と文を含む問合せに対して,Large Language Models (LLMs) がサイコファン傾向を示すことを示す。
様々なスケールのLCMは、正しい回答を提供する自信を示すことによって、ユーザのヒントに従わないように思われる。
論文 参考訳(メタデータ) (2023-11-15T22:18:33Z) - Decoding the Silent Majority: Inducing Belief Augmented Social Graph
with Large Language Model for Response Forecasting [74.68371461260946]
SocialSenseは、既存のソーシャルネットワーク上に信念中心のグラフを誘導するフレームワークであり、グラフベースの伝播によって社会的ダイナミクスを捉える。
本手法は,ゼロショット設定と教師あり設定の両方に対する実験的な評価において,既存の最先端技術を超えている。
論文 参考訳(メタデータ) (2023-10-20T06:17:02Z) - A Benchmark for Understanding Dialogue Safety in Mental Health Support [15.22008156903607]
本稿では,支援者に対する肯定的な影響を優先する理論的かつ現実的な分類法を開発することを目的とする。
我々は、BERTベース、RoBERTa-large、ChatGPTなど、人気のある言語モデルを用いてデータセットを分析する。
開発されたデータセットと研究結果は、メンタルヘルスサポートにおける対話安全性の研究を進めるための貴重なベンチマークとなる。
論文 参考訳(メタデータ) (2023-07-31T07:33:16Z) - Leveraging Implicit Feedback from Deployment Data in Dialogue [83.02878726357523]
本研究では,ユーザ間の自然な対話とデプロイモデルから学習することで,社会的会話エージェントの改善について検討する。
我々は、ユーザ応答長、感情、未来の人間の発話の反応などの信号を、収集された対話エピソードで活用する。
論文 参考訳(メタデータ) (2023-07-26T11:34:53Z) - Measuring the Effect of Influential Messages on Varying Personas [67.1149173905004]
我々は、ニュースメッセージを見る際にペルソナが持つ可能性のある応答を推定するために、ニュースメディア向けのペルソナに対するレスポンス予測という新しいタスクを提示する。
提案課題は,モデルにパーソナライズを導入するだけでなく,各応答の感情極性と強度も予測する。
これにより、ペルソナの精神状態に関するより正確で包括的な推測が可能になる。
論文 参考訳(メタデータ) (2023-05-25T21:01:00Z) - SaFeRDialogues: Taking Feedback Gracefully after Conversational Safety
Failures [9.38317687250036]
この研究は、安全障害に関するフィードバックに対する優雅な応答のタスクとデータセットであるSaFeRDialoguesを提案する。
安全障害を示す10k対話のデータセットを収集し,フィードバックの合図とフィードバックの認識を行う。
このデータセットの微調整が、人間のレイパーが市民の会話に繋がる可能性がかなり高いと判断する会話をもたらすことを示す。
論文 参考訳(メタデータ) (2021-10-14T16:41:25Z) - Characterizing User Susceptibility to COVID-19 Misinformation on Twitter [40.0762273487125]
本研究は、パンデミックのオンライン誤報に弱い人口を構成する人々への回答を試みる。
我々は、ソーシャルボットから、新型コロナウイルス関連の誤情報に関するさまざまなレベルのエンゲージメントを持つ人間まで、さまざまなタイプのユーザーを区別する。
次に、新型コロナウイルスの誤情報に対する感受性と相関する、ユーザのオンライン機能と状況予測を識別する。
論文 参考訳(メタデータ) (2021-09-20T13:31:15Z) - Exploiting Unsupervised Data for Emotion Recognition in Conversations [76.01690906995286]
会話における感情認識(Emotion Recognition in Conversations:ERC)は、会話における話者の感情状態を予測することを目的としている。
ERCタスクの教師付きデータは限られている。
教師なし会話データを活用する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-10-02T13:28:47Z) - Counterfactual Off-Policy Training for Neural Response Generation [94.76649147381232]
本稿では,反実的推論による潜在的応答の探索を提案する。
対人学習の枠組みの下での対物反応の訓練は、潜在的応答空間の高逆領域を探索するのに役立つ。
DailyDialogデータセットに関する実証的研究は、我々のアプローチがHREDモデルを大幅に上回っていることを示している。
論文 参考訳(メタデータ) (2020-04-29T22:46:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。