論文の概要: Revealing Persona Biases in Dialogue Systems
- arxiv url: http://arxiv.org/abs/2104.08728v1
- Date: Sun, 18 Apr 2021 05:44:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-20 14:08:47.619521
- Title: Revealing Persona Biases in Dialogue Systems
- Title(参考訳): 対話システムにおけるペルソナバイアスの探索
- Authors: Emily Sheng, Josh Arnold, Zhou Yu, Kai-Wei Chang, Nanyun Peng
- Abstract要約: 対話システムにおけるペルソナバイアスに関する最初の大規模研究について述べる。
我々は、異なる社会階級、性的指向、人種、性別のペルソナの分析を行う。
BlenderおよびDialoGPT対話システムの研究では、ペルソナの選択が生成された応答の害の程度に影響を与える可能性があることを示しています。
- 参考スコア(独自算出の注目度): 64.96908171646808
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dialogue systems in the form of chatbots and personal assistants are being
increasingly integrated into people's lives. These dialogue systems often have
the ability to adopt an anthropomorphic persona, mimicking a societal
demographic to appear more approachable and trustworthy to users. However, the
adoption of a persona can result in the adoption of biases. We define persona
biases as harmful differences in text (e.g., varying levels of offensiveness or
affirmations of biased statements) generated from adopting different
demographic personas. In this paper, we present the first large-scale study on
persona biases in dialogue systems and conduct analyses on personas of
different social classes, sexual orientations, races, and genders. Furthermore,
we introduce an open-source framework, UnitPersonaBias, a tool to explore and
aggregate subtle persona biases in dialogue systems. In our studies of the
Blender and DialoGPT dialogue systems, we show that the choice of personas can
affect the degree of harms in generated responses. Additionally, adopting
personas of more diverse, historically marginalized demographics appears to
decrease harmful responses the most.
- Abstract(参考訳): チャットボットやパーソナルアシスタントのような対話システムは、人々の生活にますます統合されている。
これらの対話システムは、しばしば、社会的な人口動態を模倣して、より親しみやすく、信頼できるように見せかけることができる。
しかしながら、ペルソナの採用はバイアスの導入につながる可能性がある。
我々は、人格バイアスを、異なる集団的ペルソナを採用することによって生じるテキストの有害な相違(例えば、様々な攻撃性や偏見のある発言の肯定)として定義する。
本稿では,対話システムにおけるパーソナリティバイアスに関する最初の大規模研究を行い,異なる社会階級,性的指向,人種,性別のパーソナリティの分析を行う。
さらに,対話システムにおける微妙なペルソナバイアスを探索・集約するオープンソースフレームワークであるUnitPersonaBiasを導入する。
本稿では,Blender と DialoGPT の対話システムについて検討し,ペルソナの選択が生成した応答の害度に影響を及ぼすことを示した。
さらに、より多様で歴史的に辺境化された人口階層のペルソナの採用は、最も有害な反応を減少させるように見える。
関連論文リスト
- From Pixels to Personas: Investigating and Modeling Self-Anthropomorphism in Human-Robot Dialogues [29.549159419088294]
ロボットにおける自己人類同型は、好みや感情を表現するなど、対話における人間のような特徴の表示を通じて、自分自身を表わす。
これら2種類の応答に有意な差異を示し、あるタイプから別のタイプへの遷移を提案する。
Pix2Personaは、倫理的かつ魅力的なAIシステムを様々な実施形態で開発することを目的とした、新しいデータセットである。
論文 参考訳(メタデータ) (2024-10-04T19:06:24Z) - Personality-affected Emotion Generation in Dialog Systems [67.40609683389947]
ダイアログシステムに与えられた個性に基づいて感情を生成する新しいタスクであるパーソナリティ影響感情生成を提案する。
本課題の課題,すなわち,(1)個性と感情的要因を不均一に統合し,(2)対話場面における多粒性感情情報を抽出する。
その結果,感情生成性能はマクロF1では13%,重み付きF1では5%向上することが示唆された。
論文 参考訳(メタデータ) (2024-04-03T08:48:50Z) - Are Personalized Stochastic Parrots More Dangerous? Evaluating Persona
Biases in Dialogue Systems [103.416202777731]
我々は、対話モデルが採用するペルソナに付随する有害な行動の感度であると定義する「ペルソナバイアス」について検討する。
我々は,人格バイアスを有害な表現と有害な合意のバイアスに分類し,攻撃性,有害継続性,関連性,ステレオタイプ合意,および有害合意の5つの側面において,人格バイアスを測定する包括的な評価枠組みを確立する。
論文 参考訳(メタデータ) (2023-10-08T21:03:18Z) - Mirages: On Anthropomorphism in Dialogue Systems [12.507948345088135]
本稿では,対話システムの人間同型化に寄与する言語的要因と,その影響について論じる。
今後の対話システム開発への取り組みは、設計、開発、リリース、記述に特に注意を払うことを推奨する。
論文 参考訳(メタデータ) (2023-05-16T20:50:46Z) - Robots-Dont-Cry: Understanding Falsely Anthropomorphic Utterances in
Dialog Systems [64.10696852552103]
非常に人為的な反応は、ユーザーが人間と対話していると考えることを不快に、あるいは暗黙的に騙すかもしれない。
9つの異なるデータソースからサンプリングした約900の2ターンダイアログの実現可能性に関する人間の評価を収集する。
論文 参考訳(メタデータ) (2022-10-22T12:10:44Z) - Understanding How People Rate Their Conversations [73.17730062864314]
我々は、人々が会話エージェントとのインタラクションをどのように評価するかをよりよく理解するために研究を行う。
我々は、評価の変動を説明する変数として、同意性と外向性に焦点を当てる。
論文 参考訳(メタデータ) (2022-06-01T00:45:32Z) - Less is More: Learning to Refine Dialogue History for Personalized
Dialogue Generation [57.73547958927826]
我々は,対話履歴をより多く処理し,より正確なペルソナ情報を得ることのできる,ユーザ対話履歴を大規模に洗練することを提案する。
具体的には、3つの個人情報精算器とパーソナライズされた応答生成器で構成されるMSPモデルを設計する。
論文 参考訳(メタデータ) (2022-04-18T02:02:56Z) - Towards Building a Personalized Dialogue Generator via Implicit User
Persona Detection [0.0]
高品質なトランスミッションは基本的に、相手のペルソナを反映して構築されていると考えています。
そこで本研究では,暗黙のユーザペルソナを検知する対話生成手法を提案する。
論文 参考訳(メタデータ) (2022-04-15T08:12:10Z) - Mitigating Gender Bias for Neural Dialogue Generation with Adversarial
Learning [44.69720475052093]
本稿では,性別バイアスを伴わない対話モデルを学習するための,新たな逆学習フレームワークであるDebiased-Chatを提案する。
本フレームワークは,応答品質を維持しながら,対話モデルの性別バイアスを大幅に低減する。
論文 参考訳(メタデータ) (2020-09-28T02:46:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。