論文の概要: Mirages: On Anthropomorphism in Dialogue Systems
- arxiv url: http://arxiv.org/abs/2305.09800v2
- Date: Mon, 23 Oct 2023 09:26:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-25 12:24:01.749020
- Title: Mirages: On Anthropomorphism in Dialogue Systems
- Title(参考訳): ミラジェス:対話システムにおける擬人化について
- Authors: Gavin Abercrombie, Amanda Cercas Curry, Tanvi Dinkar, Verena Rieser,
Zeerak Talat
- Abstract要約: 本稿では,対話システムの人間同型化に寄与する言語的要因と,その影響について論じる。
今後の対話システム開発への取り組みは、設計、開発、リリース、記述に特に注意を払うことを推奨する。
- 参考スコア(独自算出の注目度): 12.507948345088135
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automated dialogue or conversational systems are anthropomorphised by
developers and personified by users. While a degree of anthropomorphism may be
inevitable due to the choice of medium, conscious and unconscious design
choices can guide users to personify such systems to varying degrees.
Encouraging users to relate to automated systems as if they were human can lead
to high risk scenarios caused by over-reliance on their outputs. As a result,
natural language processing researchers have investigated the factors that
induce personification and develop resources to mitigate such effects. However,
these efforts are fragmented, and many aspects of anthropomorphism have yet to
be explored. In this paper, we discuss the linguistic factors that contribute
to the anthropomorphism of dialogue systems and the harms that can arise,
including reinforcing gender stereotypes and notions of acceptable language. We
recommend that future efforts towards developing dialogue systems take
particular care in their design, development, release, and description; and
attend to the many linguistic cues that can elicit personification by users.
- Abstract(参考訳): 自動対話システムや会話システムは、開発者によって人為化され、ユーザによって人格化される。
人格化の度合いは、中程度の選択のため必然的であるが、意識的かつ無意識な設計選択は、ユーザーがそのようなシステムを様々な程度にパーソナライズするよう誘導することができる。
ユーザが自動化システムに人間であるかのように関連付けることで、アウトプットの過度な信頼性に起因するリスクシナリオにつながる可能性がある。
その結果、自然言語処理研究者は、人格化を誘導し、そのような効果を緩和する資源を開発する要因を調査した。
しかし、これらの努力は断片化されており、擬人化の多くの側面はまだ研究されていない。
本稿では,対話システムの擬人化に寄与する言語的要因と,ジェンダーのステレオタイプや許容される言語の概念の強化など,起こりうる害について論じる。
対話システムの構築に向けた今後の取り組みは,その設計,開発,リリース,説明において特に注意を払うこと,ユーザによる人格化を誘発する多くの言語的手がかりに従うことを推奨する。
関連論文リスト
- From Pixels to Personas: Investigating and Modeling Self-Anthropomorphism in Human-Robot Dialogues [29.549159419088294]
ロボットにおける自己人類同型は、好みや感情を表現するなど、対話における人間のような特徴の表示を通じて、自分自身を表わす。
これら2種類の応答に有意な差異を示し、あるタイプから別のタイプへの遷移を提案する。
Pix2Personaは、倫理的かつ魅力的なAIシステムを様々な実施形態で開発することを目的とした、新しいデータセットである。
論文 参考訳(メタデータ) (2024-10-04T19:06:24Z) - Humane Speech Synthesis through Zero-Shot Emotion and Disfluency Generation [0.6964027823688135]
現代の会話システムは、人間の相互作用の感情的な深さと非流動的な特徴を欠いている。
この欠点に対処するため、我々は革新的な音声合成パイプラインを設計した。
このフレームワーク内では、最先端の言語モデルが、ゼロショット設定で人間のような感情と分散の両方を導入する。
論文 参考訳(メタデータ) (2024-03-31T00:38:02Z) - Attribution and Alignment: Effects of Local Context Repetition on
Utterance Production and Comprehension in Dialogue [6.886248462185439]
繰り返しは通常、言語モデル世代を評価する際に罰せられる。
人間はローカルとパートナーの特定の繰り返しを使用し、それらは人間のユーザーによって好まれ、対話におけるコミュニケーションをより成功させる。
本研究では, (a) 言語モデルが対話における人間的な繰り返しのレベルを生成するかどうか, (b) 理解中に使用する語彙再使用に関連する処理機構について検討する。
論文 参考訳(メタデータ) (2023-11-21T23:50:33Z) - Are Personalized Stochastic Parrots More Dangerous? Evaluating Persona
Biases in Dialogue Systems [103.416202777731]
我々は、対話モデルが採用するペルソナに付随する有害な行動の感度であると定義する「ペルソナバイアス」について検討する。
我々は,人格バイアスを有害な表現と有害な合意のバイアスに分類し,攻撃性,有害継続性,関連性,ステレオタイプ合意,および有害合意の5つの側面において,人格バイアスを測定する包括的な評価枠組みを確立する。
論文 参考訳(メタデータ) (2023-10-08T21:03:18Z) - When Large Language Models Meet Personalization: Perspectives of
Challenges and Opportunities [60.5609416496429]
大規模言語モデルの能力は劇的に改善されている。
このような大きな飛躍的なAI能力は、パーソナライゼーションの実施方法のパターンを変えるだろう。
大規模言語モデルを汎用インターフェースとして活用することにより、パーソナライズシステムはユーザ要求を計画にコンパイルすることができる。
論文 参考訳(メタデータ) (2023-07-31T02:48:56Z) - Robots-Dont-Cry: Understanding Falsely Anthropomorphic Utterances in
Dialog Systems [64.10696852552103]
非常に人為的な反応は、ユーザーが人間と対話していると考えることを不快に、あるいは暗黙的に騙すかもしれない。
9つの異なるデータソースからサンプリングした約900の2ターンダイアログの実現可能性に関する人間の評価を収集する。
論文 参考訳(メタデータ) (2022-10-22T12:10:44Z) - Data-driven emotional body language generation for social robotics [58.88028813371423]
社会ロボティクスでは、人間型ロボットに感情の身体的表現を生成する能力を与えることで、人間とロボットの相互作用とコラボレーションを改善することができる。
我々は、手作業で設計されたいくつかの身体表現から学習する深層学習データ駆動フレームワークを実装した。
評価実験の結果, 生成した表現の人間同型とアニマシーは手作りの表現と異なる認識が得られなかった。
論文 参考訳(メタデータ) (2022-05-02T09:21:39Z) - A Review of Dialogue Systems: From Trained Monkeys to Stochastic Parrots [0.0]
人工知能をデプロイして、人間と会話できる自動対話エージェントを構築することを目指している。
本稿では,長年にわたって対話システムを構築するために開発された手法について概説する。
論文 参考訳(メタデータ) (2021-11-02T08:07:55Z) - Revealing Persona Biases in Dialogue Systems [64.96908171646808]
対話システムにおけるペルソナバイアスに関する最初の大規模研究について述べる。
我々は、異なる社会階級、性的指向、人種、性別のペルソナの分析を行う。
BlenderおよびDialoGPT対話システムの研究では、ペルソナの選択が生成された応答の害の程度に影響を与える可能性があることを示しています。
論文 参考訳(メタデータ) (2021-04-18T05:44:41Z) - Learning Adaptive Language Interfaces through Decomposition [89.21937539950966]
本稿では,分解による新しいハイレベルな抽象化を学習するニューラルセマンティック解析システムを提案する。
ユーザは、新しい振る舞いを記述する高レベルな発話を低レベルなステップに分解することで、対話的にシステムを教える。
論文 参考訳(メタデータ) (2020-10-11T08:27:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。