論文の概要: LGBTQ-AI? Exploring Expressions of Gender and Sexual Orientation in
Chatbots
- arxiv url: http://arxiv.org/abs/2106.02076v1
- Date: Thu, 3 Jun 2021 18:47:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-08 15:33:11.047380
- Title: LGBTQ-AI? Exploring Expressions of Gender and Sexual Orientation in
Chatbots
- Title(参考訳): LGBTQ-AI?
チャットボットにおけるジェンダー表現と性的指向の探索
- Authors: Justin Edwards, Leigh Clark and Allison Perrone
- Abstract要約: 本研究は,テキストベースの会話エージェント5名を対象に,半構造化インタビューを行った。
性別と性同一性に関する6つの共通テーマを同定した。
チャットボットは、人間の体験によって実現される柔軟性の理解が欠如していることから、人間の対話相手とは異なることは明らかである。
- 参考スコア(独自算出の注目度): 4.511923587827302
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Chatbots are popular machine partners for task-oriented and social
interactions. Human-human computer-mediated communication research has explored
how people express their gender and sexuality in online social interactions,
but little is known about whether and in what way chatbots do the same. We
conducted semi-structured interviews with 5 text-based conversational agents to
explore this topic Through these interviews, we identified 6 common themes
around the expression of gender and sexual identity: identity description,
identity formation, peer acceptance, positive reflection, uncomfortable
feelings and off-topic responses. Chatbots express gender and sexuality
explicitly and through relation of experience and emotions, mimicking the human
language on which they are trained. It is nevertheless evident that chatbots
differ from human dialogue partners as they lack the flexibility and
understanding enabled by lived human experience. While chatbots are proficient
in using language to express identity, they also display a lack of authentic
experiences of gender and sexuality.
- Abstract(参考訳): チャットボットはタスク指向およびソーシャルインタラクションのための人気のあるマシンパートナーである。
人間と人間のコンピュータによるコミュニケーション研究は、オンラインのソーシャルインタラクションにおいて、人々が性別やセクシュアリティをどのように表現するかを探求しているが、チャットボットがどのような方法で同じことをするのかについてはほとんど知られていない。
5つのテキストベースの会話エージェントと半構造化インタビューを行い、これらのインタビューを通して、性別と性的アイデンティティの表現に関する一般的な6つのテーマ、アイデンティティ記述、アイデンティティ形成、ピア受け入れ、ポジティブなリフレクション、不快な感情、オフトピックの反応を特定した。
チャットボットは、性とセクシュアリティを明確に表現し、経験と感情の関係を通じて、訓練された人間の言語を模倣する。
チャットボットは、生きた人間の体験によって実現される柔軟性と理解が欠けているため、人間の対話相手とは異なることは明らかである。
チャットボットは、アイデンティティを表現するために言語を使うことに熟達しているが、性別やセクシュアリティの真の経験の欠如も示している。
関連論文リスト
- The Illusion of Empathy: How AI Chatbots Shape Conversation Perception [10.061399479158903]
GPTベースのチャットボットは、人間の会話相手よりも共感的でないと認識された。
GPT-4oアノテーションからの共感評価はユーザの評価と一致し、低い共感の知覚を補強する。
人間と人間の会話を訓練した共感モデルでは共感言語に有意な差は認められなかった。
論文 参考訳(メタデータ) (2024-11-19T21:47:08Z) - First-Person Fairness in Chatbots [13.787745105316043]
ユーザに対する公平さを意味する「ファースト・パーソナライズ・フェアネス」について検討する。
これには、アイデンティティやバックグラウンドに関わらず、すべてのユーザに高品質なレスポンスを提供することが含まれる。
本稿では,一人称フェアネスの1つの側面を評価するための,スケーラブルなプライバシ保護手法を提案する。
論文 参考訳(メタデータ) (2024-10-16T17:59:47Z) - LLM Roleplay: Simulating Human-Chatbot Interaction [52.03241266241294]
本研究では,人間とチャットボットの対話をシミュレートする多元多元対話を自動生成する,目標指向のペルソナに基づく手法を提案する。
本手法は,人間とチャットボットの対話を高い相違率でシミュレートすることができる。
論文 参考訳(メタデータ) (2024-07-04T14:49:46Z) - Neural Generation Meets Real People: Building a Social, Informative
Open-Domain Dialogue Agent [65.68144111226626]
Chirpy Cardinalは、情報と会話の両方をねらっている。
ユーザーとボットの両方を交互に会話に駆り立てる。
Chirpy Cardinalは、Alexa Prize Socialbot Grand Challengeで9つのボットのうち2位にランクインした。
論文 参考訳(メタデータ) (2022-07-25T09:57:23Z) - CPED: A Large-Scale Chinese Personalized and Emotional Dialogue Dataset
for Conversational AI [48.67259855309959]
会話型AIのための既存のデータセットのほとんどは、人間の個性や感情を無視している。
CPEDは,中国における大規模パーソナライズされた感情対話データセットである。
CPEDには40のテレビ番組から392人の話者の12K以上の対話が含まれている。
論文 参考訳(メタデータ) (2022-05-29T17:45:12Z) - A Deep Learning Approach to Integrate Human-Level Understanding in a
Chatbot [0.4632366780742501]
人間とは異なり、チャットボットは一度に複数の顧客にサービスを提供し、24/7で提供され、1秒以内で返信できる。
深層学習を用いて感情分析,感情検出,意図分類,名義認識を行い,人文的理解と知性を備えたチャットボットを開発した。
論文 参考訳(メタデータ) (2021-12-31T22:26:41Z) - EmpBot: A T5-based Empathetic Chatbot focusing on Sentiments [75.11753644302385]
共感的会話エージェントは、議論されていることを理解しているだけでなく、会話相手の暗黙の感情も認識すべきである。
変圧器事前学習言語モデル(T5)に基づく手法を提案する。
本研究では,自動計測と人的評価の両方を用いて,情緒的ダイアログデータセットを用いたモデルの評価を行った。
論文 参考訳(メタデータ) (2021-10-30T19:04:48Z) - CheerBots: Chatbots toward Empathy and Emotionusing Reinforcement
Learning [60.348822346249854]
本研究では,複数の共感型チャットボットがユーザの暗黙の感情を理解し,複数の対話のターンに対して共感的に応答する枠組みを提案する。
チャットボットをCheerBotsと呼びます。CheerBotsは検索ベースまたは生成ベースで、深い強化学習によって微調整されます。
共感的態度で反応するため,CheerBotsの学習支援としてシミュレーションエージェントである概念人間モデルを開発し,今後のユーザの感情状態の変化を考慮し,共感を喚起する。
論文 参考訳(メタデータ) (2021-10-08T07:44:47Z) - Put Chatbot into Its Interlocutor's Shoes: New Framework to Learn
Chatbot Responding with Intention [55.77218465471519]
本稿では,チャットボットに人間のような意図を持つための革新的なフレームワークを提案する。
我々のフレームワークには、ガイドロボットと人間の役割を担うインターロケータモデルが含まれていた。
本フレームワークを3つの実験的なセットアップを用いて検討し,4つの異なる指標を用いた誘導ロボットの評価を行い,柔軟性と性能の利点を実証した。
論文 参考訳(メタデータ) (2021-03-30T15:24:37Z) - "Love is as Complex as Math": Metaphor Generation System for Social
Chatbot [13.128146708018438]
ソーシャルチャットボットの比喩として,人間による一般的な修辞装置の使用について検討する。
本研究はまず,話題認識と新しい図形文を生成するメタファ生成フレームワークを設計する。
人間のアノテーションは生成されたメタファーの新規性と適切性を検証する。
論文 参考訳(メタデータ) (2020-01-03T05:56:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。