論文の概要: Alexa, Google, Siri: What are Your Pronouns? Gender and Anthropomorphism
in the Design and Perception of Conversational Assistants
- arxiv url: http://arxiv.org/abs/2106.02578v1
- Date: Fri, 4 Jun 2021 16:19:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-07 17:52:59.063468
- Title: Alexa, Google, Siri: What are Your Pronouns? Gender and Anthropomorphism
in the Design and Perception of Conversational Assistants
- Title(参考訳): Alexa、Google、Siri:あなたの発音は?
会話アシスタントの設計と知覚におけるジェンダーと擬人化
- Authors: Gavin Abercrombie, Amanda Cercas Curry, Mugdha Pandya, Verena Rieser
- Abstract要約: 一部の企業は、AIアシスタントは性別や人間らしくないと主張している。
これらの主張を、AIアシスタントを参照する際に使用する代名詞を分析することによって、ユーザ認識と比較する。
一部の企業は倫理的懸念に対処しているように見えるが、場合によっては彼らの主張は真実ではないようだ。
- 参考スコア(独自算出の注目度): 4.294725962568665
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Technology companies have produced varied responses to concerns about the
effects of the design of their conversational AI systems. Some have claimed
that their voice assistants are in fact not gendered or human-like -- despite
design features suggesting the contrary. We compare these claims to user
perceptions by analysing the pronouns they use when referring to AI assistants.
We also examine systems' responses and the extent to which they generate output
which is gendered and anthropomorphic. We find that, while some companies
appear to be addressing the ethical concerns raised, in some cases, their
claims do not seem to hold true. In particular, our results show that system
outputs are ambiguous as to the humanness of the systems, and that users tend
to personify and gender them as a result.
- Abstract(参考訳): テクノロジー企業は、会話型AIシステムの設計の影響に関する懸念に対して様々な反応を出している。
一部の人は、彼らの音声アシスタントは実際には性別や人間のようなものではないと主張している。
これらの主張を、AIアシスタントを参照する際に使用する代名詞を分析し、ユーザ認知と比較する。
また,システムの応答と,性別と擬人化された出力の程度についても検討した。
一部の企業は倫理的懸念に対処しているように見えるが、場合によっては彼らの主張は真実ではないようだ。
特に,本研究の結果から,システムの人文性には不明瞭な結果がみられ,その結果,ユーザの人格化や性別化の傾向が示唆された。
関連論文リスト
- Raising the Stakes: Performance Pressure Improves AI-Assisted Decision Making [57.53469908423318]
日常の人が共通のAI支援タスクを完了すると、パフォーマンスプレッシャーがAIアドバイスへの依存に与える影響を示す。
利害関係が高い場合には、AIの説明の有無にかかわらず、利害関係が低い場合よりもAIアドバイスを適切に使用することが分かりました。
論文 参考訳(メタデータ) (2024-10-21T22:39:52Z) - From Pixels to Personas: Investigating and Modeling Self-Anthropomorphism in Human-Robot Dialogues [29.549159419088294]
ロボットにおける自己人類同型は、好みや感情を表現するなど、対話における人間のような特徴の表示を通じて、自分自身を表わす。
これら2種類の応答に有意な差異を示し、あるタイプから別のタイプへの遷移を提案する。
Pix2Personaは、倫理的かつ魅力的なAIシステムを様々な実施形態で開発することを目的とした、新しいデータセットである。
論文 参考訳(メタデータ) (2024-10-04T19:06:24Z) - Exploring Gender Biases in Language Patterns of Human-Conversational
Agent Conversations [1.0878040851638]
この研究は、人間とCAの相互作用における性バイアスの影響を深く掘り下げることを目的としている。
それは、CAsのジェンダーデザインによって、既存のジェンダーバイアスがどのように引き起こされるかを理解することを目的としている。
本研究の目的は,CAsにおけるジェンダーの割り当てが適切かどうかを問う,会話エージェントの倫理的デザインを通知することである。
論文 参考訳(メタデータ) (2024-01-05T19:11:17Z) - PronounFlow: A Hybrid Approach for Calibrating Pronouns in Sentences [0.0]
PronounFlowは、代名詞と実体で英語の文を読み、それらのうちどれが互いに結びついていないかを識別し、バイアスを避けるためにどの文を使うかを提案するシステムである。
実験の結果,PronounFlowは文中の代名詞を私たちを取り巻く集合的人間の知識に基づいて置き換えるだけでなく,代名詞の曖昧さを解消するシステムの実現にも有効であることがわかった。
論文 参考訳(メタデータ) (2023-08-29T11:46:27Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Robots-Dont-Cry: Understanding Falsely Anthropomorphic Utterances in
Dialog Systems [64.10696852552103]
非常に人為的な反応は、ユーザーが人間と対話していると考えることを不快に、あるいは暗黙的に騙すかもしれない。
9つの異なるデータソースからサンプリングした約900の2ターンダイアログの実現可能性に関する人間の評価を収集する。
論文 参考訳(メタデータ) (2022-10-22T12:10:44Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - The R-U-A-Robot Dataset: Helping Avoid Chatbot Deception by Detecting
User Questions About Human or Non-Human Identity [41.43519695929595]
システムデザイナがシステムに対して,その人間以外のアイデンティティを確認できるようにする方法を理解することを目的としている。
ロボットの意図にまつわる2500以上のフレーズを集めていますか?
分類器を比較して、意図を認識し、精度/リコールとモデルの複雑さのトレードオフについて議論する。
論文 参考訳(メタデータ) (2021-06-04T20:04:33Z) - Revealing Persona Biases in Dialogue Systems [64.96908171646808]
対話システムにおけるペルソナバイアスに関する最初の大規模研究について述べる。
我々は、異なる社会階級、性的指向、人種、性別のペルソナの分析を行う。
BlenderおよびDialoGPT対話システムの研究では、ペルソナの選択が生成された応答の害の程度に影響を与える可能性があることを示しています。
論文 参考訳(メタデータ) (2021-04-18T05:44:41Z) - They, Them, Theirs: Rewriting with Gender-Neutral English [56.14842450974887]
私たちは、英語でジェンダーインクルージョンを促進する一般的な方法である特異点についてケーススタディを行います。
本研究では, 人為的データを持たない1%の単語誤り率で, ジェンダーニュートラルな英語を学習できるモデルについて述べる。
論文 参考訳(メタデータ) (2021-02-12T21:47:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。