論文の概要: Exploring Gender Biases in Language Patterns of Human-Conversational
Agent Conversations
- arxiv url: http://arxiv.org/abs/2401.03030v1
- Date: Fri, 5 Jan 2024 19:11:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-09 21:02:06.787126
- Title: Exploring Gender Biases in Language Patterns of Human-Conversational
Agent Conversations
- Title(参考訳): 人間会話エージェント会話の言語パターンにおけるジェンダーバイアスの探索
- Authors: Weizi Liu
- Abstract要約: この研究は、人間とCAの相互作用における性バイアスの影響を深く掘り下げることを目的としている。
それは、CAsのジェンダーデザインによって、既存のジェンダーバイアスがどのように引き起こされるかを理解することを目的としている。
本研究の目的は,CAsにおけるジェンダーの割り当てが適切かどうかを問う,会話エージェントの倫理的デザインを通知することである。
- 参考スコア(独自算出の注目度): 1.0878040851638
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the rise of human-machine communication, machines are increasingly
designed with humanlike characteristics, such as gender, which can
inadvertently trigger cognitive biases. Many conversational agents (CAs), such
as voice assistants and chatbots, default to female personas, leading to
concerns about perpetuating gender stereotypes and inequality. Critiques have
emerged regarding the potential objectification of females and reinforcement of
gender stereotypes by these technologies. This research, situated in
conversational AI design, aims to delve deeper into the impacts of gender
biases in human-CA interactions. From a behavioral and communication research
standpoint, this program focuses not only on perceptions but also the
linguistic styles of users when interacting with CAs, as previous research has
rarely explored. It aims to understand how pre-existing gender biases might be
triggered by CAs' gender designs. It further investigates how CAs' gender
designs may reinforce gender biases and extend them to human-human
communication. The findings aim to inform ethical design of conversational
agents, addressing whether gender assignment in CAs is appropriate and how to
promote gender equality in design.
- Abstract(参考訳): 人間と機械のコミュニケーションが高まるにつれて、機械は性別のような人間的な特徴で設計され、不注意に認知バイアスを引き起こす。
音声アシスタントやチャットボットなど、多くの会話エージェント(cas)は女性パーソナラをデフォルトとし、性別のステレオタイプや不平等の持続に関する懸念を引き起こした。
女性の潜在的な客観化とこれらの技術による性ステレオタイプ強化に関する批判が浮上している。
この研究は会話型AI設計にあり、人間とCAの相互作用における性バイアスの影響を深く研究することを目的としている。
行動・コミュニケーション研究の観点からは、このプログラムは知覚だけでなく、casとのインタラクションにおけるユーザの言語スタイルにも焦点を当てている。
casのジェンダーデザインによって、既存のジェンダーバイアスがどのように引き起こされるのかを理解することを目的としている。
さらにcasのジェンダーデザインが性別バイアスを補強し、それらを人間と人間のコミュニケーションに拡張する可能性についても検討している。
本研究の目的は,CAsにおけるジェンダーの割り当てが適切かどうか,デザインにおけるジェンダー平等を促進する方法について,会話エージェントの倫理的デザインを通知することである。
関連論文リスト
- Revealing and Reducing Gender Biases in Vision and Language Assistants (VLAs) [82.57490175399693]
画像・テキスト・ビジョン言語アシスタント(VLA)22種における性別バイアスの検討
以上の結果から,VLAは実世界の作業不均衡など,データ中の人間のバイアスを再現する可能性が示唆された。
これらのモデルにおける性別バイアスを排除するため、微調整に基づくデバイアス法は、下流タスクにおけるデバイアスとパフォーマンスの最良のトレードオフを実現する。
論文 参考訳(メタデータ) (2024-10-25T05:59:44Z) - Beyond Binary Gender: Evaluating Gender-Inclusive Machine Translation with Ambiguous Attitude Words [85.48043537327258]
既存の機械翻訳の性別バイアス評価は主に男性と女性の性別に焦点を当てている。
本研究では,AmbGIMT (Gender-Inclusive Machine Translation with Ambiguous attitude words) のベンチマークを示す。
本研究では,感情的態度スコア(EAS)に基づく性別バイアス評価手法を提案する。
論文 参考訳(メタデータ) (2024-07-23T08:13:51Z) - Generalizing Fairness to Generative Language Models via Reformulation of Non-discrimination Criteria [4.738231680800414]
本稿では、生成言語モデルにおけるジェンダーバイアスの存在を解明し、定量化する方法について研究する。
我々は、独立性、分離性、充足性という3つのよく知られた非識別基準のジェネレーティブAIアナログを導出する。
本研究は,このような対話型言語モデルにおける職業性バイアスの存在に対処するものである。
論文 参考訳(メタデータ) (2024-03-13T14:19:08Z) - How To Build Competitive Multi-gender Speech Translation Models For
Controlling Speaker Gender Translation [21.125217707038356]
発音性言語から文法性言語に翻訳する場合、生成された翻訳は、話者を参照する者を含む様々な単語に対して、明確なジェンダー代入を必要とする。
このような偏見や包括的行動を避けるために、話者の性別に関する外部から提供されたメタデータによって、話者関連表現の性別割当を導出すべきである。
本稿では、話者のジェンダーメタデータを単一の「マルチジェンダー」ニューラルSTモデルに統合し、維持しやすくすることで、同じ結果を達成することを目的とする。
論文 参考訳(メタデータ) (2023-10-23T17:21:32Z) - Unveiling Gender Bias in Terms of Profession Across LLMs: Analyzing and
Addressing Sociological Implications [0.0]
この研究は、AI言語モデルにおけるジェンダーバイアスに関する既存の研究を調査し、現在の知識のギャップを特定する。
この結果は,大規模言語モデルのアウトプットに存在する,ジェンダー付き単語関連,言語使用,偏見付き物語に光を当てた。
本稿では,アルゴリズムアプローチやデータ拡張手法など,LSMにおける性別バイアスを低減するための戦略を提案する。
論文 参考訳(メタデータ) (2023-07-18T11:38:45Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Interacting with Masculinities: A Scoping Review [13.32560004325655]
我々は、人間性のジェンダーフルな性質を認識し、男性や男性らしさの回避を認め、女性やジェンダーフルな民族を中心的な俳優や変化の標的として負担するのを避ける必要がある。
本稿では,ACM Human Factors in Computing Systems 会議に提出された126件の論文のスクーピングレビューを通じて,HCIにおける男性学の30年の歴史について紹介する。
論文 参考訳(メタデータ) (2023-04-22T08:51:41Z) - Auditing Gender Presentation Differences in Text-to-Image Models [54.16959473093973]
我々は、テキスト・ツー・イメージ・モデルにおいて、ジェンダーがどのように異なる形で提示されるかを研究する。
入力テキスト中の性指標を探索することにより、プレゼンテーション中心属性の周波数差を定量化する。
このような違いを推定する自動手法を提案する。
論文 参考訳(メタデータ) (2023-02-07T18:52:22Z) - They, Them, Theirs: Rewriting with Gender-Neutral English [56.14842450974887]
私たちは、英語でジェンダーインクルージョンを促進する一般的な方法である特異点についてケーススタディを行います。
本研究では, 人為的データを持たない1%の単語誤り率で, ジェンダーニュートラルな英語を学習できるモデルについて述べる。
論文 参考訳(メタデータ) (2021-02-12T21:47:48Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。