論文の概要: BiasAsker: Measuring the Bias in Conversational AI System
- arxiv url: http://arxiv.org/abs/2305.12434v1
- Date: Sun, 21 May 2023 11:25:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-23 20:34:37.867546
- Title: BiasAsker: Measuring the Bias in Conversational AI System
- Title(参考訳): BiasAsker: 会話型AIシステムにおけるバイアスの測定
- Authors: Yuxuan Wan, Wenxuan Wang, Pinjia He, Jiazhen Gu, Haonan Bai, Michael
Lyu
- Abstract要約: 対話型AIシステムにおける社会的偏見を識別・測定する自動フレームワークであるBiasAskerを提案する。
合計841グループと8110のバイアス特性を含む包括的社会バイアスデータセットを構築した。
BiasAskerは、質問を自動的に生成し、2種類のバイアスを識別する存在測定に基づく新しい方法を採用する。
- 参考スコア(独自算出の注目度): 8.655589757360707
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Powered by advanced Artificial Intelligence (AI) techniques, conversational
AI systems, such as ChatGPT and digital assistants like Siri, have been widely
deployed in daily life. However, such systems may still produce content
containing biases and stereotypes, causing potential social problems. Due to
the data-driven, black-box nature of modern AI techniques, comprehensively
identifying and measuring biases in conversational systems remains a
challenging task. Particularly, it is hard to generate inputs that can
comprehensively trigger potential bias due to the lack of data containing both
social groups as well as biased properties. In addition, modern conversational
systems can produce diverse responses (e.g., chatting and explanation), which
makes existing bias detection methods simply based on the sentiment and the
toxicity hardly being adopted. In this paper, we propose BiasAsker, an
automated framework to identify and measure social bias in conversational AI
systems. To obtain social groups and biased properties, we construct a
comprehensive social bias dataset, containing a total of 841 groups and 8,110
biased properties. Given the dataset, BiasAsker automatically generates
questions and adopts a novel method based on existence measurement to identify
two types of biases (i.e., absolute bias and related bias) in conversational
systems. Extensive experiments on 8 commercial systems and 2 famous research
models, such as ChatGPT and GPT-3, show that 32.83% of the questions generated
by BiasAsker can trigger biased behaviors in these widely deployed
conversational systems. All the code, data, and experimental results have been
released to facilitate future research.
- Abstract(参考訳): 高度な人工知能(AI)技術によって、ChatGPTやSiriのようなデジタルアシスタントのような会話型AIシステムは、日常生活に広く展開されている。
しかし、そのようなシステムはいまだにバイアスやステレオタイプを含むコンテンツを生成し、潜在的な社会問題を引き起こす可能性がある。
現代のai技術がデータ駆動でブラックボックスであることから、会話システムにおけるバイアスを包括的に識別し測定することは難しい課題である。
特に、社会的グループと偏りのある特性の両方を含むデータがないため、潜在的なバイアスを包括的に引き起こすような入力を生成することは困難である。
さらに、現代の会話システムは多様な応答(チャットや説明など)を生成できるため、既存のバイアス検出手法は単に感情や毒性が採用されにくい。
本稿では,対話型AIシステムにおける社会的バイアスを識別し,測定する自動フレームワークであるBiasAskerを提案する。
社会的グループとバイアス特性を得るために, 合計841グループと8110のバイアス特性を含む包括的社会的バイアスデータセットを構築した。
データセットが与えられると、biaskerは自動的に質問を生成し、会話システムにおける2種類のバイアス(すなわち絶対バイアスと関連するバイアス)を識別するために存在測定に基づく新しい方法を採用する。
8つの商用システムと、ChatGPTやGPT-3のような2つの有名な研究モデルに関する大規模な実験は、BiasAskerが生み出した質問の32.83%が、これらの広く展開された会話システムにおいてバイアスのある振る舞いを引き起こす可能性があることを示している。
将来の研究を促進するため、すべてのコード、データ、実験結果がリリースされた。
関連論文リスト
- Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - CBBQ: A Chinese Bias Benchmark Dataset Curated with Human-AI
Collaboration for Large Language Models [52.25049362267279]
本稿では,人的専門家と生成言語モデルによって共同で構築された100万以上の質問からなる中国語バイアスベンチマークデータセットを提案する。
データセットのテストインスタンスは、手作業による厳格な品質管理を備えた3K以上の高品質テンプレートから自動的に抽出される。
大規模な実験により、データセットがモデルバイアスを検出することの有効性が実証された。
論文 参考訳(メタデータ) (2023-06-28T14:14:44Z) - Data quality dimensions for fair AI [0.0]
我々は,AIシステムにおけるバイアスの問題について,情報品質の観点から考察する。
性別分類誤りにおけるバイアス軽減ツールの潜在的な改善について述べる。
バイアス軽減ツールで実装するデータ品質次元の識別は、より公平性を達成するのに役立つかもしれない。
論文 参考訳(メタデータ) (2023-05-11T16:48:58Z) - Fairness And Bias in Artificial Intelligence: A Brief Survey of Sources,
Impacts, And Mitigation Strategies [11.323961700172175]
この調査論文は、AIの公平性とバイアスに関する簡潔で包括的な概要を提供する。
我々は、データ、アルゴリズム、人間の決定バイアスなどのバイアス源をレビューする。
偏りのあるAIシステムの社会的影響を評価し,不平等の持続性と有害なステレオタイプの強化に着目した。
論文 参考訳(メタデータ) (2023-04-16T03:23:55Z) - Stable Bias: Analyzing Societal Representations in Diffusion Models [72.27121528451528]
本稿では,テキスト・ツー・イメージ(TTI)システムにおける社会的バイアスを探索する新しい手法を提案する。
我々のアプローチは、プロンプト内の性別や民族のマーカーを列挙して生成された画像の変動を特徴づけることに依存している。
我々はこの手法を利用して3つのTTIシステムによって生成された画像を分析し、そのアウトプットが米国の労働人口層と相関しているのに対して、彼らは常に異なる範囲において、限界化されたアイデンティティを低く表現している。
論文 参考訳(メタデータ) (2023-03-20T19:32:49Z) - BiasTestGPT: Using ChatGPT for Social Bias Testing of Language Models [73.29106813131818]
テスト文は限られた手動テンプレートから生成されるか、高価なクラウドソーシングを必要とするため、現時点ではバイアステストは煩雑である。
ソーシャルグループと属性の任意のユーザ指定の組み合わせを考慮し、テスト文の制御可能な生成にChatGPTを使うことを提案する。
本稿では,HuggingFace上にホストされているオープンソースの総合的バイアステストフレームワーク(BiasTestGPT)について紹介する。
論文 参考訳(メタデータ) (2023-02-14T22:07:57Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - De-biasing facial detection system using VAE [0.0]
AI/MLベースのシステムのバイアスはユビキタスな問題であり、AI/MLシステムのバイアスは社会に悪影響を及ぼす可能性がある。
提案手法は,基礎となる特徴を学習するのに最適な生成モデルを用いている。
アルゴリズムの助けを借りて、データセットに存在するバイアスを取り除くことができる。
論文 参考訳(メタデータ) (2022-04-16T11:24:37Z) - Improving Fairness of AI Systems with Lossless De-biasing [15.039284892391565]
AIシステムのバイアスを緩和して全体的な公正性を高めることが重要な課題となっている。
我々は,不利益グループにおけるデータの不足を対象とする情報損失のない脱バイアス手法を提案する。
論文 参考訳(メタデータ) (2021-05-10T17:38:38Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z) - Demographic Bias in Biometrics: A Survey on an Emerging Challenge [0.0]
生体計測システムは、人間の特定の生物学的または法医学的特性の特異性に依存している。
自動意思決定システムにおける体系的バイアスの存在に関して、公共および学術的な懸念の波が相次いだ。
論文 参考訳(メタデータ) (2020-03-05T09:07:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。