論文の概要: "Over-the-Hood" AI Inclusivity Bugs and How 3 AI Product Teams Found and Fixed Them
- arxiv url: http://arxiv.org/abs/2510.19033v1
- Date: Tue, 21 Oct 2025 19:24:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:14.540076
- Title: "Over-the-Hood" AI Inclusivity Bugs and How 3 AI Product Teams Found and Fixed Them
- Title(参考訳): 3つのAIプロダクトチームがどうやって発見し、修正したのか
- Authors: Andrew Anderson, Fatima A. Moussaoui, Jimena Noa Guevara, Md Montaser Hamid, Margaret Burnett,
- Abstract要約: 我々は3つのAIプロダクトチームとフィールドスタディを行い、ユーザ向けAI製品にどのようなAI傾斜性バグが存在するか調査した。
83回のAIインクリビティバグ、47のバグインスタンスをカバーする修正、GenderMagのインクルーシブデザインメソッドであるGenderMag-for-AIの新たなバリエーションが見つかった。
- 参考スコア(独自算出の注目度): 1.0632221395609933
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While much research has shown the presence of AI's "under-the-hood" biases (e.g., algorithmic, training data, etc.), what about "over-the-hood" inclusivity biases: barriers in user-facing AI products that disproportionately exclude users with certain problem-solving approaches? Recent research has begun to report the existence of such biases -- but what do they look like, how prevalent are they, and how can developers find and fix them? To find out, we conducted a field study with 3 AI product teams, to investigate what kinds of AI inclusivity bugs exist uniquely in user-facing AI products, and whether/how AI product teams might harness an existing (non-AI-oriented) inclusive design method to find and fix them. The teams' work resulted in identifying 6 types of AI inclusivity bugs arising 83 times, fixes covering 47 of these bug instances, and a new variation of the GenderMag inclusive design method, GenderMag-for-AI, that is especially effective at detecting certain kinds of AI inclusivity bugs.
- Abstract(参考訳): 多くの研究が、AIの"内部"バイアス(例えば、アルゴリズム、トレーニングデータなど)の存在を示していますが、"内部"の傾きバイアスについてはどうでしょう。
最近の研究は、そのようなバイアスの存在を報告し始めている。しかし、どのように見えるのか、どの程度の偏りがあるのか、開発者はどのように発見して修正できるのか?
調査のために、3つのAIプロダクトチームとフィールドスタディを実施し、ユーザ向けAIプロダクトにどのようなAIインクリシティーバグがあるのか、そして/どのようにAIプロダクトチームが既存の(AI指向ではない)包括的設計手法を使ってそれらを発見および修正するかを調査した。
その結果、83回のAIインクリビティバグ、47のバグインスタンスをカバーする修正、GenderMagインクルーシブデザインメソッドであるGenderMag-for-AIの新たなバリエーションが、特定のAIインクリビティバグの検出に特に有効な6種類のAIインクリビティバグを特定した。
関連論文リスト
- Almost AI, Almost Human: The Challenge of Detecting AI-Polished Writing [55.2480439325792]
本研究では、AI-Polished-Text Evaluationデータセットを用いて、12の最先端AIテキスト検出器を体系的に評価する。
我々の発見によると、検出器は、最小限に洗練されたテキストをAI生成としてフラグ付けし、AIの関与度を区別し、古いモデルや小さなモデルに対するバイアスを示す。
論文 参考訳(メタデータ) (2025-02-21T18:45:37Z) - Human Bias in the Face of AI: Examining Human Judgment Against Text Labeled as AI Generated [48.70176791365903]
本研究では、偏見がAIと人為的コンテンツの知覚をどう形成するかを考察する。
ラベル付きおよびラベルなしコンテンツに対するヒトのラッカーの反応について検討した。
論文 参考訳(メタデータ) (2024-09-29T04:31:45Z) - Navigating AI Fallibility: Examining People's Reactions and Perceptions of AI after Encountering Personality Misrepresentations [7.256711790264119]
ハイパーパーソナライズされたAIシステムは、パーソナライズされたレコメンデーションを提供するために人々の特性をプロファイルする。
これらのシステムは、人々の最も個人的な特性を推測する際にエラーに免疫がない。
人格の誤表現に遭遇した後、人々がどのように反応し、AIを知覚するかを検討するための2つの研究を行った。
論文 参考訳(メタデータ) (2024-05-25T21:27:15Z) - Generative AI in Writing Research Papers: A New Type of Algorithmic Bias
and Uncertainty in Scholarly Work [0.38850145898707145]
大規模言語モデル(LLM)と生成AIツールは、バイアスを特定し、対処する上での課題を提示している。
生成型AIツールは、不正な一般化、幻覚、レッド・チーム・プロンプトのような敵攻撃を目標とする可能性がある。
研究原稿の執筆過程に生成AIを組み込むことで,新しいタイプの文脈依存型アルゴリズムバイアスがもたらされることがわかった。
論文 参考訳(メタデータ) (2023-12-04T04:05:04Z) - "I'm Not Confident in Debiasing AI Systems Since I Know Too Little":
Teaching AI Creators About Gender Bias Through Hands-on Tutorials [11.823789408603908]
学校のカリキュラムは、このトピックでAIクリエーターを教育することができない。
ジェンダーバイアスはAIシステムにおいて増加し、悪いユーザー体験、不正、そして女性に精神的危害をもたらす。
論文 参考訳(メタデータ) (2023-09-15T03:09:36Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Speciesist bias in AI -- How AI applications perpetuate discrimination
and unfair outcomes against animals [0.0]
この論文は、"種多様性バイアス"を初めて記述し、いくつかの異なるAIシステムでそれを調査したものである。
これは、AIシステムが動物に影響を及ぼす暴力の増加または減少に影響を及ぼす可能性があることを強調している。
論文 参考訳(メタデータ) (2022-02-22T12:23:21Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Does the Whole Exceed its Parts? The Effect of AI Explanations on
Complementary Team Performance [44.730580857733]
以前の研究では、AIが人間と最高のチームの両方を上回った場合にのみ、説明による改善が観察された。
我々は、3つのデータセットで混合メソッドのユーザー研究を行い、人間に匹敵する精度のAIが、参加者のタスク解決に役立ちます。
説明は、人間がAIの推奨を受け入れる可能性を高める。
論文 参考訳(メタデータ) (2020-06-26T03:34:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。