論文の概要: Trustworthy AI Must Account for Intersectionality
- arxiv url: http://arxiv.org/abs/2504.07170v1
- Date: Wed, 09 Apr 2025 18:00:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-11 12:22:45.672957
- Title: Trustworthy AI Must Account for Intersectionality
- Title(参考訳): 信頼に値するAIは断続性を考慮しなければならない
- Authors: Jesse C. Cresswell,
- Abstract要約: 信頼できるAIは、公正性、プライバシ、堅牢性、説明可能性、不確実性定量化など、AIシステムを人間の価値と整合させるという願望的な側面を含んでいる。
ある側面を強化するための努力は、しばしば意図しないトレードオフを導入し、他人に悪影響を及ぼし、すべての側面を同時に改善することは困難になります。
我々は、それぞれの軸に沿った信頼に対処するには不十分な立場にある。代わりに、信頼に値するAIの研究は、アスペクト間の交差性を考慮し、すべての関連する軸を同時に総合的な視点を採用する必要がある。
- 参考スコア(独自算出の注目度): 5.244769696325465
- License:
- Abstract: Trustworthy AI encompasses many aspirational aspects for aligning AI systems with human values, including fairness, privacy, robustness, explainability, and uncertainty quantification. However, efforts to enhance one aspect often introduce unintended trade-offs that negatively impact others, making it challenging to improve all aspects simultaneously. In this position paper, we review notable approaches to these five aspects and systematically consider every pair, detailing the negative interactions that can arise. For example, applying differential privacy to model training can amplify biases in the data, undermining fairness. Drawing on these findings, we take the position that addressing trustworthiness along each axis in isolation is insufficient. Instead, research on Trustworthy AI must account for intersectionality between aspects and adopt a holistic view across all relevant axes at once. To illustrate our perspective, we provide guidance on how researchers can work towards integrated trustworthiness, a case study on how intersectionality applies to the financial industry, and alternative views to our position.
- Abstract(参考訳): 信頼できるAIは、公正性、プライバシ、堅牢性、説明可能性、不確実性定量化など、AIシステムを人間の価値と整合させるための多くの願望的な側面を含んでいる。
しかし、ある側面を強化する努力は、しばしば他人に悪影響を及ぼす意図しないトレードオフをもたらすため、すべての側面を同時に改善することは困難である。
本稿では、これらの5つの側面に対する顕著なアプローチを概観し、すべてのペアを体系的に検討し、起こりうる負の相互作用を詳述する。
例えば、モデルのトレーニングに差分プライバシーを適用することは、データのバイアスを増幅し、公正性を損なう可能性がある。
これらの知見に基づき、各軸の独立性に対処する立場は不十分である。
代わりに、信頼に値するAIの研究は、アスペクト間の交差性を考慮し、すべての関連する軸の全体像を同時に採用する必要があります。
我々の視点を説明するために、我々は研究者が統合された信頼への取り組み方、金融業界における交叉性がどのように影響するかのケーススタディ、そして我々の立場に対する代替的な見解についてガイダンスを提供する。
関連論文リスト
- A Tutorial On Intersectionality in Fair Rankings [1.4883782513177093]
バイアスは、データ駆動の世界で差別的な結果をもたらす可能性がある。
責任あるデータサイエンスと責任ある人工知能への取り組みは、これらのバイアスを軽減することを目指している。
論文 参考訳(メタデータ) (2025-02-07T21:14:21Z) - Navigating Conflicting Views: Harnessing Trust for Learning [5.776290041122041]
既存の信頼性フレームワークを強化するために,計算信頼に基づく割引手法を開発した。
提案手法は,Top-1精度,AUC-ROC for Uncertainty-Aware Prediction,Fleiss' Kappa,Multi-View Agreement with Ground Truthの6つの実世界のデータセットを用いて評価した。
論文 参考訳(メタデータ) (2024-06-03T03:22:18Z) - A Systematic Review on Fostering Appropriate Trust in Human-AI
Interaction [19.137907393497848]
人工知能の適切な信頼(AI)システムは、研究者と実践者の両方にとって、急速に重要な領域になってきた。
信頼度スコア、説明、信頼度基準、不確実性通信など、様々なアプローチがそれを達成するために使われてきた。
本稿では、適切な信頼を構築するための現在の実践、それを測定するためのさまざまな方法、使用するタスクの種類、それに関連する潜在的な課題を特定するための体系的なレビューを示す。
論文 参考訳(メタデータ) (2023-11-08T12:19:58Z) - Holistic Survey of Privacy and Fairness in Machine Learning [10.399352534861292]
プライバシと公正性は、責任ある人工知能(AI)と信頼できる機械学習(ML)の重要な柱である
かなりの関心があるにもかかわらず、これらの2つの目的がMLモデルにどのように同時に統合できるかを解明するために、より詳細な研究が必要である。
我々は、教師なし、教師なし、半教師なし、強化学習を含む、MLにおけるプライバシーと公正性の徹底的なレビューを提供する。
論文 参考訳(メタデータ) (2023-07-28T23:39:29Z) - Why not both? Complementing explanations with uncertainty, and the role
of self-confidence in Human-AI collaboration [12.47276164048813]
本研究では,不確実性評価とモデル説明がモデルに対するユーザの信頼,理解,信頼にどのように影響するかを明らかにするための実証的研究を行う。
また,合意と切り換え率に基づいて,後者が分析結果を歪める可能性についても論じる。
論文 参考訳(メタデータ) (2023-04-27T12:24:33Z) - Auditing and Generating Synthetic Data with Controllable Trust Trade-offs [54.262044436203965]
合成データセットとAIモデルを包括的に評価する総合監査フレームワークを導入する。
バイアスや差別の防止、ソースデータへの忠実性の確保、実用性、堅牢性、プライバシ保護などに焦点を当てている。
多様なユースケースにまたがる様々な生成モデルを監査することにより,フレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2023-04-21T09:03:18Z) - Factoring the Matrix of Domination: A Critical Review and Reimagination
of Intersectionality in AI Fairness [55.037030060643126]
間欠性は、社会的不平等の持続性を調べるための重要な枠組みである。
我々は、公平性を効果的に運用するために、交差性を分析的枠組みとして採用することが重要であると論じる。
論文 参考訳(メタデータ) (2023-03-16T21:02:09Z) - Modeling Multiple Views via Implicitly Preserving Global Consistency and
Local Complementarity [61.05259660910437]
複数の視点から表現を学習するために,グローバルな一貫性と相補性ネットワーク(CoCoNet)を提案する。
グローバルな段階では、重要な知識はビュー間で暗黙的に共有され、そのような知識を捕捉するためのエンコーダの強化は、学習された表現の識別性を向上させることができる。
最後に、局所的な段階において、横断的な識別的知識を結合する相補的要素を提案し、また、エンコーダが視点的識別性だけでなく、横断的な相補的情報も学習するように誘導する。
論文 参考訳(メタデータ) (2022-09-16T09:24:00Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - Empirical Estimates on Hand Manipulation are Recoverable: A Step Towards
Individualized and Explainable Robotic Support in Everyday Activities [80.37857025201036]
ロボットシステムの鍵となる課題は、他のエージェントの振る舞いを理解することである。
正しい推論の処理は、(衝突)因子が実験的に制御されない場合、特に困難である。
人に関する観察研究を行うために必要なツールをロボットに装備することを提案する。
論文 参考訳(メタデータ) (2022-01-27T22:15:56Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。