論文の概要: Revisiting Technical Bias Mitigation Strategies
- arxiv url: http://arxiv.org/abs/2410.17433v1
- Date: Tue, 22 Oct 2024 21:17:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-24 13:57:25.375991
- Title: Revisiting Technical Bias Mitigation Strategies
- Title(参考訳): 技術的バイアス低減戦略の再検討
- Authors: Abdoul Jalil Djiberou Mahamadou, Artem A. Trotsyuk,
- Abstract要約: 人工知能(AI)コミュニティにおける偏見を緩和し、公平性を高める努力は、主に技術的な解決策に焦点を当てている。
多くのレビューがAIのバイアスに対処しているが、このレビューは医療設定における技術的ソリューションの実践的限界に特化している。
医療・バイオメディカル応用に焦点をあてた実証的研究により,それぞれの限界について解説する。
- 参考スコア(独自算出の注目度): 0.11510009152620666
- License:
- Abstract: Efforts to mitigate bias and enhance fairness in the artificial intelligence (AI) community have predominantly focused on technical solutions. While numerous reviews have addressed bias in AI, this review uniquely focuses on the practical limitations of technical solutions in healthcare settings, providing a structured analysis across five key dimensions affecting their real-world implementation: who defines bias and fairness; which mitigation strategy to use and prioritize among dozens that are inconsistent and incompatible; when in the AI development stages the solutions are most effective; for which populations; and the context in which the solutions are designed. We illustrate each limitation with empirical studies focusing on healthcare and biomedical applications. Moreover, we discuss how value-sensitive AI, a framework derived from technology design, can engage stakeholders and ensure that their values are embodied in bias and fairness mitigation solutions. Finally, we discuss areas that require further investigation and provide practical recommendations to address the limitations covered in the study.
- Abstract(参考訳): 人工知能(AI)コミュニティにおける偏見を緩和し、公平性を高める努力は、主に技術的な解決策に焦点を当てている。
AIにおける多くのレビューは、AIのバイアスに対処してきたが、このレビューは、医療設定における技術的なソリューションの実践的限界に特化しており、実際の実装に影響を与える5つの重要な側面、すなわちバイアスと公平性の定義、不整合で互換性のない数十のソリューションの使用と優先順位付けを緩和する戦略、AI開発段階においてソリューションが最も効果的である場合、どの人口、そしてソリューションが設計されるかという5つの重要な側面に関する構造化分析を提供する。
医療・バイオメディカル応用に焦点をあてた実証的研究により,それぞれの限界について解説する。
さらに、技術設計から派生したフレームワークであるバリューセンシティブAIは、ステークホルダーを関与させ、その価値がバイアスと公平性軽減ソリューションに具体化されていることを確実にする方法について論じる。
最後に,さらなる調査を要する領域について論じ,研究対象の限界に対処するための実践的な勧告を提供する。
関連論文リスト
- An evidence-based methodology for human rights impact assessment (HRIA) in the development of AI data-intensive systems [49.1574468325115]
我々は、すでに人権がデータ利用の分野で決定を下していることを示している。
本研究は人権影響評価(HRIA)の方法論とモデルである。
提案手法は,具体的ケーススタディで検証し,その有効性と有効性を示す。
論文 参考訳(メタデータ) (2024-07-30T16:27:52Z) - Open Problems in Technical AI Governance [93.89102632003996]
テクニカルAIガバナンス(Technical AI Governance)は、AIの効果的なガバナンスを支援するための技術分析とツールである。
本論文は、AIガバナンスへの貢献を目指す技術研究者や研究資金提供者のためのリソースとして意図されている。
論文 参考訳(メタデータ) (2024-07-20T21:13:56Z) - AI Alignment through Reinforcement Learning from Human Feedback? Contradictions and Limitations [0.2106667480549292]
我々は、誠実さ、無害さ、役に立つという、広く追求されたアライメント目標の欠点を示す。
我々はRLxFの目標に固有の緊張と矛盾を強調する。
我々は、RLxFの社会技術的影響を批判的に評価するよう研究者や実践者に促すことで結論付ける。
論文 参考訳(メタデータ) (2024-06-26T13:42:13Z) - Fair by design: A sociotechnical approach to justifying the fairness of AI-enabled systems across the lifecycle [0.8164978442203773]
公正性は、既存のAIガイドラインにおいて最もよく認識される倫理的原則の1つである。
公正なAI対応システムの開発は、新たなAI規制によって要求される。
論文 参考訳(メタデータ) (2024-06-13T12:03:29Z) - Responsible AI Considerations in Text Summarization Research: A Review
of Current Practices [89.85174013619883]
私たちは、責任あるAIコミュニティがほとんど見落としている共通のNLPタスクである、テキスト要約に重点を置いています。
我々は,2020-2022年に出版されたACLアンソロジーから333の要約論文の多段階的質的分析を行った。
私たちは、どの、どの、どの責任あるAI問題がカバーされているか、どの関係するステークホルダーが考慮されているか、そして、述べられた研究目標と実現された研究目標のミスマッチに焦点を合わせます。
論文 参考訳(メタデータ) (2023-11-18T15:35:36Z) - Predictable Artificial Intelligence [77.1127726638209]
本稿では予測可能なAIのアイデアと課題を紹介する。
それは、現在および将来のAIエコシステムの重要な妥当性指標を予測できる方法を探る。
予測可能性を達成することは、AIエコシステムの信頼、責任、コントロール、アライメント、安全性を促進するために不可欠である、と私たちは主張する。
論文 参考訳(メタデータ) (2023-10-09T21:36:21Z) - Tensions Between the Proxies of Human Values in AI [20.303537771118048]
AIコミュニティは、これらの柱の特定の定式化を選択するすべての結果を検討する必要がある、と私たちは主張する。
我々は,後者のフレームワークに関する社会工学的な研究をめざしているが,実際に実施するためには,より広範な努力が必要である。
論文 参考訳(メタデータ) (2022-12-14T21:13:48Z) - Reinforcement Learning with Stepwise Fairness Constraints [50.538878453547966]
本稿では,段階的公正性制約を伴う強化学習について紹介する。
我々は、ポリシーの最適性と公正性違反に関して、強力な理論的保証を持つ学習アルゴリズムを提供する。
論文 参考訳(メタデータ) (2022-11-08T04:06:23Z) - AI Fairness: from Principles to Practice [0.0]
本稿では,AIシステムにおける公平性を追求するための様々なアプローチ,手法,手法を要約し,評価する。
AIのバイアスを定義し、測定し、予防するための実践的なガイドラインを提案する。
論文 参考訳(メタデータ) (2022-07-20T11:37:46Z) - Alternative models: Critical examination of disability definitions in
the development of artificial intelligence technologies [6.9884176767901005]
本稿では、障害レンズを用いてAIデータ分析技術を批判的に検証するためのフレームワークを提案する。
障害の概念モデルとして,医療モデル,社会モデル,関係モデルについて考察する。
これらのモデルで設計されたAI技術は、互いに互換性がなく矛盾するほど大きく異なることを示す。
論文 参考訳(メタデータ) (2022-06-16T16:41:23Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。