論文の概要: On Fairness and Interpretability
- arxiv url: http://arxiv.org/abs/2106.13271v1
- Date: Thu, 24 Jun 2021 18:48:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-25 15:59:46.761867
- Title: On Fairness and Interpretability
- Title(参考訳): 公正性と解釈可能性について
- Authors: Deepak P, Sanil V, Joemon M. Jose
- Abstract要約: 我々は,様々な次元における公平性と解釈可能性の違いを論じ,解明する。
今後、倫理的AIを開発するための原則に基づくフレームワークを2つ開発する。
- 参考スコア(独自算出の注目度): 8.732874144276352
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ethical AI spans a gamut of considerations. Among these, the most popular
ones, fairness and interpretability, have remained largely distinct in
technical pursuits. We discuss and elucidate the differences between fairness
and interpretability across a variety of dimensions. Further, we develop two
principles-based frameworks towards developing ethical AI for the future that
embrace aspects of both fairness and interpretability. First, interpretability
for fairness proposes instantiating interpretability within the realm of
fairness to develop a new breed of ethical AI. Second, fairness and
interpretability initiates deliberations on bringing the best aspects of both
together. We hope that these two frameworks will contribute to intensifying
scholarly discussions on new frontiers of ethical AI that brings together
fairness and interpretability.
- Abstract(参考訳): 倫理的AIは多くの考慮事項にまたがっている。
これらのうち、最も人気のあるもの、公平さと解釈性は、技術的追求において大きく異なるままである。
様々な次元における公平性と解釈可能性の違いを論じ,解明する。
さらに,公正性と解釈可能性の両方の側面を取り入れた倫理的AI開発に向けた,2つの原則に基づくフレームワークを開発する。
第一に、公正に対する解釈可能性は、公正の領域内での解釈可能性のインスタンス化を提案し、新しい種類の倫理的AIを開発する。
第二に、公平性と解釈可能性は、双方の最高の側面をまとめることに関する議論を開始する。
この2つのフレームワークが、公正性と解釈可能性をもたらす倫理的AIの新たなフロンティアに関する学術的な議論の強化に寄与することを期待している。
関連論文リスト
- (Unfair) Norms in Fairness Research: A Meta-Analysis [6.395584220342517]
我々は,AIフェアネスと倫理に関する2つの主要なカンファレンスから,アルゴリズムフェアネス論文のメタ分析を行う。
まず、米国中心の視点が公正調査全体において支配的な傾向を示す。
第二に、公正性の研究は、人間のアイデンティティの二項結合に広く依存している。
論文 参考訳(メタデータ) (2024-06-17T17:14:47Z) - Towards Bidirectional Human-AI Alignment: A Systematic Review for Clarifications, Framework, and Future Directions [101.67121669727354]
近年のAIの進歩は、AIシステムを意図された目標、倫理的原則、個人とグループの価値に向けて導くことの重要性を強調している。
人間のAIアライメントの明確な定義とスコープの欠如は、このアライメントを達成するための研究領域間の共同作業を妨げる、大きな障害となる。
我々は、2019年から2024年1月までに400以上の論文を体系的にレビューし、HCI(Human-Computer Interaction)、自然言語処理(NLP)、機械学習(ML)といった複数の分野にまたがって紹介する。
論文 参考訳(メタデータ) (2024-06-13T16:03:25Z) - Toward an Artist-Centred AI [0.0]
本稿では、芸術におけるAIの使用に関する原則、実践、ツールの適合性と望ましい概念を文脈的に分析する。
AIがアート制作、流通、消費、収益化にもたらす課題を調べることで構成された。
論文 参考訳(メタデータ) (2024-04-13T09:43:23Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Beneficent Intelligence: A Capability Approach to Modeling Benefit,
Assistance, and Associated Moral Failures through AI Systems [12.239090962956043]
AI倫理に関する一般的な言説は、AIシステムが個人と対話する際に生じる多様な倫理的懸念を捉えるのに必要な言語や形式主義を欠いている。
本稿では、利害関係者に有意義な利益や援助を与えるために、AIシステムに必要な倫理的概念と権利のネットワークを定式化する枠組みを提案する。
論文 参考訳(メタデータ) (2023-08-01T22:38:14Z) - Implementing Responsible AI: Tensions and Trade-Offs Between Ethics Aspects [21.133468554780404]
我々は、多種多様な文献にまたがるサポートに焦点をあてて、双方向のインタラクションに焦点をあてる。
このカタログは、倫理原則の側面間の相互作用の可能性の認識を高めるのに役立つ。
論文 参考訳(メタデータ) (2023-04-17T13:43:13Z) - Factoring the Matrix of Domination: A Critical Review and Reimagination
of Intersectionality in AI Fairness [55.037030060643126]
間欠性は、社会的不平等の持続性を調べるための重要な枠組みである。
我々は、公平性を効果的に運用するために、交差性を分析的枠組みとして採用することが重要であると論じる。
論文 参考訳(メタデータ) (2023-03-16T21:02:09Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Reasons, Values, Stakeholders: A Philosophical Framework for Explainable
Artificial Intelligence [0.0]
本稿では,この議論に概念的正確性をもたらす多面的フレームワークを提案する。
人工知能の予測に最も関係している説明の種類を特定します。
また、これらの説明の評価のための社会的および倫理的価値の関連性と重要性を認識しています。
論文 参考訳(メタデータ) (2021-03-01T04:50:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。