論文の概要: Does Explainable AI Have Moral Value?
- arxiv url: http://arxiv.org/abs/2311.14687v1
- Date: Sun, 5 Nov 2023 15:59:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-03 14:07:02.311107
- Title: Does Explainable AI Have Moral Value?
- Title(参考訳): 説明可能なaiは道徳的価値を持つか?
- Authors: Joshua L.M. Brand, Luca Nannini
- Abstract要約: 説明可能なAI(XAI)は、複雑なアルゴリズムシステムと人間の利害関係者のギャップを埋めることを目的としている。
現在の談話では、XAIを技術ツール、ユーザインターフェース、あるいはポリシーメカニズムとして独立して検討することが多い。
本稿では,道徳的義務と相互性の概念を基盤とした統一的倫理的枠組みを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Explainable AI (XAI) aims to bridge the gap between complex algorithmic
systems and human stakeholders. Current discourse often examines XAI in
isolation as either a technological tool, user interface, or policy mechanism.
This paper proposes a unifying ethical framework grounded in moral duties and
the concept of reciprocity. We argue that XAI should be appreciated not merely
as a right, but as part of our moral duties that helps sustain a reciprocal
relationship between humans affected by AI systems. This is because, we argue,
explanations help sustain constitutive symmetry and agency in AI-led
decision-making processes. We then assess leading XAI communities and reveal
gaps between the ideal of reciprocity and practical feasibility. Machine
learning offers useful techniques but overlooks evaluation and adoption
challenges. Human-computer interaction provides preliminary insights but
oversimplifies organizational contexts. Policies espouse accountability but
lack technical nuance. Synthesizing these views exposes barriers to
implementable, ethical XAI. Still, positioning XAI as a moral duty transcends
rights-based discourse to capture a more robust and complete moral picture.
This paper provides an accessible, detailed analysis elucidating the moral
value of explainability.
- Abstract(参考訳): 説明可能なAI(XAI)は、複雑なアルゴリズムシステムと人間の利害関係者のギャップを埋めることを目的としている。
現在の談話では、XAIを技術ツール、ユーザインターフェース、あるいはポリシーメカニズムとして独立して検討することが多い。
本稿では,道徳的義務と相互性の概念に基づく統一的倫理的枠組みを提案する。
我々は、XAIは権利としてだけでなく、AIシステムに影響を受ける人間同士の相互関係を維持するための道徳的義務の一部として評価されるべきであると主張する。
これは、AIによる意思決定プロセスにおいて、説明が構成対称性とエージェンシーを維持するのに役立ちます。
そして,XAIコミュニティを指導し,相互性の理想と実践的実現可能性のギャップを明らかにする。
機械学習は有用なテクニックを提供するが、評価と採用の課題を見落としている。
ヒューマンコンピュータインタラクションは予備的な洞察を提供するが、組織のコンテキストを単純化する。
政策は説明責任を侵害するが、技術的ニュアンスを欠いている。
これらのビューを合成すると、実装可能な倫理的XAIへの障壁が明らかになる。
それでも、XAIを道徳的義務として位置づけることは、より堅牢で完全な道徳的イメージを捉える権利に基づく言説を超越している。
本稿では,説明可能性の道徳的価値を解明し,詳細な分析を行う。
関連論文リスト
- Dataset | Mindset = Explainable AI | Interpretable AI [36.001670039529586]
機械学習(ML)の出力を支える理由を説明するために、与えられたデータセットにさまざまなXAIツールを適用すると、"説明可能な"人工知能(XAI)と"解釈可能なAI(IAI)"が相反する。
我々は、XAIは、IAIのサブセットであると主張する。IAIの概念はデータセットの範囲を超えており、思考の領域を含んでいる。
我々は、これらの概念を明確にし、将来のAI応用と研究における多くの実践者や政策立案者に対して、XAI、IAI、EAI、TAIの基礎を築いたいと考えています。
論文 参考訳(メタデータ) (2024-08-22T14:12:53Z) - Can Artificial Intelligence Embody Moral Values? [0.0]
中立論では テクノロジーは価値に恵まれない
本稿では,人工知能,特に自律的に目標を追求する決定を下す人工知能が中立論に挑むことを論じる。
我々の中心的な主張は、人工エージェントの根底にある計算モデルが、公正さ、正直さ、害を避けるといった道徳的価値の表現を統合することができるということである。
論文 参考訳(メタデータ) (2024-08-22T09:39:16Z) - If our aim is to build morality into an artificial agent, how might we
begin to go about doing so? [0.0]
我々は、最も関連する道徳的パラダイムや課題を含む道徳的エージェントを構築する際に考慮すべきさまざまな側面について議論する。
デザインへのハイブリッドアプローチと、モラルパラダイムを組み合わせる階層的アプローチを含むソリューションを提案する。
論文 参考訳(メタデータ) (2023-10-12T12:56:12Z) - Factoring the Matrix of Domination: A Critical Review and Reimagination
of Intersectionality in AI Fairness [55.037030060643126]
間欠性は、社会的不平等の持続性を調べるための重要な枠組みである。
我々は、公平性を効果的に運用するために、交差性を分析的枠組みとして採用することが重要であると論じる。
論文 参考訳(メタデータ) (2023-03-16T21:02:09Z) - Beyond Bias and Compliance: Towards Individual Agency and Plurality of
Ethics in AI [0.0]
データをラベル付けする方法は、AIの振る舞いに不可欠な役割を担っている、と私たちは主張する。
本稿では,複数の値と個々人の表現の自由を許容する代替経路を提案する。
論文 参考訳(メタデータ) (2023-02-23T16:33:40Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - Relational Artificial Intelligence [5.5586788751870175]
AIは伝統的に合理的な意思決定と結びついているが、すべての面においてAIの社会的影響を理解し、形作るためには、リレーショナルな視点が必要である。
AIに対する合理的なアプローチでは、計算アルゴリズムが人間の介入から独立して意思決定を推進し、バイアスと排除をもたらすことが示されている。
物事のリレーショナルな性質に焦点を当てたリレーショナルアプローチは、AIの倫理的、法的、社会的、文化的、環境的な影響を扱うために必要である。
論文 参考訳(メタデータ) (2022-02-04T15:29:57Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Aligning AI With Shared Human Values [85.2824609130584]
私たちは、正義、幸福、義務、美徳、常識道徳の概念にまたがる新しいベンチマークであるETHICSデータセットを紹介します。
現在の言語モデルは、基本的な人間の倫理的判断を予測できる有望だが不完全な能力を持っている。
私たちの研究は、今日の機械倫理の進歩を示しており、人間の価値観に合わせたAIへの足掛かりを提供する。
論文 参考訳(メタデータ) (2020-08-05T17:59:16Z) - Learning from Learning Machines: Optimisation, Rules, and Social Norms [91.3755431537592]
経済的な実体の行動に最も類似したAIの領域は道徳的に良い意思決定の領域であるようだ。
近年のAIにおけるディープラーニングの成功は、そのような問題を解決するための明示的な仕様よりも暗黙的な仕様の方が優れていることを示唆している。
論文 参考訳(メタデータ) (2019-12-29T17:42:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。