論文の概要: Reasons, Values, Stakeholders: A Philosophical Framework for Explainable
Artificial Intelligence
- arxiv url: http://arxiv.org/abs/2103.00752v1
- Date: Mon, 1 Mar 2021 04:50:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-04 11:09:22.526035
- Title: Reasons, Values, Stakeholders: A Philosophical Framework for Explainable
Artificial Intelligence
- Title(参考訳): 理由、価値、ステークホルダー:説明可能な人工知能のための哲学的枠組み
- Authors: Atoosa Kasirzadeh
- Abstract要約: 本稿では,この議論に概念的正確性をもたらす多面的フレームワークを提案する。
人工知能の予測に最も関係している説明の種類を特定します。
また、これらの説明の評価のための社会的および倫理的価値の関連性と重要性を認識しています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The societal and ethical implications of the use of opaque artificial
intelligence systems for consequential decisions, such as welfare allocation
and criminal justice, have generated a lively debate among multiple stakeholder
groups, including computer scientists, ethicists, social scientists, policy
makers, and end users. However, the lack of a common language or a
multi-dimensional framework to appropriately bridge the technical, epistemic,
and normative aspects of this debate prevents the discussion from being as
productive as it could be. Drawing on the philosophical literature on the
nature and value of explanations, this paper offers a multi-faceted framework
that brings more conceptual precision to the present debate by (1) identifying
the types of explanations that are most pertinent to artificial intelligence
predictions, (2) recognizing the relevance and importance of social and ethical
values for the evaluation of these explanations, and (3) demonstrating the
importance of these explanations for incorporating a diversified approach to
improving the design of truthful algorithmic ecosystems. The proposed
philosophical framework thus lays the groundwork for establishing a pertinent
connection between the technical and ethical aspects of artificial intelligence
systems.
- Abstract(参考訳): 福祉割り当てや刑事正義などの結果的な決定に不透明な人工知能システムを使用するという社会的および倫理的意味合いは、コンピュータ科学者、倫理学者、社会科学者、政策立案者、エンドユーザーを含む複数のステークホルダーグループの間で活発な議論を引き起こしました。
しかしながら、この議論の技術的、認識的、規範的な側面を適切に橋渡しするための共通言語や多次元フレームワークの欠如は、議論が可能な限り生産的であることを妨げている。
Drawing on the philosophical literature on the nature and value of explanations, this paper offers a multi-faceted framework that brings more conceptual precision to the present debate by (1) identifying the types of explanations that are most pertinent to artificial intelligence predictions, (2) recognizing the relevance and importance of social and ethical values for the evaluation of these explanations, and (3) demonstrating the importance of these explanations for incorporating a diversified approach to improving the design of truthful algorithmic ecosystems.
提案された哲学的枠組みは、人工知能システムの技術的側面と倫理的側面の関連性を確立するための基礎となる。
関連論文リスト
- On the Multiple Roles of Ontologies in Explainable AI [0.32634122554913997]
本稿では、明示的な知識、特に説明可能なAIで果たすことができるさまざまな役割について論じる。
本稿では、参照モデリング、常識推論、知識の洗練と複雑性管理の3つの主要な視点について考察する。
論文 参考訳(メタデータ) (2023-11-08T15:57:26Z) - A Unifying Framework for Learning Argumentation Semantics [50.69905074548764]
Inductive Logic Programmingアプローチを用いて、抽象的および構造化された議論フレームワークのアクセシビリティセマンティクスを解釈可能な方法で学習する新しいフレームワークを提案する。
提案手法は既存の議論解法よりも優れており,フォーマルな議論や人間と機械の対話の領域において,新たな研究の方向性が開けることになる。
論文 参考訳(メタデータ) (2023-10-18T20:18:05Z) - A multidomain relational framework to guide institutional AI research
and adoption [0.0]
我々は、AIを採用することの意味を理解することを目的とした研究努力が、ほんの一握りのアイデアだけを優先する傾向があると論じている。
本稿では,フィールド間の用語を整理する概念的枠組みとして,シンプルなポリシーと研究設計ツールを提案する。
論文 参考訳(メタデータ) (2023-03-17T16:33:01Z) - Mind the Gap! Bridging Explainable Artificial Intelligence and Human Understanding with Luhmann's Functional Theory of Communication [5.742215677251865]
我々は、説明可能な人工知能の課題を強調するために、社会システム理論を適用した。
我々は,インタラクティブかつ反復的な説明者の方向性で技術研究を再活性化することを目的としている。
論文 参考訳(メタデータ) (2023-02-07T13:31:02Z) - A.I. Robustness: a Human-Centered Perspective on Technological
Challenges and Opportunities [8.17368686298331]
人工知能(AI)システムのロバスト性はいまだ解明されておらず、大規模な採用を妨げる重要な問題となっている。
本稿では,基本的・応用的両面から文献を整理・記述する3つの概念を紹介する。
我々は、人間が提供できる必要な知識を考慮して、AIの堅牢性を評価し、向上する上で、人間の中心的な役割を強調します。
論文 参考訳(メタデータ) (2022-10-17T10:00:51Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Contextualizing Artificially Intelligent Morality: A Meta-Ethnography of
Top-Down, Bottom-Up, and Hybrid Models for Theoretical and Applied Ethics in
Artificial Intelligence [0.0]
このメタエスノグラフィーでは、倫理的人工知能(AI)設計の3つの異なる角度を探索する。
この枠組みへの新たな貢献は、企業や政府によって決定され、政策または法(トップから来る)によって課されるAIの倫理を構成する政治的アングルである。
ボトムアップの応用技術アプローチとAI倫理原則を実践的なトップダウンアプローチとして示すものとして、強化学習に焦点が当てられている。
論文 参考訳(メタデータ) (2022-04-15T18:47:49Z) - Active Inference in Robotics and Artificial Agents: Survey and
Challenges [51.29077770446286]
我々は、状態推定、制御、計画、学習のためのアクティブ推論の最先端理論と実装についてレビューする。
本稿では、適応性、一般化性、堅牢性の観点から、その可能性を示す関連する実験を紹介する。
論文 参考訳(メタデータ) (2021-12-03T12:10:26Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Neuro-symbolic Architectures for Context Understanding [59.899606495602406]
本稿では,データ駆動型アプローチと知識駆動型アプローチの強みを組み合わせたフレームワークとして,ハイブリッドAI手法を提案する。
具体的には、知識ベースを用いて深層ニューラルネットワークの学習過程を導く方法として、ニューロシンボリズムの概念を継承する。
論文 参考訳(メタデータ) (2020-03-09T15:04:07Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。