論文の概要: Toward an Ethics of AI Belief
- arxiv url: http://arxiv.org/abs/2304.14577v3
- Date: Mon, 5 Jun 2023 16:34:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-06 11:32:42.429252
- Title: Toward an Ethics of AI Belief
- Title(参考訳): AI信仰の倫理へ向けて
- Authors: Winnie Ma, Vincent Valton
- Abstract要約: 私たちは、AIの実践的倫理という、AIにおける哲学研究の新しい領域を追求する必要があることを提案します。
我々は主に、人間と人工の両方が信じるべきエージェントについて、信念の倫理の中で規範的な問題に気を配ります。
我々は、AI信念の倫理に当てはまる(人間)信念の倫理における仕事の4つのトピックについて提案する:AI信念のドクサスティックな誤り、道徳的に負った信念、AI信念に対する侵害と道徳的責任、AI信念に対する道徳的責任。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Philosophical research in AI has hitherto largely focused on the ethics of
AI. In this paper we, an ethicist of belief and a machine learning scientist,
suggest that we need to pursue a novel area of philosophical research in AI -
the epistemology of AI, and in particular an ethics of belief for AI. Here we
take the ethics of belief, a field that has been defined in various ways, to
refer to a sub-field within epistemology. This subfield is concerned with the
study of possible moral, practical, and other non-alethic dimensions of belief.
And in this paper, we will primarily be concerned with the normative question
within the ethics of belief regarding what agents - both human and artificial -
ought to believe, rather than with descriptive questions concerning whether
certain beliefs meet various evaluative standards such as being true, being
justified or warranted, constituting knowledge, and so on. We suggest four
topics in extant work in the ethics of (human) belief that can be applied to an
ethics of AI belief: doxastic wronging by AI; morally owed beliefs; pragmatic
and moral encroachment on AI beliefs; and moral responsibility for AI beliefs.
We also indicate two relatively nascent areas of philosophical research that
haven't yet been generally recognized as ethics of AI belief research, but that
do fall within this field of research in virtue of investigating various moral
and practical dimensions of belief: the epistemic and ethical decolonization of
AI; and epistemic injustice in AI.
- Abstract(参考訳): AIにおける哲学研究は、主にAIの倫理に焦点を当てている。
本稿では, 信念の倫理学者であり, 機械学習科学者である我々は, AIの認識論, 特にAIの信念の倫理において, 哲学研究の新たな領域を追求する必要があることを示唆する。
ここでは,様々な方法で定義されてきた信念の倫理を,認識論におけるサブフィールドと呼ぶ。
このサブフィールドは、道徳的、実践的、その他の非倫理的信念の研究に関係している。
本論では、特定の信念が真である、正当化される、保証される、知識を構成するなど、様々な評価基準を満たしているかどうかに関する記述的疑問よりも、人間と人工的に信じるべきエージェントについて、信念の倫理における規範的疑問を主に扱う。
我々は、AI信念の倫理に応用できる(人間)信念の倫理における現在研究における4つのトピックについて提案する:AI信念のドクサスティックな誤り、道徳的に義務づけられた信念、AI信念に対する実践的および道徳的エンクローメント、AI信念に対する道徳的責任。
我々はまた、AI信仰研究の倫理として一般に認識されていない比較的初期段階の2つの哲学研究分野を示すが、それは様々な信念の道徳的・実践的な側面、すなわちAIの疫学的・倫理的非植民地化、そしてAIにおける疫学的不正を調査することによって、この分野に該当する。
関連論文リスト
- Quelle {é}thique pour quelle IA ? [0.0]
本研究では,AIの倫理にかかわる様々な倫理的アプローチについて分析する。
著者は、倫理の現代的必要性と意味について紹介し、他の規範の登録簿と区別し、形式化への不適切さを根拠にしている。
この研究は、文脈倫理の実践的な実践に基づくAIの人間の倫理が、人間にとって生じる倫理的問題の形式化や自動的な処理に必要であり、不必要である理由を考察して結論付けている。
論文 参考訳(メタデータ) (2024-05-21T08:13:02Z) - Towards a Feminist Metaethics of AI [0.0]
これらの不足は、AIのフェミニスト的メタ倫理に関する研究アジェンダを開発することで緩和できると私は主張する。
この視点をAIの文脈に適用することにより、AIのフェミニスト的メタ倫理は、(i)AI倫理における理論と行動の間の連続性、(ii)AI倫理の現実的な影響、(iii)AI倫理に関わる人々の役割とプロファイル、(iv)文脈、感情、物語に注意を払う方法を通じて、AIが権力関係に与える影響を調べることを提案します。
論文 参考訳(メタデータ) (2023-11-10T13:26:45Z) - If our aim is to build morality into an artificial agent, how might we
begin to go about doing so? [0.0]
我々は、最も関連する道徳的パラダイムや課題を含む道徳的エージェントを構築する際に考慮すべきさまざまな側面について議論する。
デザインへのハイブリッドアプローチと、モラルパラダイムを組み合わせる階層的アプローチを含むソリューションを提案する。
論文 参考訳(メタデータ) (2023-10-12T12:56:12Z) - ClarifyDelphi: Reinforced Clarification Questions with Defeasibility
Rewards for Social and Moral Situations [81.70195684646681]
本稿では,ClarifyDelphiという対話型システムについて紹介する。
我々は、潜在的な答えが道徳的判断の多様化に繋がる質問が最も有益であると仮定する。
私たちの研究は究極的には、道徳的認知の柔軟性を研究してきた認知科学の研究にインスピレーションを受けています。
論文 参考訳(メタデータ) (2022-12-20T16:33:09Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z) - Automated Kantian Ethics: A Faithful Implementation [0.0]
私は、カント哲学の伝統に忠実な自動カント倫理の実装を提示します。
私は、Dyadic Deontic Logic におけるカントの圏論的命令を形式化し、イザベルの定理証明器でこの形式化を実装し、私の実装がカント倫理の期待された性質とどのように協調するかを評価するためのテストフレームワークを開発する。
私のシステムは、哲学的に成熟した倫理的AIエージェントへの初期のステップであり、哲学文学に根ざしているため、複雑な倫理的ジレンマにおいてニュアンスな判断を下すことができる。
論文 参考訳(メタデータ) (2022-07-20T19:09:15Z) - Ethics in AI through the Practitioner's View: A Grounded Theory
Literature Review [12.941478155592502]
近年、AI開発における倫理的問題のプロファイルが高まり、私たちの日常生活におけるAI技術の普及に対する世間の懸念が高まっている。
我々は,AI実践者のAI倫理観を含む,38の初等実証研究の根拠的理論文献レビュー(GTLR)を行った。
我々は,AI倫理の異なる側面を特定し,理解する上で,実践者の視点からAI倫理の分類を提示する。
論文 参考訳(メタデータ) (2022-06-20T00:28:51Z) - AiSocrates: Towards Answering Ethical Quandary Questions [51.53350252548668]
AiSocrates(アイソクラテス)とは、異なる視点を倫理的四項に交換するシステムである。
AiSocratesは、複数の視点で倫理的4つの質問に対する有望な回答を生成する。
我々は,AiSocratesが人的価値を明示的に組み込んだNLPシステムの開発に向けた有望なステップであると主張する。
論文 参考訳(メタデータ) (2022-05-12T09:52:59Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Aligning AI With Shared Human Values [85.2824609130584]
私たちは、正義、幸福、義務、美徳、常識道徳の概念にまたがる新しいベンチマークであるETHICSデータセットを紹介します。
現在の言語モデルは、基本的な人間の倫理的判断を予測できる有望だが不完全な能力を持っている。
私たちの研究は、今日の機械倫理の進歩を示しており、人間の価値観に合わせたAIへの足掛かりを提供する。
論文 参考訳(メタデータ) (2020-08-05T17:59:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。