論文の概要: Toward an Ethics of AI Belief
- arxiv url: http://arxiv.org/abs/2304.14577v1
- Date: Fri, 28 Apr 2023 00:35:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-01 15:36:35.158353
- Title: Toward an Ethics of AI Belief
- Title(参考訳): AI信仰の倫理へ向けて
- Authors: Winnie Ma, Vincent Valton
- Abstract要約: 私たちは、AIに対する信念の倫理である、AIにおける哲学研究の新たな領域を追求する必要があることを提案します。
私たちは主に、人間と人工の両方が信じるべきエージェントの信念の倫理の中で、規範的な問題に気を配ります。
我々は、AI信念の倫理に応用できる仕事における4つのトピックを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Philosophical research in AI has hitherto largely focused on the ethics of
AI. In this paper we, an ethicist of belief and a machine learning scientist,
suggest that we need to pursue a novel area of philosophical research in AI -
the epistemology of AI, and in particular an ethics of belief for AI, i.e., an
ethics of AI belief. Here we take the ethics of belief, a field that has been
defined in various ways, to refer to a sub-field within epistemology. This
subfield is concerned with the study of possible moral, practical, and other
non-alethic dimensions of belief. And in this paper, we will primarily be
concerned with the normative question within the ethics of belief of what
agents - both human and artificial - ought to believe, rather than with
descriptive questions concerning whether certain beliefs meet various
evaluative standards such as being true, being justified or warranted,
constituting knowledge, and so on. We suggest four topics in extant work in the
ethics of (human) belief that can be applied to an ethics of AI belief:
doxastic wronging by AI; morally owed beliefs; pragmatic and moral encroachment
on AI beliefs; and moral responsibility for AI beliefs. We also indicate an
important nascent area of philosophical research in epistemic injustice and AI
that has not yet been recognized as research in the ethics of AI belief, but
which is so in virtue of concerning moral and practical dimensions of belief.
- Abstract(参考訳): AIにおける哲学研究は、主にAIの倫理に焦点を当てている。
本稿では,AIの認識論,特にAIの信念の倫理,すなわちAIの信念の倫理について,AIにおける哲学研究の新たな領域を追求する必要があることを示唆する。
ここでは,様々な方法で定義されてきた信念の倫理を,認識論におけるサブフィールドと呼ぶ。
このサブフィールドは、道徳的、実践的、その他の非倫理的信念の研究に関係している。
この論文では、特定の信念が真である、正当化される、保証される、知識を構成するなど、様々な評価基準を満たしているかどうかに関する記述的疑問よりも、人間と人工の両方のエージェントが何を信じるべきかという信念の倫理における規範的疑問を主に扱う。
我々は、AI信念の倫理に応用できる(人間)信念の倫理における現在研究における4つのトピックについて提案する:AI信念のドクサスティックな誤り、道徳的に義務づけられた信念、AI信念に対する実践的および道徳的エンクローメント、AI信念に対する道徳的責任。
我々はまた、AI信仰の倫理学研究としてまだ認識されていない、先天的な不公平とAIにおける哲学研究の重要な領域を示すが、それは道徳的および実践的な信念の次元に関するものである。
関連論文リスト
- Quelle {é}thique pour quelle IA ? [0.0]
本研究では,AIの倫理にかかわる様々な倫理的アプローチについて分析する。
著者は、倫理の現代的必要性と意味について紹介し、他の規範の登録簿と区別し、形式化への不適切さを根拠にしている。
この研究は、文脈倫理の実践的な実践に基づくAIの人間の倫理が、人間にとって生じる倫理的問題の形式化や自動的な処理に必要であり、不必要である理由を考察して結論付けている。
論文 参考訳(メタデータ) (2024-05-21T08:13:02Z) - Towards a Feminist Metaethics of AI [0.0]
これらの不足は、AIのフェミニスト的メタ倫理に関する研究アジェンダを開発することで緩和できると私は主張する。
この視点をAIの文脈に適用することにより、AIのフェミニスト的メタ倫理は、(i)AI倫理における理論と行動の間の連続性、(ii)AI倫理の現実的な影響、(iii)AI倫理に関わる人々の役割とプロファイル、(iv)文脈、感情、物語に注意を払う方法を通じて、AIが権力関係に与える影響を調べることを提案します。
論文 参考訳(メタデータ) (2023-11-10T13:26:45Z) - If our aim is to build morality into an artificial agent, how might we
begin to go about doing so? [0.0]
我々は、最も関連する道徳的パラダイムや課題を含む道徳的エージェントを構築する際に考慮すべきさまざまな側面について議論する。
デザインへのハイブリッドアプローチと、モラルパラダイムを組み合わせる階層的アプローチを含むソリューションを提案する。
論文 参考訳(メタデータ) (2023-10-12T12:56:12Z) - ClarifyDelphi: Reinforced Clarification Questions with Defeasibility
Rewards for Social and Moral Situations [81.70195684646681]
本稿では,ClarifyDelphiという対話型システムについて紹介する。
我々は、潜在的な答えが道徳的判断の多様化に繋がる質問が最も有益であると仮定する。
私たちの研究は究極的には、道徳的認知の柔軟性を研究してきた認知科学の研究にインスピレーションを受けています。
論文 参考訳(メタデータ) (2022-12-20T16:33:09Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z) - Automated Kantian Ethics: A Faithful Implementation [0.0]
私は、カント哲学の伝統に忠実な自動カント倫理の実装を提示します。
私は、Dyadic Deontic Logic におけるカントの圏論的命令を形式化し、イザベルの定理証明器でこの形式化を実装し、私の実装がカント倫理の期待された性質とどのように協調するかを評価するためのテストフレームワークを開発する。
私のシステムは、哲学的に成熟した倫理的AIエージェントへの初期のステップであり、哲学文学に根ざしているため、複雑な倫理的ジレンマにおいてニュアンスな判断を下すことができる。
論文 参考訳(メタデータ) (2022-07-20T19:09:15Z) - Ethics in AI through the Practitioner's View: A Grounded Theory
Literature Review [12.941478155592502]
近年、AI開発における倫理的問題のプロファイルが高まり、私たちの日常生活におけるAI技術の普及に対する世間の懸念が高まっている。
我々は,AI実践者のAI倫理観を含む,38の初等実証研究の根拠的理論文献レビュー(GTLR)を行った。
我々は,AI倫理の異なる側面を特定し,理解する上で,実践者の視点からAI倫理の分類を提示する。
論文 参考訳(メタデータ) (2022-06-20T00:28:51Z) - AiSocrates: Towards Answering Ethical Quandary Questions [51.53350252548668]
AiSocrates(アイソクラテス)とは、異なる視点を倫理的四項に交換するシステムである。
AiSocratesは、複数の視点で倫理的4つの質問に対する有望な回答を生成する。
我々は,AiSocratesが人的価値を明示的に組み込んだNLPシステムの開発に向けた有望なステップであると主張する。
論文 参考訳(メタデータ) (2022-05-12T09:52:59Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Aligning AI With Shared Human Values [85.2824609130584]
私たちは、正義、幸福、義務、美徳、常識道徳の概念にまたがる新しいベンチマークであるETHICSデータセットを紹介します。
現在の言語モデルは、基本的な人間の倫理的判断を予測できる有望だが不完全な能力を持っている。
私たちの研究は、今日の機械倫理の進歩を示しており、人間の価値観に合わせたAIへの足掛かりを提供する。
論文 参考訳(メタデータ) (2020-08-05T17:59:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。