論文の概要: Ethics of Technology needs more Political Philosophy
- arxiv url: http://arxiv.org/abs/2001.03511v1
- Date: Fri, 10 Jan 2020 15:27:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-08 07:19:37.083258
- Title: Ethics of Technology needs more Political Philosophy
- Title(参考訳): 技術倫理はもっと政治哲学を必要とする
- Authors: Johannes Himmelreich
- Abstract要約: 自動運転車の倫理に関する議論は、一般的に倫理的問題に答える2つのアプローチ(道徳哲学と社会科学)に焦点を当てている。
政治哲学は、合理的な多元主義、人的エージェンシー、正当性という3つの基本的な懸念を我々の概念ツールキットに追加する。
これら3つの懸念は、自動運転車の倫理に関する議論でほとんど見過ごされてきた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The ongoing debate on the ethics of self-driving cars typically focuses on
two approaches to answering ethical questions: moral philosophy and social
science. I argue that these two approaches are both lacking. We should neither
deduce answers from individual moral theories nor should we expect social
science to give us complete answers. To supplement these approaches, we should
turn to political philosophy. The issues we face are collective decisions that
we make together rather than individual decisions we make in light of what we
each have reason to value. Political philosophy adds three basic concerns to
our conceptual toolkit: reasonable pluralism, human agency, and legitimacy.
These three concerns have so far been largely overlooked in the debate on the
ethics of self-driving cars.
- Abstract(参考訳): 自動運転車の倫理に関する議論は、一般的に倫理的問題に答える2つのアプローチ(道徳哲学と社会科学)に焦点を当てている。
この2つのアプローチはどちらも欠落していると私は主張する。
個人の道徳理論から答えを導き出すべきではないし、社会科学に完全な答えを期待すべきでもない。
これらのアプローチを補完するためには、政治哲学に目を向けるべきである。
私たちが直面する問題は、自分たちが価値を持つ理由を考慮に入れた個々の決定ではなく、一緒に行う集合的な決定です。
政治哲学は、合理的な多元主義、人的エージェンシー、正当性という3つの基本的な懸念を我々の概念ツールキットに追加する。
これら3つの懸念は、自動運転車の倫理に関する議論で見過ごされてきた。
関連論文リスト
- Quelle {é}thique pour quelle IA ? [0.0]
本研究では,AIの倫理にかかわる様々な倫理的アプローチについて分析する。
著者は、倫理の現代的必要性と意味について紹介し、他の規範の登録簿と区別し、形式化への不適切さを根拠にしている。
この研究は、文脈倫理の実践的な実践に基づくAIの人間の倫理が、人間にとって生じる倫理的問題の形式化や自動的な処理に必要であり、不必要である理由を考察して結論付けている。
論文 参考訳(メタデータ) (2024-05-21T08:13:02Z) - Beyond Personhood: Agency, Accountability, and the Limits of Anthropomorphic Ethical Analysis [0.0]
私たちは、それが(倫理的な)エージェントであることの意味について、2つの競合するビジョンを与えます。
倫理的に重要な行動の文脈では、AIはエージェントではなく、政治プロセスの結果と見なされるべきである。
論文 参考訳(メタデータ) (2024-04-22T04:19:24Z) - What do we teach to engineering students: embedded ethics, morality, and
politics [0.0]
工学カリキュラムに倫理モジュールを統合するためのフレームワークを提案する。
我々のフレームワークは、倫理モジュールを3次元に解析的に分解する。
これは分析的明確性、すなわち、コースインストラクターが倫理的ジレンマを道徳的または政治的領域で見つけることを可能にする。
論文 参考訳(メタデータ) (2024-02-05T09:37:52Z) - If our aim is to build morality into an artificial agent, how might we
begin to go about doing so? [0.0]
我々は、最も関連する道徳的パラダイムや課題を含む道徳的エージェントを構築する際に考慮すべきさまざまな側面について議論する。
デザインへのハイブリッドアプローチと、モラルパラダイムを組み合わせる階層的アプローチを含むソリューションを提案する。
論文 参考訳(メタデータ) (2023-10-12T12:56:12Z) - Rethinking Machine Ethics -- Can LLMs Perform Moral Reasoning through the Lens of Moral Theories? [78.3738172874685]
倫理的AIシステムの開発には倫理的判断が不可欠である。
一般的なアプローチは主にボトムアップ方式で実装されており、モラルに関するクラウドソースの意見に基づいて、大量の注釈付きデータを使用してモデルをトレーニングする。
本研究は、学際的な研究から確立された道徳理論を用いて道徳的推論を行うために、言語モデル(LM)を操る柔軟なトップダウンフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-29T15:57:32Z) - Ethical Frameworks and Computer Security Trolley Problems: Foundations
for Conversations [14.120888473204907]
コンピュータセキュリティ研究における道徳的問題と倫理的/道徳哲学の関連性について検討する。
道徳的に正しいものや間違っているものを定義したり、別のフレームワークについて議論したりしません。
論文 参考訳(メタデータ) (2023-02-28T05:39:17Z) - ClarifyDelphi: Reinforced Clarification Questions with Defeasibility
Rewards for Social and Moral Situations [81.70195684646681]
本稿では,ClarifyDelphiという対話型システムについて紹介する。
我々は、潜在的な答えが道徳的判断の多様化に繋がる質問が最も有益であると仮定する。
私たちの研究は究極的には、道徳的認知の柔軟性を研究してきた認知科学の研究にインスピレーションを受けています。
論文 参考訳(メタデータ) (2022-12-20T16:33:09Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z) - AiSocrates: Towards Answering Ethical Quandary Questions [51.53350252548668]
AiSocrates(アイソクラテス)とは、異なる視点を倫理的四項に交換するシステムである。
AiSocratesは、複数の視点で倫理的4つの質問に対する有望な回答を生成する。
我々は,AiSocratesが人的価値を明示的に組み込んだNLPシステムの開発に向けた有望なステップであると主張する。
論文 参考訳(メタデータ) (2022-05-12T09:52:59Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - Aligning AI With Shared Human Values [85.2824609130584]
私たちは、正義、幸福、義務、美徳、常識道徳の概念にまたがる新しいベンチマークであるETHICSデータセットを紹介します。
現在の言語モデルは、基本的な人間の倫理的判断を予測できる有望だが不完全な能力を持っている。
私たちの研究は、今日の機械倫理の進歩を示しており、人間の価値観に合わせたAIへの足掛かりを提供する。
論文 参考訳(メタデータ) (2020-08-05T17:59:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。