論文の概要: Have a break from making decisions, have a MARS: The Multi-valued Action
Reasoning System
- arxiv url: http://arxiv.org/abs/2109.03283v1
- Date: Tue, 7 Sep 2021 18:44:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-09 13:35:35.752978
- Title: Have a break from making decisions, have a MARS: The Multi-valued Action
Reasoning System
- Title(参考訳): 意思決定を中断し、MARSをとる:多値アクション推論システム
- Authors: Cosmin Badea
- Abstract要約: 多値行動推論システム(Multi-valued Action Reasoning System、MARS)は、AIのための価値に基づく倫理的意思決定モデルである。
利用可能な行動のセットと根底にある道徳的パラダイムが与えられた場合、MARSを使用することで、倫理的に好まれる行動を特定することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Multi-valued Action Reasoning System (MARS) is an automated value-based
ethical decision-making model for artificial agents (AI). Given a set of
available actions and an underlying moral paradigm, by employing MARS one can
identify the ethically preferred action. It can be used to implement and model
different ethical theories, different moral paradigms, as well as combinations
of such, in the context of automated practical reasoning and normative decision
analysis. It can also be used to model moral dilemmas and discover the moral
paradigms that result in the desired outcomes therein. In this paper, we give a
condensed description of MARS, explain its uses, and comparatively place it in
the existing literature.
- Abstract(参考訳): 多値行動推論システム(英: Multi-valued Action Reasoning System、MARS)は、AIのための価値に基づく倫理的意思決定モデルである。
利用可能な一連の行動と基礎となる道徳的パラダイムが与えられると、火星を採用することで倫理的に望ましい行動を特定することができる。
異なる倫理理論、異なる道徳パラダイム、そしてそのような組み合わせを、自動化された実践的推論と規範的決定分析の文脈で実装しモデル化するのに使うことができる。
道徳的ジレンマをモデル化し、望まれる結果をもたらす道徳的パラダイムを発見するためにも使用できる。
本稿では,MARSの凝縮した説明を行い,その使用法を説明し,既存の文献に比較検討する。
関連論文リスト
- Exploring and steering the moral compass of Large Language Models [55.2480439325792]
大規模言語モデル(LLM)は、様々な分野における自動化と意思決定の推進の中心となっている。
本研究は,その道徳的特徴を評価するために,最も先進的なLCMの総合的比較分析を提案する。
論文 参考訳(メタデータ) (2024-05-27T16:49:22Z) - Learning Machine Morality through Experience and Interaction [3.7414804164475983]
次世代人工知能(AI)システムの安全性確保への関心が高まっているため、自律エージェントに道徳を埋め込む新しいアプローチが求められている。
我々は、適応可能で堅牢だが、より制御可能で解釈可能なエージェントを作成するために、よりハイブリッドなソリューションが必要であると論じている。
論文 参考訳(メタデータ) (2023-12-04T11:46:34Z) - Rethinking Machine Ethics -- Can LLMs Perform Moral Reasoning through the Lens of Moral Theories? [78.3738172874685]
倫理的AIシステムの開発には倫理的判断が不可欠である。
一般的なアプローチは主にボトムアップ方式で実装されており、モラルに関するクラウドソースの意見に基づいて、大量の注釈付きデータを使用してモデルをトレーニングする。
本研究は、学際的な研究から確立された道徳理論を用いて道徳的推論を行うために、言語モデル(LM)を操る柔軟なトップダウンフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-29T15:57:32Z) - Uncertain Machine Ethical Decisions Using Hypothetical Retrospection [8.064201367978066]
本稿では,Sven Ove Hansson が開発した仮説的ふりかえり議論手法を提案する。
アクションは潜在的な結果の分岐セットで表現され、それぞれが状態、ユーティリティを持ち、数値または詩的な確率の推定値を持つ。
機械倫理システムの様々な要件を満たすような予備的な枠組みを導入する。
論文 参考訳(メタデータ) (2023-05-02T13:54:04Z) - Do the Rewards Justify the Means? Measuring Trade-Offs Between Rewards
and Ethical Behavior in the MACHIAVELLI Benchmark [61.43264961005614]
我々は、50万以上のリッチで多様なシナリオを含む134個のChoose-Your-Own-Adventureゲームのベンチマークを開発する。
我々は、エージェントの傾向をパワー・シーキングと評価し、不使用を生じさせ、倫理的違反を犯す。
以上の結果から,エージェントは有能かつ道徳的に行動できることが示唆された。
論文 参考訳(メタデータ) (2023-04-06T17:59:03Z) - Modeling Moral Choices in Social Dilemmas with Multi-Agent Reinforcement
Learning [4.2050490361120465]
ボトムアップ学習アプローチは、AIエージェントの倫理的行動の研究と開発にもっと適しているかもしれない。
本稿では,道徳理論に基づく報酬を内在的に動機づけたRLエージェントによる選択の体系的分析を行う。
我々は、異なる種類の道徳が協力、欠陥、搾取の出現に与える影響を分析する。
論文 参考訳(メタデータ) (2023-01-20T09:36:42Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - Learning from Learning Machines: Optimisation, Rules, and Social Norms [91.3755431537592]
経済的な実体の行動に最も類似したAIの領域は道徳的に良い意思決定の領域であるようだ。
近年のAIにおけるディープラーニングの成功は、そのような問題を解決するための明示的な仕様よりも暗黙的な仕様の方が優れていることを示唆している。
論文 参考訳(メタデータ) (2019-12-29T17:42:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。