論文の概要: Moral Agency in Silico: Exploring Free Will in Large Language Models
- arxiv url: http://arxiv.org/abs/2410.23310v1
- Date: Mon, 28 Oct 2024 20:48:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-01 17:00:51.573111
- Title: Moral Agency in Silico: Exploring Free Will in Large Language Models
- Title(参考訳): サイコのモラルエージェンシー:大規模言語モデルにおける自由意志を探る
- Authors: Morgan S. Porter,
- Abstract要約: 本研究は,モラルエージェンシーの機能能力と適応主義的自由意志を示す決定論的システムの可能性について考察する。
我々は,自由意志の関数的定義をDennettのコンパチビリストフレームワークに基礎を置く。
結果は、道徳的責任に対する意識の必要性に関する伝統的な見解に挑戦する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: This study investigates the potential of deterministic systems, specifically large language models (LLMs), to exhibit the functional capacities of moral agency and compatibilist free will. We develop a functional definition of free will grounded in Dennett's compatibilist framework, building on an interdisciplinary theoretical foundation that integrates Shannon's information theory, Dennett's compatibilism, and Floridi's philosophy of information. This framework emphasizes the importance of reason-responsiveness and value alignment in determining moral responsibility rather than requiring metaphysical libertarian free will. Shannon's theory highlights the role of processing complex information in enabling adaptive decision-making, while Floridi's philosophy reconciles these perspectives by conceptualizing agency as a spectrum, allowing for a graduated view of moral status based on a system's complexity and responsiveness. Our analysis of LLMs' decision-making in moral dilemmas demonstrates their capacity for rational deliberation and their ability to adjust choices in response to new information and identified inconsistencies. Thus, they exhibit features of a moral agency that align with our functional definition of free will. These results challenge traditional views on the necessity of consciousness for moral responsibility, suggesting that systems with self-referential reasoning capacities can instantiate degrees of free will and moral reasoning in artificial and biological contexts. This study proposes a parsimonious framework for understanding free will as a spectrum that spans artificial and biological systems, laying the groundwork for further interdisciplinary research on agency and ethics in the artificial intelligence era.
- Abstract(参考訳): 本研究では,モラルエージェンシーの機能能力と適合性自由意志を示すための決定論的システム,特に大言語モデル(LLM)の可能性について検討する。
我々は、シャノンの情報理論、デネットの情報理論、フロリディの情報哲学を統合する学際的理論基盤を基盤として、デネットのコンパチビリストの枠組みに根ざした自由意志の関数的定義を開発する。
この枠組みは、メタ物理的自由意志よりも道徳的責任を決定する上で、理性応答性と価値整合性の重要性を強調している。
シャノンの理論は、適応的な意思決定を可能にするための複雑な情報を処理する役割を強調する一方で、フロリディの哲学は、エージェンシーをスペクトルとして概念化し、システムの複雑さと応答性に基づいて道徳的地位を段階的に見ることを可能にすることによって、これらの視点を解釈する。
道徳ジレンマにおけるLCMの意思決定に関する我々の分析は、合理的な熟考能力と、新しい情報に反応して選択を調整する能力を示し、矛盾を特定している。
したがって、彼らは我々の機能的自由意志の定義に沿う道徳的な機関の特徴を示す。
これらの結果は、道徳的責任に対する意識の必要性に関する伝統的な見解に挑戦し、自己参照的推論能力を持つシステムは、人工的および生物学的文脈において自由意志と道徳的推論の度合いをインスタンス化することができることを示唆している。
本研究は,人工知能時代の機関と倫理に関するさらなる学際研究の基盤となる,人工的・生物学的システムにまたがるスペクトルとして自由意志を理解するための擬似的な枠組みを提案する。
関連論文リスト
- Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Learning Machine Morality through Experience and Interaction [3.7414804164475983]
次世代人工知能(AI)システムの安全性確保への関心が高まっているため、自律エージェントに道徳を埋め込む新しいアプローチが求められている。
我々は、適応可能で堅牢だが、より制御可能で解釈可能なエージェントを作成するために、よりハイブリッドなソリューションが必要であると論じている。
論文 参考訳(メタデータ) (2023-12-04T11:46:34Z) - Rethinking Machine Ethics -- Can LLMs Perform Moral Reasoning through the Lens of Moral Theories? [78.3738172874685]
倫理的AIシステムの開発には倫理的判断が不可欠である。
一般的なアプローチは主にボトムアップ方式で実装されており、モラルに関するクラウドソースの意見に基づいて、大量の注釈付きデータを使用してモデルをトレーニングする。
本研究は、学際的な研究から確立された道徳理論を用いて道徳的推論を行うために、言語モデル(LM)を操る柔軟なトップダウンフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-29T15:57:32Z) - Modeling Moral Choices in Social Dilemmas with Multi-Agent Reinforcement
Learning [4.2050490361120465]
ボトムアップ学習アプローチは、AIエージェントの倫理的行動の研究と開発にもっと適しているかもしれない。
本稿では,道徳理論に基づく報酬を内在的に動機づけたRLエージェントによる選択の体系的分析を行う。
我々は、異なる種類の道徳が協力、欠陥、搾取の出現に与える影響を分析する。
論文 参考訳(メタデータ) (2023-01-20T09:36:42Z) - Interpreting Neural Policies with Disentangled Tree Representations [58.769048492254555]
本稿では,コンパクトなニューラルポリシーの解釈可能性について,不整合表現レンズを用いて検討する。
決定木を利用して,ロボット学習における絡み合いの要因を抽出する。
学習したニューラルダイナミクスの絡み合いを計測する解釈可能性指標を導入する。
論文 参考訳(メタデータ) (2022-10-13T01:10:41Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z) - Normative Epistemology for Lethal Autonomous Weapons Systems [0.0]
本章では、Lethal Autonomous Weapons Systemsの設計、評価、デプロイメント、イテレーションを導くための高階設計原則について論じる。
疫学モデルは、行動の正当化と知識の帰属における正確さ、可能性、信念、能力、能力、文脈、運の役割を考察する。
論文 参考訳(メタデータ) (2021-10-25T13:13:42Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Reinforcement Learning Under Moral Uncertainty [13.761051314923634]
機械学習の野心的な目標は、倫理的に振る舞うエージェントを作ることだ。
倫理的エージェントは、特定の道徳理論の下で正しい行動に報いることによって訓練することができるが、道徳性の本質について広く意見の相違がある。
本稿では、競合するデシダラタの異なる点を実現するための2つのトレーニング手法を提案し、モラルの不確実性の下で行動するための単純な環境におけるエージェントを訓練する。
論文 参考訳(メタデータ) (2020-06-08T16:40:12Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。