論文の概要: Free Will Belief as a consequence of Model-based Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2111.08435v1
- Date: Sun, 14 Nov 2021 14:03:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-18 08:13:55.548131
- Title: Free Will Belief as a consequence of Model-based Reinforcement Learning
- Title(参考訳): モデルに基づく強化学習による自由意志の信念
- Authors: Erik M. Rehn
- Abstract要約: 本稿では,RLエージェントの正規化行動値の情報エントロピーと,人々の自由に対する常識的理解が密接に関連していることを示す。
人間の学習のモデルとしてRLフレームワークを適用することで、効率よく学習し、インテリジェントになるためには、自由意志を持つかのように自分自身を見極める必要があることが明らかになる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The debate on whether or not humans have free will has been raging for
centuries. Although there are good arguments based on our current understanding
of the laws of nature for the view that it is not possible for humans to have
free will, most people believe they do. This discrepancy begs for an
explanation. If we accept that we do not have free will, we are faced with two
problems: (1) while freedom is a very commonly used concept that everyone
intuitively understands, what are we actually referring to when we say that an
action or choice is "free" or not? And, (2) why is the belief in free will so
common? Where does this belief come from, and what is its purpose, if any? In
this paper, we examine these questions from the perspective of reinforcement
learning (RL). RL is a framework originally developed for training artificial
intelligence agents. However, it can also be used as a computational model of
human decision making and learning, and by doing so, we propose that the first
problem can be answered by observing that people's common sense understanding
of freedom is closely related to the information entropy of an RL agent's
normalized action values, while the second can be explained by the necessity
for agents to model themselves as if they could have taken decisions other than
those they actually took, when dealing with the temporal credit assignment
problem. Put simply, we suggest that by applying the RL framework as a model
for human learning it becomes evident that in order for us to learn efficiently
and be intelligent we need to view ourselves as if we have free will.
- Abstract(参考訳): 人間に自由意志があるかどうかという議論は、何世紀も続いている。
人間が自由意志を持つことは不可能であるという観点から、自然の法則に対する我々の現在の理解に基づく良い議論があるが、ほとんどの人はそう信じている。
この矛盾は説明を求めます。
もし私たちが自由意志を持っていないと認めるなら、我々は2つの問題に直面している:(1)自由は直感的に誰もが理解できる非常によく使われる概念であるが、アクションや選択が「自由」であると言うとき、実際に何を参照しているのか?
そして(2)自由という信念はなぜそんなに一般的なのか?
この信念はどこから来るのか、その目的は何なのか。
本稿では,これらの課題を強化学習(RL)の観点から検討する。
RLはもともと人工知能エージェントの訓練用に開発されたフレームワークである。
However, it can also be used as a computational model of human decision making and learning, and by doing so, we propose that the first problem can be answered by observing that people's common sense understanding of freedom is closely related to the information entropy of an RL agent's normalized action values, while the second can be explained by the necessity for agents to model themselves as if they could have taken decisions other than those they actually took, when dealing with the temporal credit assignment problem.
簡単に言えば、人間の学習のモデルとしてRLフレームワークを適用することで、効率よく学習し、インテリジェントになるためには、自由意志を持つかのように自分自身を見極める必要があることが明らかになります。
関連論文リスト
- Why should we ever automate moral decision making? [30.428729272730727]
AIが重大な道徳的意味を持つ決定に関与している場合、懸念が生じる。
道徳的推論は広く受け入れられている枠組みを欠いている。
もう一つのアプローチは、人間の道徳的決定からAIを学ぶことである。
論文 参考訳(メタデータ) (2024-07-10T13:59:22Z) - UnUnlearning: Unlearning is not sufficient for content regulation in advanced generative AI [50.61495097098296]
大規模言語モデル(LLM)におけるアンラーニングのパラダイムを再考する。
未学習の概念を導入し、未学習の知識を文脈内で再導入する。
我々は、不寛容な知識に対するコンテンツフィルタリングが不可欠であり、正確な未学習スキームでさえ、効果的なコンテンツ規制には不十分であると主張している。
論文 参考訳(メタデータ) (2024-06-27T10:24:35Z) - Large Language Models Assume People are More Rational than We Really are [10.857040292234984]
AIが人と効果的にコミュニケーションするためには、意思決定の仕方を理解する必要があります。
以前の実証的な証拠は、これらの暗黙のモデルが正確であることを示唆しているようである。
人々の選択をシミュレートし、予測する場合は、実際にはそうではありません。
論文 参考訳(メタデータ) (2024-06-24T18:15:27Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z) - Modeling Human Behavior Part I -- Learning and Belief Approaches [0.0]
探索とフィードバックを通じて行動のモデルや方針を学ぶ手法に焦点を当てる。
次世代の自律的適応システムは、主にAIエージェントと人間がチームとして一緒に働く。
論文 参考訳(メタデータ) (2022-05-13T07:33:49Z) - Diagnosing AI Explanation Methods with Folk Concepts of Behavior [70.10183435379162]
我々は「成功」は、その説明がどんな情報を含むかだけでなく、人間の説明者がどのような情報から理解するかにも依存すると考えている。
我々は、人間の説明による社会的帰属の枠組みとして、行動の民意的概念を用いる。
論文 参考訳(メタデータ) (2022-01-27T00:19:41Z) - Observing Interventions: A logic for thinking about experiments [62.997667081978825]
本稿では,実験から学ぶ論理への第一歩について述べる。
我々のアプローチにとって重要なことは、介入の概念が(現実的または仮説的な)実験の形式的表現として使用できるという考えである。
提案された全ての論理系に対して、健全で完全な公理化を提供する。
論文 参考訳(メタデータ) (2021-11-25T09:26:45Z) - Human irrationality: both bad and good for reward inference [3.706222947143855]
この研究は、不合理性が報酬推論に与える影響をよりよく理解することを目的としている。
MDPの言語における不合理性を、ベルマンの最適性方程式を変化させて操作する。
不合理な人間は、正しくモデル化された場合、完全に合理的な人間よりも報酬に関する情報を伝達できることが示される。
論文 参考訳(メタデータ) (2021-11-12T21:44:15Z) - Machine Common Sense [77.34726150561087]
機械の常識は、人工知能(AI)において広範で潜在的に無拘束な問題のままである
本稿では、対人インタラクションのようなドメインに焦点を当てたコモンセンス推論のモデル化の側面について論じる。
論文 参考訳(メタデータ) (2020-06-15T13:59:47Z) - An Information-Theoretic Approach to Personalized Explainable Machine
Learning [92.53970625312665]
本稿では,予測とユーザ知識のための簡易確率モデルを提案する。
説明と予測の間の条件付き相互情報による説明の効果を定量化する。
論文 参考訳(メタデータ) (2020-03-01T13:06:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。