論文の概要: Painful intelligence: What AI can tell us about human suffering
- arxiv url: http://arxiv.org/abs/2205.15409v1
- Date: Fri, 27 May 2022 07:32:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-01 13:27:08.810556
- Title: Painful intelligence: What AI can tell us about human suffering
- Title(参考訳): ペインフルインテリジェンス:AIが人間の苦しみについて教えてくれるもの
- Authors: Aapo Hyv\"arinen
- Abstract要約: この本は、人間の苦しみや精神的苦痛を理解するために、現代の人工知能理論(AI)を使用している。
人間と高度なAIエージェントは、目標達成と報酬を得るために、世界に関する情報を処理する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This book uses the modern theory of artificial intelligence (AI) to
understand human suffering or mental pain. Both humans and sophisticated AI
agents process information about the world in order to achieve goals and obtain
rewards, which is why AI can be used as a model of the human brain and mind.
This book intends to make the theory accessible to a relatively general
audience, requiring only some relevant scientific background. The book starts
with the assumption that suffering is mainly caused by frustration. Frustration
means the failure of an agent (whether AI or human) to achieve a goal or a
reward it wanted or expected. Frustration is inevitable because of the
overwhelming complexity of the world, limited computational resources, and
scarcity of good data. In particular, such limitations imply that an agent
acting in the real world must cope with uncontrollability, unpredictability,
and uncertainty, which all lead to frustration. Fundamental in such modelling
is the idea of learning, or adaptation to the environment. While AI uses
machine learning, humans and animals adapt by a combination of evolutionary
mechanisms and ordinary learning. Even frustration is fundamentally an error
signal that the system uses for learning. This book explores various aspects
and limitations of learning algorithms and their implications regarding
suffering. At the end of the book, the computational theory is used to derive
various interventions or training methods that will reduce suffering in humans.
The amount of frustration is expressed by a simple equation which indicates how
it can be reduced. The ensuing interventions are very similar to those proposed
by Buddhist and Stoic philosophy, and include mindfulness meditation.
Therefore, this book can be interpreted as an exposition of a computational
theory justifying why such philosophies and meditation reduce human suffering.
- Abstract(参考訳): この本は、人間の苦しみや精神的苦痛を理解するために、現代の人工知能理論(AI)を使用している。
人間と高度なAIエージェントは、目標を達成するために世界に関する情報を処理し、報酬を得る。
この本は、比較的一般の聴衆にこの理論をアクセスしやすくすることを目的としており、関連する科学的背景のみを必要とする。
本書は、苦痛は主にフラストレーションによって引き起こされるという仮定から始まる。
フラストレーション(フラストレーション)とは、エージェント(AIであれ人間であれ)が目標や期待した報酬を達成するのに失敗したことを指す。
世界の圧倒的な複雑さ、限られた計算資源、良いデータの不足のためにフラストレーションは避けられない。
特に、そのような制限は、現実世界で行動するエージェントが制御不能、予測不能、不確実性に対処しなければならないことを意味する。
このようなモデリングの基本は、学習の概念や環境への適応である。
AIは機械学習を使用しているが、人間と動物は進化のメカニズムと通常の学習の組み合わせで適応する。
フラストレーションは基本的にシステムが学習に使用するエラー信号です。
本書は、学習アルゴリズムの様々な側面と限界、および苦痛に関するそれらの影響を探求する。
書籍の最後には、計算理論は、人間の苦痛を減らす様々な介入や訓練方法を導出するために用いられる。
フラストレーションの量は、どのように軽減できるかを示す単純な方程式によって表される。
続く介入は仏教やストア哲学によって提案されたものと非常によく似ており、マインドフルネスの想起を含んでいる。
したがって、この本は、なぜそのような哲学や想いが人間の苦しみを和らげるのかを正当化する計算理論の解説と解釈できる。
関連論文リスト
- Explainable Human-AI Interaction: A Planning Perspective [32.477369282996385]
AIシステムは、ループ内の人間に説明可能である必要がある。
我々は、AIエージェントがメンタルモデルを使用して人間の期待に沿うか、あるいは説明的コミュニケーションを通じて期待を変更する方法について論じる。
本書の主な焦点は、協調的なシナリオであるが、同じ精神モデルが難読化や偽造にどのように使用できるかを指摘したい。
論文 参考訳(メタデータ) (2024-05-19T22:22:21Z) - AI for Mathematics: A Cognitive Science Perspective [86.02346372284292]
数学は人間によって開発された最も強力な概念体系の1つである。
AIの急速な進歩、特に大規模言語モデル(LLM)の進歩による推進により、そのようなシステム構築に対する新たな、広範な関心が生まれている。
論文 参考訳(メタデータ) (2023-10-19T02:00:31Z) - A Review on Objective-Driven Artificial Intelligence [0.0]
人間は、コミュニケーションにおける文脈、ニュアンス、微妙な手がかりを理解する能力を持っている。
人間は、世界に関する論理的推論と予測を行うのに役立つ、常識的な知識の広大なリポジトリを持っています。
機械はこの本質的な理解に欠けており、人間が自明に感じる状況を理解するのに苦労することが多い。
論文 参考訳(メタデータ) (2023-08-20T02:07:42Z) - Diagnosing AI Explanation Methods with Folk Concepts of Behavior [70.10183435379162]
我々は「成功」は、その説明がどんな情報を含むかだけでなく、人間の説明者がどのような情報から理解するかにも依存すると考えている。
我々は、人間の説明による社会的帰属の枠組みとして、行動の民意的概念を用いる。
論文 参考訳(メタデータ) (2022-01-27T00:19:41Z) - Inductive Biases for Deep Learning of Higher-Level Cognition [108.89281493851358]
興味深い仮説は、人間と動物の知性はいくつかの原則によって説明できるということである。
この研究は、主に高いレベルとシーケンシャルな意識的処理に関心のある人を中心に、より大きなリストを考察する。
これらの特定の原則を明確にする目的は、人間の能力から恩恵を受けるAIシステムを構築するのに役立つ可能性があることである。
論文 参考訳(メタデータ) (2020-11-30T18:29:25Z) - Machine Common Sense [77.34726150561087]
機械の常識は、人工知能(AI)において広範で潜在的に無拘束な問題のままである
本稿では、対人インタラクションのようなドメインに焦点を当てたコモンセンス推論のモデル化の側面について論じる。
論文 参考訳(メタデータ) (2020-06-15T13:59:47Z) - Who is this Explanation for? Human Intelligence and Knowledge Graphs for
eXplainable AI [0.0]
我々は、eXplainable AIにヒューマンインテリジェンスがもたらす貢献に焦点を当てる。
我々は、知識表現と推論、社会科学、人間計算、人間-機械協調研究とのより優れた相互作用を求めている。
論文 参考訳(メタデータ) (2020-05-27T10:47:15Z) - Dynamic Cognition Applied to Value Learning in Artificial Intelligence [0.0]
この分野の数人の研究者が、堅牢で有益で安全な人工知能の概念を開発しようとしている。
人工知能エージェントが人間の価値観に合わせた価値を持っていることは、最も重要である。
この問題に対する可能なアプローチは、SEDのような理論モデルを使用することである。
論文 参考訳(メタデータ) (2020-05-12T03:58:52Z) - Learning to Complement Humans [67.38348247794949]
オープンワールドにおけるAIに対するビジョンの高まりは、知覚、診断、推論タスクのために人間を補完できるシステムの開発に焦点を当てている。
我々は,人間-機械チームの複合的なパフォーマンスを最適化するために,エンド・ツー・エンドの学習戦略をどのように活用できるかを実証する。
論文 参考訳(メタデータ) (2020-05-01T20:00:23Z) - Dark, Beyond Deep: A Paradigm Shift to Cognitive AI with Humanlike
Common Sense [142.53911271465344]
我々は、次世代のAIは、新しいタスクを解決するために、人間のような「暗黒」の常識を取り入れなければならないと論じている。
我々は、人間のような常識を持つ認知AIの5つの中核領域として、機能、物理学、意図、因果性、実用性(FPICU)を識別する。
論文 参考訳(メタデータ) (2020-04-20T04:07:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。