論文の概要: Painful intelligence: What AI can tell us about human suffering
- arxiv url: http://arxiv.org/abs/2205.15409v2
- Date: Thu, 5 Sep 2024 07:00:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-07 07:20:22.541047
- Title: Painful intelligence: What AI can tell us about human suffering
- Title(参考訳): ペインフルインテリジェンス:AIが人間の苦しみについて教えてくれるもの
- Authors: Aapo Hyvärinen,
- Abstract要約: この本は、人間の苦しみや精神的苦痛を理解するために、現代の人工知能理論(AI)を使用している。
人間と高度なAIエージェントは、目標達成と報酬を得るために、世界に関する情報を処理する。
- 参考スコア(独自算出の注目度): 8.38645149466758
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This book uses the modern theory of artificial intelligence (AI) to understand human suffering or mental pain. Both humans and sophisticated AI agents process information about the world in order to achieve goals and obtain rewards, which is why AI can be used as a model of the human brain and mind. This book intends to make the theory accessible to a relatively general audience, requiring only some relevant scientific background. The book starts with the assumption that suffering is mainly caused by frustration. Frustration means the failure of an agent (whether AI or human) to achieve a goal or a reward it wanted or expected. Frustration is inevitable because of the overwhelming complexity of the world, limited computational resources, and scarcity of good data. In particular, such limitations imply that an agent acting in the real world must cope with uncontrollability, unpredictability, and uncertainty, which all lead to frustration. Fundamental in such modelling is the idea of learning, or adaptation to the environment. While AI uses machine learning, humans and animals adapt by a combination of evolutionary mechanisms and ordinary learning. Even frustration is fundamentally an error signal that the system uses for learning. This book explores various aspects and limitations of learning algorithms and their implications regarding suffering. At the end of the book, the computational theory is used to derive various interventions or training methods that will reduce suffering in humans. The amount of frustration is expressed by a simple equation which indicates how it can be reduced. The ensuing interventions are very similar to those proposed by Buddhist and Stoic philosophy, and include mindfulness meditation. Therefore, this book can be interpreted as an exposition of a computational theory justifying why such philosophies and meditation reduce human suffering.
- Abstract(参考訳): この本は、人間の苦しみや精神的苦痛を理解するために、現代の人工知能理論(AI)を使用している。
人間と高度なAIエージェントは、目標を達成するために世界に関する情報を処理し、報酬を得る。
この本は、この理論を比較的一般の読者に利用できるようにすることを目的としており、関連する科学的背景だけを必要とする。
この本は、苦痛は主にフラストレーションによって引き起こされるという仮定から始まる。
フラストレーション(フラストレーション)とは、エージェント(AIであれ人間であれ)が目標や期待した報酬を達成するのに失敗したことを指す。
世界の圧倒的な複雑さ、限られた計算資源、良いデータの不足のためにフラストレーションは避けられない。
特に、そのような制限は、現実世界で行動するエージェントが制御不能、予測不能、不確実性に対処しなければならないことを意味する。
このようなモデリングの基本は、学習や環境への適応という考え方である。
AIは機械学習を使用しているが、人間と動物は進化のメカニズムと通常の学習の組み合わせで適応する。
フラストレーションさえも、システムが学習に使用するエラー信号である。
本書は,学習アルゴリズムの様々な側面と限界と,その苦しみに関する意味について考察する。
本書の最後には、計算理論は、人間の苦痛を軽減する様々な介入や訓練方法の導出に使われる。
フラストレーションの量は、どのように減らすことができるかを示す単純な方程式で表される。
その後の介入は、仏教やストア哲学によって提案されたものと非常に似ており、マインドフルネスの想起を含んでいる。
したがって、この本は、なぜそのような哲学や想いが人間の苦しみを和らげるのかを正当化する計算理論の解説と解釈できる。
関連論文リスト
- Explainable Human-AI Interaction: A Planning Perspective [32.477369282996385]
AIシステムは、ループ内の人間に説明可能である必要がある。
我々は、AIエージェントがメンタルモデルを使用して人間の期待に沿うか、あるいは説明的コミュニケーションを通じて期待を変更する方法について論じる。
本書の主な焦点は、協調的なシナリオであるが、同じ精神モデルが難読化や偽造にどのように使用できるかを指摘したい。
論文 参考訳(メタデータ) (2024-05-19T22:22:21Z) - AI for Mathematics: A Cognitive Science Perspective [86.02346372284292]
数学は人間によって開発された最も強力な概念体系の1つである。
AIの急速な進歩、特に大規模言語モデル(LLM)の進歩による推進により、そのようなシステム構築に対する新たな、広範な関心が生まれている。
論文 参考訳(メタデータ) (2023-10-19T02:00:31Z) - A Review on Objective-Driven Artificial Intelligence [0.0]
人間は、コミュニケーションにおける文脈、ニュアンス、微妙な手がかりを理解する能力を持っている。
人間は、世界に関する論理的推論と予測を行うのに役立つ、常識的な知識の広大なリポジトリを持っています。
機械はこの本質的な理解に欠けており、人間が自明に感じる状況を理解するのに苦労することが多い。
論文 参考訳(メタデータ) (2023-08-20T02:07:42Z) - Diagnosing AI Explanation Methods with Folk Concepts of Behavior [70.10183435379162]
我々は「成功」は、その説明がどんな情報を含むかだけでなく、人間の説明者がどのような情報から理解するかにも依存すると考えている。
我々は、人間の説明による社会的帰属の枠組みとして、行動の民意的概念を用いる。
論文 参考訳(メタデータ) (2022-01-27T00:19:41Z) - Inductive Biases for Deep Learning of Higher-Level Cognition [108.89281493851358]
興味深い仮説は、人間と動物の知性はいくつかの原則によって説明できるということである。
この研究は、主に高いレベルとシーケンシャルな意識的処理に関心のある人を中心に、より大きなリストを考察する。
これらの特定の原則を明確にする目的は、人間の能力から恩恵を受けるAIシステムを構築するのに役立つ可能性があることである。
論文 参考訳(メタデータ) (2020-11-30T18:29:25Z) - Machine Common Sense [77.34726150561087]
機械の常識は、人工知能(AI)において広範で潜在的に無拘束な問題のままである
本稿では、対人インタラクションのようなドメインに焦点を当てたコモンセンス推論のモデル化の側面について論じる。
論文 参考訳(メタデータ) (2020-06-15T13:59:47Z) - Who is this Explanation for? Human Intelligence and Knowledge Graphs for
eXplainable AI [0.0]
我々は、eXplainable AIにヒューマンインテリジェンスがもたらす貢献に焦点を当てる。
我々は、知識表現と推論、社会科学、人間計算、人間-機械協調研究とのより優れた相互作用を求めている。
論文 参考訳(メタデータ) (2020-05-27T10:47:15Z) - Dynamic Cognition Applied to Value Learning in Artificial Intelligence [0.0]
この分野の数人の研究者が、堅牢で有益で安全な人工知能の概念を開発しようとしている。
人工知能エージェントが人間の価値観に合わせた価値を持っていることは、最も重要である。
この問題に対する可能なアプローチは、SEDのような理論モデルを使用することである。
論文 参考訳(メタデータ) (2020-05-12T03:58:52Z) - Learning to Complement Humans [67.38348247794949]
オープンワールドにおけるAIに対するビジョンの高まりは、知覚、診断、推論タスクのために人間を補完できるシステムの開発に焦点を当てている。
我々は,人間-機械チームの複合的なパフォーマンスを最適化するために,エンド・ツー・エンドの学習戦略をどのように活用できるかを実証する。
論文 参考訳(メタデータ) (2020-05-01T20:00:23Z) - Dark, Beyond Deep: A Paradigm Shift to Cognitive AI with Humanlike
Common Sense [142.53911271465344]
我々は、次世代のAIは、新しいタスクを解決するために、人間のような「暗黒」の常識を取り入れなければならないと論じている。
我々は、人間のような常識を持つ認知AIの5つの中核領域として、機能、物理学、意図、因果性、実用性(FPICU)を識別する。
論文 参考訳(メタデータ) (2020-04-20T04:07:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。