論文の概要: Undermining Mental Proof: How AI Can Make Cooperation Harder by Making Thinking Easier
- arxiv url: http://arxiv.org/abs/2407.14452v1
- Date: Fri, 19 Jul 2024 16:48:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-22 16:55:32.271384
- Title: Undermining Mental Proof: How AI Can Make Cooperation Harder by Making Thinking Easier
- Title(参考訳): 心の証明を損なう:AIが思考をより簡単にすることで協力を困難にする方法
- Authors: Zachary Wojtowicz, Simon DeDeo,
- Abstract要約: 「心証」とは、観察不可能な心的事実を認定するために観察可能な行動を用いる場合である。
雇用からデートまで、精神的な証明は、人々が自分の心の価値観、意図、知識の状態、その他のプライベートな特徴を確実に伝えることを可能にする。
これらのメカニズムの分析は、人工知能がいつどのように、どのようにして低信頼の協力を困難にできるかを明らかにする。
- 参考スコア(独自算出の注目度): 0.030693357740321774
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models and other highly capable AI systems ease the burdens of deciding what to say or do, but this very ease can undermine the effectiveness of our actions in social contexts. We explain this apparent tension by introducing the integrative theoretical concept of "mental proof," which occurs when observable actions are used to certify unobservable mental facts. From hiring to dating, mental proofs enable people to credibly communicate values, intentions, states of knowledge, and other private features of their minds to one another in low-trust environments where honesty cannot be easily enforced. Drawing on results from economics, theoretical biology, and computer science, we describe the core theoretical mechanisms that enable people to effect mental proofs. An analysis of these mechanisms clarifies when and how artificial intelligence can make low-trust cooperation harder despite making thinking easier.
- Abstract(参考訳): 大規模言語モデルやその他の高度なAIシステムは、何を言うべきかを決めることの負担を軽減しますが、この非常に簡単なことは、社会的文脈における私たちの行動の有効性を損ないます。
観察可能な行動が観察不可能な心的事実の証明に使用される場合に発生する「精神的証明」という統合的理論概念を導入することで、この明らかな緊張を説明できる。
雇用からデートまで、精神的な証明は、誠実さを容易に強制できない低信頼の環境で、人々の心の価値、意図、知識の状態、その他のプライベートな特徴を互いに確実に伝達することを可能にする。
経済学、理論生物学、計算機科学の成果に基づいて、人々は精神的な証明に影響を及ぼすことができる中核的な理論メカニズムについて記述する。
これらのメカニズムの分析は、人工知能がいつどのように、どのようにして低信頼の協力を困難にできるかを明らかにする。
関連論文リスト
- Learning mental states estimation through self-observation: a developmental synergy between intentions and beliefs representations in a deep-learning model of Theory of Mind [0.35154948148425685]
心の理論(りょうがく、英: Theory of Mind、ToM)とは、信念、意図、精神状態などを他人に関連付ける能力である。
我々は,低レベル精神状態を予測する学習と,高レベル精神状態に寄与する学習との間に発達的な相乗効果を示す。
我々は,人間の社会的認知発達の理解に,我々の計算的アプローチが役立つことを示唆する。
論文 参考訳(メタデータ) (2024-07-25T13:15:25Z) - Spontaneous Theory of Mind for Artificial Intelligence [2.7624021966289605]
我々は、AIマインド理論(ToM)の研究・開発における原則的アプローチを論じる。
我々は、強い、あるいは一般のAISが、テキストに反応し、自発的に社会的推論を行うよう提案する。
論文 参考訳(メタデータ) (2024-02-16T22:41:13Z) - On Computational Mechanisms for Shared Intentionality, and Speculation
on Rationality and Consciousness [0.0]
人類の特異な特質は、新しい行動、協調行動、チームワークを行う能力である。
これは、個人の頭脳間で目標、計画、アイデアを伝達し、共通の意図を生み出すことを要求する。
先行言語型計算エージェント間の共有意図性を実現するための基本的なメカニズムの必要な特性を導出する。
論文 参考訳(メタデータ) (2023-06-03T21:31:38Z) - COKE: A Cognitive Knowledge Graph for Machine Theory of Mind [87.14703659509502]
心の理論(りょうせい、英: Theory of Mind)とは、他者の欲求、信念、意図を理解し、推測する人間の能力のこと。
COKEは、心の機械理論のための最初の認知知識グラフである。
論文 参考訳(メタデータ) (2023-05-09T12:36:58Z) - Memory-Augmented Theory of Mind Network [59.9781556714202]
社会的推論は、心の理論(ToM)の能力を必要とする。
ToMに対する最近の機械学習アプローチは、観察者が過去を読み、他のエージェントの振る舞いを提示するように訓練できることを実証している。
我々は,新たなニューラルメモリ機構を組み込んで符号化し,階層的な注意を払って他者に関する情報を選択的に検索することで,課題に対処する。
この結果、ToMMYは心的プロセスについての仮定をほとんど行わずに理性を学ぶマインドモデルである。
論文 参考訳(メタデータ) (2023-01-17T14:48:58Z) - Neural Theory-of-Mind? On the Limits of Social Intelligence in Large LMs [77.88043871260466]
私たちは、今日の最大の言語モデルのひとつに、このようなソーシャルインテリジェンスを最初から欠いていることを示しています。
我々は、人中心のNLPアプローチは、マインドの神経理論に対してより効果的であるかもしれないと結論づける。
論文 参考訳(メタデータ) (2022-10-24T14:58:58Z) - Robot Learning Theory of Mind through Self-Observation: Exploiting the
Intentions-Beliefs Synergy [0.0]
心の理論(みんがく、英: Theory of Mind、TOM)は、他のエージェントの信念、意図、精神状態に起因する能力である。
我々は,意図や目標などの低レベル精神状態を予測する学習と,信念などの高レベル精神状態に寄与する学習の相乗効果を示す。
我々は,今後の適応型社会ロボットの設計に,我々のアーキテクチャ的アプローチが関係することを提案する。
論文 参考訳(メタデータ) (2022-10-17T21:12:39Z) - Resonating Minds -- Emergent Collaboration Through Hierarchical Active
Inference [0.0]
精神状態(意図,目標)のレベルでの自動調整プロセスが,協調的な問題解決につながるかを検討する。
協調エージェント(HAICA)の階層的アクティブ推論モデルを提案する。
本研究では,信念共鳴と能動的推論により,迅速かつ効率的なエージェント協調が可能であり,協調認知エージェントのビルディングブロックとして機能することを示す。
論文 参考訳(メタデータ) (2021-12-02T13:23:44Z) - AGENT: A Benchmark for Core Psychological Reasoning [60.35621718321559]
直観心理学は、観察可能な行動を駆動する隠された精神変数を推論する能力です。
他のエージェントを推論する機械エージェントに対する近年の関心にもかかわらず、そのようなエージェントが人間の推論を駆動するコア心理学の原則を学ぶか保持するかは明らかではない。
本稿では,プロシージャが生成する3dアニメーション,エージェントを4つのシナリオで構成したベンチマークを提案する。
論文 参考訳(メタデータ) (2021-02-24T14:58:23Z) - Inductive Biases for Deep Learning of Higher-Level Cognition [108.89281493851358]
興味深い仮説は、人間と動物の知性はいくつかの原則によって説明できるということである。
この研究は、主に高いレベルとシーケンシャルな意識的処理に関心のある人を中心に、より大きなリストを考察する。
これらの特定の原則を明確にする目的は、人間の能力から恩恵を受けるAIシステムを構築するのに役立つ可能性があることである。
論文 参考訳(メタデータ) (2020-11-30T18:29:25Z) - Emergence of Pragmatics from Referential Game between Theory of Mind
Agents [64.25696237463397]
エージェントが手書きのルールを指定せずに「行間を読む」能力を自発的に学習するアルゴリズムを提案する。
協調型マルチエージェント教育状況における心の理論(ToM)を統合し,適応型強化学習(RL)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-01-21T19:37:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。