論文の概要: On the Variational Costs of Changing Our Minds
- arxiv url: http://arxiv.org/abs/2509.17957v1
- Date: Mon, 22 Sep 2025 16:13:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:16.491053
- Title: On the Variational Costs of Changing Our Minds
- Title(参考訳): 心を変えるための変動コストについて
- Authors: David Hyland, Mahault Albarracin,
- Abstract要約: 本稿では,実践的・認知的コストが信念の更新メカニズムに与える影響をモデル化するフォーマルな枠組みを提案する。
このような「ビアーゼ」は本質的に認知上の欠陥ではなく、自分の信念を改定することに伴う実践的・認知的コストに対する適応的な反応である、と我々は主張する。
- 参考スコア(独自算出の注目度): 1.2617078020344616
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The human mind is capable of extraordinary achievements, yet it often appears to work against itself. It actively defends its cherished beliefs even in the face of contradictory evidence, conveniently interprets information to conform to desired narratives, and selectively searches for or avoids information to suit its various purposes. Despite these behaviours deviating from common normative standards for belief updating, we argue that such 'biases' are not inherently cognitive flaws, but rather an adaptive response to the significant pragmatic and cognitive costs associated with revising one's beliefs. This paper introduces a formal framework that aims to model the influence of these costs on our belief updating mechanisms. We treat belief updating as a motivated variational decision, where agents weigh the perceived 'utility' of a belief against the informational cost required to adopt a new belief state, quantified by the Kullback-Leibler divergence from the prior to the variational posterior. We perform computational experiments to demonstrate that simple instantiations of this resource-rational model can be used to qualitatively emulate commonplace human behaviours, including confirmation bias and attitude polarisation. In doing so, we suggest that this framework makes steps toward a more holistic account of the motivated Bayesian mechanics of belief change and provides practical insights for predicting, compensating for, and correcting deviations from desired belief updating processes.
- Abstract(参考訳): 人間の心は並外れた偉業を成し遂げる能力があるが、しばしばそれに対して働くように見える。
矛盾する証拠に直面するにもかかわらず、その有望な信念を積極的に擁護し、望まれる物語に適合する情報を便宜的に解釈し、その様々な目的に適合する情報を選択的に探したり避けたりする。
これらの行動は、信念更新のための一般的な規範的基準から逸脱するが、そのような「バイアス」は本質的に認知上の欠陥ではなく、信念を改訂することに関連する顕著な実用的・認知的コストに対する適応的な応答であると主張する。
本稿では,これらのコストが信条更新機構に与える影響をモデル化する形式的枠組みを提案する。
我々は、信念更新を動機づけた変分決定として扱い、エージェントは、新しい信念状態を採用するために必要な情報コストに対する信念の「効用」を、変動後からクルバック・リーブラー分岐によって定量化する。
我々は,このリソース・リレーショナル・モデルの簡易なインスタンス化が,確認バイアスや姿勢偏光を含む一般的な人間の行動の質的エミュレートに有効であることを示すために,計算実験を行った。
そこで我々は,この枠組みが,信念変化の動機付けられたベイズ力学のより包括的な説明に向けて進むことを示唆し,望まれる信念更新プロセスからの逸脱を予測,補正,修正するための実践的な洞察を提供する。
関連論文リスト
- How Do People Revise Inconsistent Beliefs? Examining Belief Revision in Humans with User Studies [8.208446026336407]
我々は、古典的信念変化理論よりも説明に基づく改訂を一貫して好んでいることを示す。
これらの発見は、人間の推論をモデル化したり、人間と対話するように設計されたAIシステムに影響を及ぼす。
論文 参考訳(メタデータ) (2025-06-11T17:52:33Z) - On Definite Iterated Belief Revision with Belief Algebras [19.073043690553867]
優先関係を通じて信条情報を特徴付けることにより、反復的信条修正のための新しい枠組みを提案する。
我々は,現在の信条と新たな証拠から,改定結果が一意に決定されていることを証明した。
このアプローチは、現実のアプリケーションに適した、より予測可能で原則化された信念の修正方法を提供するかもしれない、と我々は主張する。
論文 参考訳(メタデータ) (2025-05-10T04:34:43Z) - Isopignistic Canonical Decomposition via Belief Evolution Network [12.459136964317942]
本稿では,信念進化ネットワークに基づく同義変換を提案する。
この分解は、可能性分布とその同型質量関数の間の逆経路を与える。
本稿では,確率論,デンプスター・シェーファー理論,可能性理論に基づく人工知能の一般モデル構築のための理論的基盤を確立する。
論文 参考訳(メタデータ) (2024-05-04T12:39:15Z) - Decoding Susceptibility: Modeling Misbelief to Misinformation Through a Computational Approach [61.04606493712002]
誤報に対する感受性は、観測不可能な不検証の主張に対する信念の度合いを記述している。
既存の感受性研究は、自己報告された信念に大きく依存している。
本稿では,ユーザの潜在感受性レベルをモデル化するための計算手法を提案する。
論文 参考訳(メタデータ) (2023-11-16T07:22:56Z) - Crystal: Introspective Reasoners Reinforced with Self-Feedback [118.53428015478957]
本稿では,イントロスペクティブ・コモンセンス推論器であるCrystalを開発するための新しい手法を提案する。
コモンセンス問題に対処するため、まず与えられた質問に関連する知識ステートメントのイントロスペクションを行い、その後、それまでのイントロスペクションされた知識に根ざした情報予測を行う。
実験により、クリスタルは標準的な微調整法と連鎖蒸留法の両方で著しく優れており、コモンセンス推論プロセスの透明性を高めていることが示された。
論文 参考訳(メタデータ) (2023-10-07T21:23:58Z) - Leveraging Contextual Counterfactuals Toward Belief Calibration [1.418033127602866]
メタアライメント問題は、人間の信念が多様であり、集団間で一致していないことです。
後悔の多い状況では、意思決定者の信念やそのような信念が保持される強みを更新する上で、文脈的反事実やレコメンデーションコストが重要であることが観察される。
我々は,この信念の多様性を文脈駆動の反実的推論でより均一に校正するために,信念の校正サイクルの枠組みを導入する。
論文 参考訳(メタデータ) (2023-07-13T01:22:18Z) - Advancing Counterfactual Inference through Nonlinear Quantile Regression [77.28323341329461]
ニューラルネットワークで実装された効率的かつ効果的な対実的推論のためのフレームワークを提案する。
提案手法は、推定された反事実結果から見つからないデータまでを一般化する能力を高める。
複数のデータセットで実施した実証実験の結果は、我々の理論的な主張に対する説得力のある支持を提供する。
論文 参考訳(メタデータ) (2023-06-09T08:30:51Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - Empirical Estimates on Hand Manipulation are Recoverable: A Step Towards
Individualized and Explainable Robotic Support in Everyday Activities [80.37857025201036]
ロボットシステムの鍵となる課題は、他のエージェントの振る舞いを理解することである。
正しい推論の処理は、(衝突)因子が実験的に制御されない場合、特に困難である。
人に関する観察研究を行うために必要なツールをロボットに装備することを提案する。
論文 参考訳(メタデータ) (2022-01-27T22:15:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。