論文の概要: Neural embedding of beliefs reveals the role of relative dissonance in human decision-making
- arxiv url: http://arxiv.org/abs/2408.07237v2
- Date: Wed, 12 Mar 2025 19:50:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-14 19:21:33.984882
- Title: Neural embedding of beliefs reveals the role of relative dissonance in human decision-making
- Title(参考訳): 信念の神経埋め込みは、人間の意思決定における相対的不協和の役割を明らかにする
- Authors: Byunghwee Lee, Rachith Aiyappa, Yong-Yeol Ahn, Haewoon Kwak, Jisun An,
- Abstract要約: 我々は,オンラインユーザの議論データと信念を微調整された大言語モデル(LLM)にマッピングすることで,信念の相互作用を研究する。
本研究は,既存の信念と新しい信念との距離に基づいて,個人が認知不協和を推定する方法の新たな信念を予測できることを示す。
- 参考スコア(独自算出の注目度): 6.558951808581431
- License:
- Abstract: Beliefs form the foundation of human cognition and decision-making, guiding our actions and social connections. A model encapsulating beliefs and their interrelationships is crucial for understanding their influence on our actions. However, research on belief interplay has often been limited to beliefs related to specific issues and relied heavily on surveys. We propose a method to study the nuanced interplay between thousands of beliefs by leveraging an online user debate data and mapping beliefs onto a neural embedding space constructed using a fine-tuned large language model (LLM). This belief space captures the interconnectedness and polarization of diverse beliefs across social issues. Our findings show that positions within this belief space predict new beliefs of individuals and estimate cognitive dissonance based on the distance between existing and new beliefs. This study demonstrates how LLMs, combined with collective online records of human beliefs, can offer insights into the fundamental principles that govern human decision-making.
- Abstract(参考訳): 信念は人間の認知と意思決定の基礎を形成し、私たちの行動と社会的つながりを導く。
信念とその相互関係を包括するモデルが、我々の行動に対する彼らの影響を理解するために不可欠である。
しかし、信仰交流の研究は特定の問題に関する信念に限られており、調査に大きく依存している。
本研究では, オンライン利用者の議論データを活用し, 微調整された大言語モデル(LLM)を用いて構築したニューラル埋め込み空間に信念をマッピングすることにより, 何千もの信念間のニュアンスな相互作用を研究する手法を提案する。
この信念空間は、社会問題にまたがる多様な信念の相互接続性と分極を捉えている。
以上の結果から,この信念空間内の位置は個人の新しい信念を予測し,既存の信念と新しい信念との距離に基づいて認知的不協和を推定することがわかった。
この研究は、LCMが人間の信念の集合的なオンライン記録と組み合わさって、人間の意思決定を支配する基本的な原則に対する洞察を与える方法を示す。
関連論文リスト
- Belief in the Machine: Investigating Epistemological Blind Spots of Language Models [51.63547465454027]
言語モデル(LM)は、医療、法律、ジャーナリズムといった分野において、信頼できる意思決定に不可欠である。
本研究は,新しいデータセットであるKaBLEを用いて,GPT-4,Claude-3,Llama-3を含む現代のLMの能力を体系的に評価する。
まず、LMは事実シナリオで86%の精度を達成するが、その性能は偽シナリオで著しく低下する。
第二に、特にこれらの信念が事実データと矛盾する場合、LMは個人的信念を認識し、肯定するのに苦労する。
論文 参考訳(メタデータ) (2024-10-28T16:38:20Z) - Learning mental states estimation through self-observation: a developmental synergy between intentions and beliefs representations in a deep-learning model of Theory of Mind [0.35154948148425685]
心の理論(りょうがく、英: Theory of Mind、ToM)とは、信念、意図、精神状態などを他人に関連付ける能力である。
我々は,低レベル精神状態を予測する学習と,高レベル精神状態に寄与する学習との間に発達的な相乗効果を示す。
我々は,人間の社会的認知発達の理解に,我々の計算的アプローチが役立つことを示唆する。
論文 参考訳(メタデータ) (2024-07-25T13:15:25Z) - Belief sharing: a blessing or a curse [3.2614942160776823]
コミュニケーションは、自由エネルギーの最小化エージェント間の信念を共有しているとみなすことができる。
本研究では, 後部信念の否定的共有が, エコー室と自己疑念の否定的社会的ダイナミクスを引き起こすことを実証する。
論文 参考訳(メタデータ) (2024-07-02T17:46:42Z) - Grounding Language about Belief in a Bayesian Theory-of-Mind [5.058204320571824]
我々は、ベイズ理論における信念文の意味論を基礎づけて、答えに向かって一歩進む。
人類が共同で目標、信念、計画の集合をどう推測するかをモデル化することによって、我々の枠組みは信念に対する概念的な役割のセマンティクスを提供する。
我々は、エージェントがドア・アンド・キーズ・グリッドワールドパズルを解くのを見ながら、人間が目標や信念をどう評価するかを研究することで、この枠組みを評価する。
論文 参考訳(メタデータ) (2024-02-16T02:47:09Z) - Decoding Susceptibility: Modeling Misbelief to Misinformation Through a Computational Approach [61.04606493712002]
誤報に対する感受性は、観測不可能な不検証の主張に対する信念の度合いを記述している。
既存の感受性研究は、自己報告された信念に大きく依存している。
本稿では,ユーザの潜在感受性レベルをモデル化するための計算手法を提案する。
論文 参考訳(メタデータ) (2023-11-16T07:22:56Z) - On the steerability of large language models toward data-driven personas [98.9138902560793]
大規模言語モデル(LLM)は、特定のグループや集団の意見が不足している偏りのある応答を生成することが知られている。
本稿では, LLM を用いて特定の視点の制御可能な生成を実現するための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T19:01:13Z) - Leveraging Contextual Counterfactuals Toward Belief Calibration [1.418033127602866]
メタアライメント問題は、人間の信念が多様であり、集団間で一致していないことです。
後悔の多い状況では、意思決定者の信念やそのような信念が保持される強みを更新する上で、文脈的反事実やレコメンデーションコストが重要であることが観察される。
我々は,この信念の多様性を文脈駆動の反実的推論でより均一に校正するために,信念の校正サイクルの枠組みを導入する。
論文 参考訳(メタデータ) (2023-07-13T01:22:18Z) - Causal Deep Learning [77.49632479298745]
因果性は、現実世界の問題を解決する方法を変える可能性がある。
しかし因果関係は、実際にテストできない重要な仮定を必要とすることが多い。
我々は、因果性に関する新しい考え方を提案します。
論文 参考訳(メタデータ) (2023-03-03T19:19:18Z) - Flexible social inference facilitates targeted social learning when
rewards are not observable [58.762004496858836]
グループは、個人が他人の成功から学べるときにより効果的にコーディネートする。
社会的推論能力は、このギャップを埋める助けとなり、個人が他人の基本的な知識に対する信念を更新し、観察可能な行動軌跡から成功することを示唆する。
論文 参考訳(メタデータ) (2022-12-01T21:04:03Z) - Robot Learning Theory of Mind through Self-Observation: Exploiting the
Intentions-Beliefs Synergy [0.0]
心の理論(みんがく、英: Theory of Mind、TOM)は、他のエージェントの信念、意図、精神状態に起因する能力である。
我々は,意図や目標などの低レベル精神状態を予測する学習と,信念などの高レベル精神状態に寄与する学習の相乗効果を示す。
我々は,今後の適応型社会ロボットの設計に,我々のアーキテクチャ的アプローチが関係することを提案する。
論文 参考訳(メタデータ) (2022-10-17T21:12:39Z) - Do Language Models Have Beliefs? Methods for Detecting, Updating, and
Visualizing Model Beliefs [76.6325846350907]
Dennett (1995) は、サーモスタットでさえ、信念は単なる情報状態であり、モチベーションのある状態とは切り離されているという観点から、信念を持っていると論じている。
本稿では,モデルが世界に対する信念をいつ持っているかを検出するためのアプローチについて論じるとともに,モデル信念をより誠実に更新する方法の改善について述べる。
論文 参考訳(メタデータ) (2021-11-26T18:33:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。