論文の概要: Neural embedding of beliefs reveals the role of relative dissonance in human decision-making
- arxiv url: http://arxiv.org/abs/2408.07237v1
- Date: Tue, 13 Aug 2024 23:58:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-15 14:35:46.748574
- Title: Neural embedding of beliefs reveals the role of relative dissonance in human decision-making
- Title(参考訳): 信念の神経埋め込みは、人間の意思決定における相対的不協和の役割を明らかにする
- Authors: Byunghwee Lee, Rachith Aiyappa, Yong-Yeol Ahn, Haewoon Kwak, Jisun An,
- Abstract要約: 本稿では,オンライン討論プラットフォームから大規模ユーザ参加データを活用することで,数千の信念間のニュアンスな関係を抽出する手法を提案する。
この信念の埋め込み空間は、多様な信念の相互接続性を効果的にカプセル化し、また様々な社会的問題を分極する。
既存の信念と新しい信念との相対的な距離は、認知的不協和の定量的推定に役立てることができる。
- 参考スコア(独自算出の注目度): 6.558951808581431
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Beliefs serve as the foundation for human cognition and decision-making. They guide individuals in deriving meaning from their lives, shaping their behaviors, and forming social connections. Therefore, a model that encapsulates beliefs and their interrelationships is crucial for quantitatively studying the influence of beliefs on our actions. Despite its importance, research on the interplay between human beliefs has often been limited to a small set of beliefs pertaining to specific issues, with a heavy reliance on surveys or experiments. Here, we propose a method for extracting nuanced relations between thousands of beliefs by leveraging large-scale user participation data from an online debate platform and mapping these beliefs to an embedding space using a fine-tuned large language model (LLM). This belief embedding space effectively encapsulates the interconnectedness of diverse beliefs as well as polarization across various social issues. We discover that the positions within this belief space predict new beliefs of individuals. Furthermore, we find that the relative distance between one's existing beliefs and new beliefs can serve as a quantitative estimate of cognitive dissonance, allowing us to predict new beliefs. Our study highlights how modern LLMs, when combined with collective online records of human beliefs, can offer insights into the fundamental principles that govern human belief formation and decision-making processes.
- Abstract(参考訳): 信仰は人間の認知と意思決定の基礎となる。
彼らは個人が自分の人生から意味を導き、行動を作り、社会的つながりを形成するのを導く。
したがって、信仰とその相互関係を包括するモデルは、信仰が行動に与える影響を定量的に研究するために重要である。
その重要性にもかかわらず、人間の信念間の相互作用の研究は、調査や実験に大きく依存しながら、特定の問題に関連する小さな信念に限られることがしばしばある。
本稿では,オンライン討論プラットフォームから大規模ユーザ参加データを活用し,これらの信念を細調整された大言語モデル(LLM)を用いて埋め込み空間にマッピングすることで,数千の信念間のニュアンスな関係を抽出する手法を提案する。
この信念の埋め込み空間は、多様な信念の相互接続性を効果的にカプセル化し、また様々な社会的問題を偏極する。
この信念空間内の位置が、個人の新しい信念を予測することを発見した。
さらに,既存の信念と新しい信念との相対的な距離は,認知的不協和の定量的推定に役立ち,新しい信念を予測できることがわかった。
我々の研究は、現代のLCMが、人間の信念の集合的なオンライン記録と組み合わせることで、人間の信念の形成と意思決定プロセスを支配する基本的な原則に対する洞察を与える方法について強調する。
関連論文リスト
- Belief in the Machine: Investigating Epistemological Blind Spots of Language Models [51.63547465454027]
言語モデル(LM)は、医療、法律、ジャーナリズムといった分野において、信頼できる意思決定に不可欠である。
本研究は,新しいデータセットであるKaBLEを用いて,GPT-4,Claude-3,Llama-3を含む現代のLMの能力を体系的に評価する。
まず、LMは事実シナリオで86%の精度を達成するが、その性能は偽シナリオで著しく低下する。
第二に、特にこれらの信念が事実データと矛盾する場合、LMは個人的信念を認識し、肯定するのに苦労する。
論文 参考訳(メタデータ) (2024-10-28T16:38:20Z) - Learning mental states estimation through self-observation: a developmental synergy between intentions and beliefs representations in a deep-learning model of Theory of Mind [0.35154948148425685]
心の理論(りょうがく、英: Theory of Mind、ToM)とは、信念、意図、精神状態などを他人に関連付ける能力である。
我々は,低レベル精神状態を予測する学習と,高レベル精神状態に寄与する学習との間に発達的な相乗効果を示す。
我々は,人間の社会的認知発達の理解に,我々の計算的アプローチが役立つことを示唆する。
論文 参考訳(メタデータ) (2024-07-25T13:15:25Z) - Belief sharing: a blessing or a curse [3.2614942160776823]
コミュニケーションは、自由エネルギーの最小化エージェント間の信念を共有しているとみなすことができる。
本研究では, 後部信念の否定的共有が, エコー室と自己疑念の否定的社会的ダイナミクスを引き起こすことを実証する。
論文 参考訳(メタデータ) (2024-07-02T17:46:42Z) - Grounding Language about Belief in a Bayesian Theory-of-Mind [5.058204320571824]
我々は、ベイズ理論における信念文の意味論を基礎づけて、答えに向かって一歩進む。
人類が共同で目標、信念、計画の集合をどう推測するかをモデル化することによって、我々の枠組みは信念に対する概念的な役割のセマンティクスを提供する。
我々は、エージェントがドア・アンド・キーズ・グリッドワールドパズルを解くのを見ながら、人間が目標や信念をどう評価するかを研究することで、この枠組みを評価する。
論文 参考訳(メタデータ) (2024-02-16T02:47:09Z) - Decoding Susceptibility: Modeling Misbelief to Misinformation Through a Computational Approach [61.04606493712002]
誤報に対する感受性は、観測不可能な不検証の主張に対する信念の度合いを記述している。
既存の感受性研究は、自己報告された信念に大きく依存している。
本稿では,ユーザの潜在感受性レベルをモデル化するための計算手法を提案する。
論文 参考訳(メタデータ) (2023-11-16T07:22:56Z) - On the steerability of large language models toward data-driven personas [98.9138902560793]
大規模言語モデル(LLM)は、特定のグループや集団の意見が不足している偏りのある応答を生成することが知られている。
本稿では, LLM を用いて特定の視点の制御可能な生成を実現するための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T19:01:13Z) - Leveraging Contextual Counterfactuals Toward Belief Calibration [1.418033127602866]
メタアライメント問題は、人間の信念が多様であり、集団間で一致していないことです。
後悔の多い状況では、意思決定者の信念やそのような信念が保持される強みを更新する上で、文脈的反事実やレコメンデーションコストが重要であることが観察される。
我々は,この信念の多様性を文脈駆動の反実的推論でより均一に校正するために,信念の校正サイクルの枠組みを導入する。
論文 参考訳(メタデータ) (2023-07-13T01:22:18Z) - Causal Deep Learning [77.49632479298745]
因果性は、現実世界の問題を解決する方法を変える可能性がある。
しかし因果関係は、実際にテストできない重要な仮定を必要とすることが多い。
我々は、因果性に関する新しい考え方を提案します。
論文 参考訳(メタデータ) (2023-03-03T19:19:18Z) - Flexible social inference facilitates targeted social learning when
rewards are not observable [58.762004496858836]
グループは、個人が他人の成功から学べるときにより効果的にコーディネートする。
社会的推論能力は、このギャップを埋める助けとなり、個人が他人の基本的な知識に対する信念を更新し、観察可能な行動軌跡から成功することを示唆する。
論文 参考訳(メタデータ) (2022-12-01T21:04:03Z) - Robot Learning Theory of Mind through Self-Observation: Exploiting the
Intentions-Beliefs Synergy [0.0]
心の理論(みんがく、英: Theory of Mind、TOM)は、他のエージェントの信念、意図、精神状態に起因する能力である。
我々は,意図や目標などの低レベル精神状態を予測する学習と,信念などの高レベル精神状態に寄与する学習の相乗効果を示す。
我々は,今後の適応型社会ロボットの設計に,我々のアーキテクチャ的アプローチが関係することを提案する。
論文 参考訳(メタデータ) (2022-10-17T21:12:39Z) - Do Language Models Have Beliefs? Methods for Detecting, Updating, and
Visualizing Model Beliefs [76.6325846350907]
Dennett (1995) は、サーモスタットでさえ、信念は単なる情報状態であり、モチベーションのある状態とは切り離されているという観点から、信念を持っていると論じている。
本稿では,モデルが世界に対する信念をいつ持っているかを検出するためのアプローチについて論じるとともに,モデル信念をより誠実に更新する方法の改善について述べる。
論文 参考訳(メタデータ) (2021-11-26T18:33:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。