論文の概要: Understanding Epistemic Language with a Bayesian Theory of Mind
- arxiv url: http://arxiv.org/abs/2408.12022v1
- Date: Wed, 21 Aug 2024 22:29:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-23 15:43:40.020047
- Title: Understanding Epistemic Language with a Bayesian Theory of Mind
- Title(参考訳): ベイズ的心の理論によるてんかんの理解
- Authors: Lance Ying, Tan Zhi-Xuan, Lionel Wong, Vikash Mansinghka, Joshua B. Tenenbaum,
- Abstract要約: ベイジアン推論に基づく認識的言語解釈モデルを導入する。
実験では,エージェントが迷路をナビゲートして,目標達成に必要な箱に隠されたキーを見つけ,エージェントの信念を判断する。
- 参考スコア(独自算出の注目度): 47.001163099930494
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: How do people understand and evaluate claims about others' beliefs, even though these beliefs cannot be directly observed? In this paper, we introduce a cognitive model of epistemic language interpretation, grounded in Bayesian inferences about other agents' goals, beliefs, and intentions: a language-augmented Bayesian theory-of-mind (LaBToM). By translating natural language into an epistemic ``language-of-thought'', then evaluating these translations against the inferences produced by inverting a probabilistic generative model of rational action and perception, LaBToM captures graded plausibility judgments about epistemic claims. We validate our model in an experiment where participants watch an agent navigate a maze to find keys hidden in boxes needed to reach their goal, then rate sentences about the agent's beliefs. In contrast with multimodal LLMs (GPT-4o, Gemini Pro) and ablated models, our model correlates highly with human judgments for a wide range of expressions, including modal language, uncertainty expressions, knowledge claims, likelihood comparisons, and attributions of false belief.
- Abstract(参考訳): これらの信念は直接観察できないが、他人の信念に対する主張を理解して評価するにはどうすればよいのか。
本稿では,他のエージェントの目標,信念,意図に関するベイズ的推論を基礎とした,認識論的言語解釈モデルについて紹介する。
自然言語を「考えの言語」に翻訳し、合理的な行動と知覚の確率的生成モデルを逆転させることによって生成された推論に対してこれらの翻訳を評価することで、LaBToMは、認識的主張に関する段階的な可視性判断をキャプチャする。
実験では,エージェントが迷路をナビゲートして,目標達成に必要な箱に隠されたキーを見つけ,エージェントの信念を判断する。
マルチモーダル LLM (GPT-4o, Gemini Pro) や短縮モデルとは対照的に,本モデルは,モーダル言語,不確実性表現,知識主張,可能性比較,偽信念の帰属など,幅広い表現に対する人間の判断と高い相関関係を持つ。
関連論文リスト
- Human-like conceptual representations emerge from language prediction [72.5875173689788]
大型言語モデル(LLM)における人間に似た概念表現の出現について検討した。
その結果、LLMは定義記述から概念を推論し、共有された文脈に依存しない構造に収束する表現空間を構築することができた。
我々の研究は、LLMが複雑な人間の認知を理解するための貴重なツールであり、人工知能と人間の知能の整合性を高めるための道を開くという見解を支持している。
論文 参考訳(メタデータ) (2025-01-21T23:54:17Z) - A Computationally Grounded Framework for Cognitive Attitudes (extended version) [14.866324473006255]
本稿では, エージェントの認知的態度を認知型と動機型の両方で推論するための新しい言語を紹介した。
私たちの言語には、暗黙の信念、完全な魅力、完全な反発、現実的な魅力、現実的な反発のための5種類のモーダル演算子が含まれています。
本稿では,信念変化操作の効果の推論を支援する言語の拡張について述べる。
論文 参考訳(メタデータ) (2024-12-18T17:17:07Z) - Trustworthy Alignment of Retrieval-Augmented Large Language Models via Reinforcement Learning [84.94709351266557]
検索強化に関して,言語モデルの信頼性に焦点をあてる。
検索強化言語モデルには,文脈的知識とパラメトリック的知識の両方に応じて応答を供給できる本質的な能力があると考えられる。
言語モデルと人間の嗜好の整合性に着想を得て,検索強化言語モデルを外部証拠にのみ依存する状況に整合させるための第一歩を踏み出した。
論文 参考訳(メタデータ) (2024-10-22T09:25:21Z) - Perceptions of Linguistic Uncertainty by Language Models and Humans [26.69714008538173]
言語モデルが不確実性の言語表現を数値応答にどうマッピングするかを検討する。
10モデル中7モデルで不確実性表現を確率的応答に人間的な方法でマッピングできることが判明した。
この感度は、言語モデルは以前の知識に基づいてバイアスの影響を受けやすいことを示している。
論文 参考訳(メタデータ) (2024-07-22T17:26:12Z) - What if...?: Thinking Counterfactual Keywords Helps to Mitigate Hallucination in Large Multi-modal Models [50.97705264224828]
大規模マルチモーダルモデルに反現実的思考を組み込む新しい手法である反現実的インセプションを提案する。
我々は、より広い文脈のシーン理解にまたがる応答をモデルが関与し、生成することを目指している。
オープンソースモデルとプロプライエタリモデルの両方を含む様々なLMMの包括的分析は、反事実的思考が幻覚を著しく減少させることを裏付ける。
論文 参考訳(メタデータ) (2024-03-20T11:27:20Z) - Grounding Language about Belief in a Bayesian Theory-of-Mind [5.058204320571824]
我々は、ベイズ理論における信念文の意味論を基礎づけて、答えに向かって一歩進む。
人類が共同で目標、信念、計画の集合をどう推測するかをモデル化することによって、我々の枠組みは信念に対する概念的な役割のセマンティクスを提供する。
我々は、エージェントがドア・アンド・キーズ・グリッドワールドパズルを解くのを見ながら、人間が目標や信念をどう評価するかを研究することで、この枠組みを評価する。
論文 参考訳(メタデータ) (2024-02-16T02:47:09Z) - Interpreting Pretrained Language Models via Concept Bottlenecks [55.47515772358389]
事前訓練された言語モデル(PLM)は、様々な自然言語処理タスクにおいて大きな進歩を遂げてきた。
ブラックボックスの性質による解釈可能性の欠如は、責任ある実装に課題をもたらす。
本研究では,人間にとって理解しやすい高レベルで有意義な概念を用いて,PLMを解釈する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T20:41:18Z) - From Word Models to World Models: Translating from Natural Language to
the Probabilistic Language of Thought [124.40905824051079]
言語インフォームド・シンキングのための計算フレームワークである「構成」を合理的に提案する。
我々は、自然言語から確率論的思考言語への文脈感応的なマッピングとして、言語の意味を定式化する。
LLMは、現実的に適切な言語的意味をキャプチャする文脈依存翻訳を生成することができることを示す。
認知的なモチベーションを持つシンボリックモジュールを統合するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2023-06-22T05:14:00Z) - Language Models are Bounded Pragmatic Speakers: Understanding RLHF from
a Bayesian Cognitive Modeling Perspective [2.8282906214258805]
本稿では,有界プラグマティック話者と呼ばれる確率論的認知モデルを定式化する。
人間のフィードバックからの強化学習によって微調整された大きな言語モデルは、高速でスローなモデルに似た思考モデルを具現化していることを示す。
論文 参考訳(メタデータ) (2023-05-28T16:04:48Z) - Probing Neural Language Models for Human Tacit Assumptions [36.63841251126978]
人間はステレオタイプ的暗黙の仮定(STA)または一般的な概念についての命題的信念を持っている。
大規模テキストコーパスキャプチャSTAで訓練された最近のニューラルネットワーク言語モデルを評価するために,単語予測プロンプトの診断セットを構築した。
論文 参考訳(メタデータ) (2020-04-10T01:48:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。