論文の概要: The Knowledge-Behaviour Disconnect in LLM-based Chatbots
- arxiv url: http://arxiv.org/abs/2509.20004v1
- Date: Wed, 24 Sep 2025 11:24:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-25 20:53:19.791188
- Title: The Knowledge-Behaviour Disconnect in LLM-based Chatbots
- Title(参考訳): LLM型チャットボットにおける知識・行動の切り離し
- Authors: Jan Broersen,
- Abstract要約: 大規模言語モデルに基づく人工会話エージェント(ChatGPTなど)は、あらゆる種類の質問に答える。
しかし、これらのモデルは、自身の会話行動の基礎として、この知識を使用しますか?
「これはそうではないと私は主張するが、私はこの失敗を断絶と呼ぶ。」
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Large language model-based artificial conversational agents (like ChatGPT) give answers to all kinds of questions, and often enough these answers are correct. Just on the basis of that capacity alone, we may attribute knowledge to them. But do these models use this knowledge as a basis for their own conversational behaviour? I argue this is not the case, and I will refer to this failure as a `disconnect'. I further argue this disconnect is fundamental in the sense that with more data and more training of the LLM on which a conversational chatbot is based, it will not disappear. The reason is, as I will claim, that the core technique used to train LLMs does not allow for the establishment of the connection we are after. The disconnect reflects a fundamental limitation on the capacities of LLMs, and explains the source of hallucinations. I will furthermore consider the ethical version of the disconnect (ethical conversational knowledge not being aligned with ethical conversational behaviour), since in this domain researchers have come up with several additional techniques to influence a chatbot's behaviour. I will discuss how these techniques do nothing to solve the disconnect and can make it worse.
- Abstract(参考訳): 大規模な言語モデルに基づく人工会話エージェント(ChatGPTなど)は、あらゆる種類の質問に答える。
その能力のみに基づいて、私たちは彼らに知識を割り当てるかもしれません。
しかし、これらのモデルは、自身の会話行動の基礎として、この知識を使用しますか?
私はそうではなく、この失敗を'切断'と呼びます。
この切り離しは、会話型チャットボットをベースとするLLMのデータとトレーニングがさらに多くなれば、消えることはない、という意味でも基本的なものだ、と私は主張する。
なぜなら、LLMのトレーニングに使用されるコア技術は、私たちが追っているコネクションの確立を許さないからです。
切断はLLMの容量の基本的な制限を反映し、幻覚の源を説明する。
さらに、この領域の研究者はチャットボットの行動に影響を与えるいくつかの追加のテクニックを考え出したので、切断の倫理的バージョン(倫理的会話的知識は倫理的会話的行動と一致しない)についても検討する。
これらのテクニックがいかにして切断を解決するために何もしないか、さらに悪化させるかについて議論します。
関連論文リスト
- Ask ChatGPT: Caveats and Mitigations for Individual Users of AI Chatbots [10.977907906989342]
ChatGPTや他のLLM(Large Language Model)ベースのAIチャットボットは、個人の日常生活にますます統合される。
これらのシステムが個々のユーザーにどのような懸念とリスクをもたらすのか?
それらが引き起こす可能性のある潜在的な害は、どのように軽減されるのか?
論文 参考訳(メタデータ) (2025-08-14T01:40:13Z) - Out-of-Context Abduction: LLMs Make Inferences About Procedural Data Leveraging Declarative Facts in Earlier Training Data [1.5361702135159845]
大規模言語モデル(LLM)は大規模コーパスで訓練されているが、トレーニングデータに含まれる情報について推論できるかどうかは不明である。
本研究は,LLMにおける文脈外推論(out-of-context abduction)について検討した。
この結果は,LLMの状況認識や,AIの安全性に影響を及ぼす。
論文 参考訳(メタデータ) (2025-08-01T16:12:23Z) - Going Whole Hog: A Philosophical Defense of AI Cognition [0.0]
我々は、AI哲学における一般的な方法論に反対し、低レベルの計算の詳細に基づく開始点を拒絶する。
認知状態の全スイートについて論じるために,我々は「ホリスティック・ネットワーク・アセスメント」を採用している。
我々は、人間の概念的スキームを超えた「アリアン」コンテンツを有するLLMの可能性について推測することで結論付ける。
論文 参考訳(メタデータ) (2025-04-18T11:36:25Z) - Reliable Conversational Agents under ASP Control that Understand Natural Language [0.17094064195431144]
大きな言語モデル(LLM)は、機械との人間的な会話を可能にする。
この問題を解消する最善の方法は、文章を知識に翻訳するためにのみLLMを使用することである、と私たちは信じています。
LLMとASPをベースにしたフレームワークを開発しており、人間の会話を"理解"する信頼できるチャットボットを実現しています。
論文 参考訳(メタデータ) (2025-02-13T11:54:28Z) - LLMs' Reading Comprehension Is Affected by Parametric Knowledge and Struggles with Hypothetical Statements [59.71218039095155]
言語モデルの自然言語理解(NLU)能力を評価するための主要な手段として、読解理解(RC)があげられる。
文脈がモデルの内部知識と一致している場合、モデルの回答がコンテキスト理解に由来するのか、あるいは内部情報から生じるのかを識別することは困難である。
この問題に対処するために、架空の事実や実体に基づいて、想像上のデータにRCを使うことを提案する。
論文 参考訳(メタデータ) (2024-04-09T13:08:56Z) - CLadder: Assessing Causal Reasoning in Language Models [82.8719238178569]
我々は,大言語モデル (LLM) が因果関係をコヒーレントに説明できるかどうかを検討する。
ユデア・パールらによって仮定された「因果推論エンジン」にインスパイアされた、自然言語における因果推論という新たなNLPタスクを提案する。
論文 参考訳(メタデータ) (2023-12-07T15:12:12Z) - ChatCoT: Tool-Augmented Chain-of-Thought Reasoning on Chat-based Large
Language Models [125.7209927536255]
チャットベースのLLMのためのツール拡張チェーン推論フレームワークChatCoTを提案する。
ChatCoTでは、チャットを通じてより自然な方法でツールを活用するために、マルチターン会話として思考の連鎖(CoT)推論をモデル化します。
提案手法は,チャットベースのLLMのマルチターン会話能力を効果的に活用し,思考連鎖とツール操作を統一的に統合する。
論文 参考訳(メタデータ) (2023-05-23T17:54:33Z) - WikiChat: Stopping the Hallucination of Large Language Model Chatbots by
Few-Shot Grounding on Wikipedia [3.5267593397833883]
本稿では、ほとんど幻覚を起こさず、会話性が高く、レイテンシも低いLLMベースのチャットボットを初めて紹介する。
WikiChatは英語のウィキペディアをベースとしている。
シミュレーション会話において,最良システムは97.3%の事実精度を達成できることを示す。
論文 参考訳(メタデータ) (2023-05-23T17:37:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。