論文の概要: The Thin Line Between Comprehension and Persuasion in LLMs
- arxiv url: http://arxiv.org/abs/2507.01936v1
- Date: Wed, 02 Jul 2025 17:46:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:23:00.431812
- Title: The Thin Line Between Comprehension and Persuasion in LLMs
- Title(参考訳): LLMにおける理解と説得の薄い線
- Authors: Adrian de Wynter, Tangming Yuan,
- Abstract要約: 大規模言語モデル(LLM)は高レベルで説得力のある対話を維持するのに優れている。
私たちは、この能力が話されていることに対する理解にどのように関係しているかを測定します。
LLMは一貫性のある説得力のある議論を維持でき、しばしば参加者や聴衆の信念を揺さぶる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Large language models (LLMs) are excellent at maintaining high-level, convincing dialogues. They are being fast deployed as chatbots and evaluators in sensitive areas, such as peer review and mental health applications. This, along with the disparate accounts on their reasoning capabilities, calls for a closer examination of LLMs and their comprehension of dialogue. In this work we begin by evaluating LLMs' ability to maintain a debate--one of the purest yet most complex forms of human communication. Then we measure how this capability relates to their understanding of what is being talked about, namely, their comprehension of dialogical structures and the pragmatic context. We find that LLMs are capable of maintaining coherent, persuasive debates, often swaying the beliefs of participants and audiences alike. We also note that awareness or suspicion of AI involvement encourage people to be more critical of the arguments made. When polling LLMs on their comprehension of deeper structures of dialogue, however, they cannot demonstrate said understanding. Our findings tie the shortcomings of LLMs-as-evaluators to their (in)ability to understand the context. More broadly, for the field of argumentation theory we posit that, if an agent can convincingly maintain a dialogue, it is not necessary for it to know what it is talking about. Hence, the modelling of pragmatic context and coherence are secondary to effectiveness.
- Abstract(参考訳): 大規模言語モデル(LLM)は高レベルで説得力のある対話を維持するのに優れている。
ピアレビューやメンタルヘルスアプリケーションといったセンシティブな分野で、チャットボットや評価ツールとして素早くデプロイされています。
このことは、彼らの推論能力に関する異なる説明とともに、LSMのより深い検証と対話の理解を要求する。
この研究は、LLMが議論を維持する能力を評価することから始まります。
そして、この能力が、現在話されていること、すなわち、対話構造と実践的文脈の理解にどのように関係しているかを測定する。
LLMは一貫性のある説得力のある議論を維持でき、しばしば参加者や聴衆の信念を揺さぶる。
また、AIの関与に対する意識や疑念は、人々が議論に対してより批判的になるよう促すことにも留意する。
しかし、LLMを対話のより深い構造を理解する上でポーリングする場合は、これらの理解を実証することはできない。
本研究は,LLMの欠点と文脈理解能力との関連性について考察した。
より広義には、議論論の分野において、エージェントが説得力を持って対話を維持することができれば、それが何を言っているのかを知る必要はないと仮定する。
したがって、実用的文脈とコヒーレンスをモデル化することは、有効性に二次的である。
関連論文リスト
- Interactive Dialogue Agents via Reinforcement Learning on Hindsight Regenerations [58.65755268815283]
多くの実際の対話は対話的であり、つまりエージェントの発話が会話の相手に影響を与えるか、情報を引き出すか、意見を変えるかである。
この事実を利用して、既存の最適データを書き直し、拡張し、オフライン強化学習(RL)を介してトレーニングする。
実際の人間によるユーザ調査の結果、我々のアプローチは既存の最先端の対話エージェントを大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-07T21:37:51Z) - Can LLMs Understand the Implication of Emphasized Sentences in Dialogue? [64.72966061510375]
強調は人間のコミュニケーションにおいて重要な要素であり、対話における純粋テキストを超えて話者の意図と含意を示す。
本稿では,強調の意味を抽出した強調注釈付き対話サンプルを用いたベンチマークであるEmphasized-Talkを紹介する。
オープンソースと商用の両方で様々な大規模言語モデル(LLM)を評価し,その性能を重要視して評価する。
論文 参考訳(メタデータ) (2024-06-16T20:41:44Z) - Sibyl: Empowering Empathetic Dialogue Generation in Large Language Models via Sensible and Visionary Commonsense Inference [40.96005200292604]
感性とビジョンコモンセンス知識(Sibyl)という革新的な枠組みを提示する。
それは、より共感的な反応を引き出すことを目的として、すぐに続く対話に集中するように設計されている。
実験結果から,LLMにコモンセンス知識を習得するためのパラダイムを取り入れることで,その応答の質を総合的に向上することが示された。
論文 参考訳(メタデータ) (2023-11-26T14:35:23Z) - Exploring the Factual Consistency in Dialogue Comprehension of Large Language Models [51.75805497456226]
本研究は,対話要約タスクの助けを借りて,事実整合性の問題に焦点を当てる。
評価の結果,LLMが生成する要約の26.8%が事実整合性を含んでいることがわかった。
LLMの対話理解能力を高めるために,自動構築マルチタスクデータを用いた微調整パラダイムを提案する。
論文 参考訳(メタデータ) (2023-11-13T09:32:12Z) - Large Language Models: The Need for Nuance in Current Debates and a
Pragmatic Perspective on Understanding [1.3654846342364308]
LLM(Large Language Models)は、文法的に正しい、流動的なテキストを生成する能力において、非並列である。
本論文は,LLM能力の批判において再発する3点を批判的に評価する。
LLMにおける現実の理解と意図の問題に関する実践的な視点を概説する。
論文 参考訳(メタデータ) (2023-10-30T15:51:04Z) - BotChat: Evaluating LLMs' Capabilities of Having Multi-Turn Dialogues [72.65163468440434]
本報告では,人間型マルチターンチャットのための既存大規模言語モデルの予備的評価を行う。
そこで我々は,ChatSEEDに基づくマルチターン対話を発話によって生成する大規模言語モデル(LLM)を提案する。
GPT-4は優れた品質の人型多元対話を生成できるが、その性能は著しく上回っている。
論文 参考訳(メタデータ) (2023-10-20T16:53:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。