論文の概要: LLMs and people both learn to form conventions -- just not with each other
- arxiv url: http://arxiv.org/abs/2602.08208v1
- Date: Mon, 09 Feb 2026 02:15:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:25.027956
- Title: LLMs and people both learn to form conventions -- just not with each other
- Title(参考訳): LLMと人々はどちらもコンベンションを形成することを学びます。
- Authors: Cameron R. Jones, Agnese Lombardi, Kyle Mahowald, Benjamin K. Bergen,
- Abstract要約: 人間は会話の中で互いに整合し、コミュニケーションを容易にする共有の慣習を採用する。
マルチモーダル通信ゲームにおいて,LLMが同じ種類のコンベンションを形成するかどうかを検証する。
- 参考スコア(独自算出の注目度): 13.170148649113775
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Humans align to one another in conversation -- adopting shared conventions that ease communication. We test whether LLMs form the same kinds of conventions in a multimodal communication game. Both humans and LLMs display evidence of convention-formation (increasing the accuracy and consistency of their turns while decreasing their length) when communicating in same-type dyads (humans with humans, AI with AI). However, heterogenous human-AI pairs fail -- suggesting differences in communicative tendencies. In Experiment 2, we ask whether LLMs can be induced to behave more like human conversants, by prompting them to produce superficially humanlike behavior. While the length of their messages matches that of human pairs, accuracy and lexical overlap in human-LLM pairs continues to lag behind that of both human-human and AI-AI pairs. These results suggest that conversational alignment requires more than just the ability to mimic previous interactions, but also shared interpretative biases toward the meanings that are conveyed.
- Abstract(参考訳): 人間は会話の中で互いに整合し、コミュニケーションを容易にする共有の慣習を採用する。
マルチモーダル通信ゲームにおいて,LLMが同じ種類のコンベンションを形成するかどうかを検証する。
人間とLLMはどちらも、同じタイプのダイアド(人間と人間、AIとAI)でコミュニケーションする際の慣習形成の証拠(長さを減らしながら、ターンの正確さと一貫性を高める)を示す。
しかし、異質な人間とAIのペアは失敗し、コミュニケーションの傾向の違いを示唆している。
実験2では、LLMが人間の会話のように振る舞うことができるかどうかを尋ねる。
メッセージの長さは人間のペアの長さと一致するが、人間とLLMのペアの正確さと語彙上の重複は、人間とAIとAIの両方のペアのそれより遅れ続けている。
これらの結果は、会話のアライメントは、単に以前の相互作用を模倣する能力だけでなく、伝達される意味に対する解釈的バイアスを共有することが必要であることを示唆している。
関連論文リスト
- LVLMs and Humans Ground Differently in Referential Communication [33.82075906105276]
本稿では,複数回にまたがって複数のターンを交互に交互に交互に交互に交互に交互に交互に交互に操作するディレクトリ・マーチャントの設計について述べる。
データ収集のためのオンラインパイプライン、精度、効率、語彙オーバーラップのためのツールと分析、およびLVLMが参照表現を対話的に解決する際の制限を解き放つ356の対話コーパスをリリースする。
論文 参考訳(メタデータ) (2026-01-27T16:52:20Z) - Shaping Shared Languages: Human and Large Language Models' Inductive Biases in Emergent Communication [0.09999629695552195]
ヒトと大言語モデル(LLM)の帰納バイアスに最適化された人工言語がどのように進化するかを検討する。
我々は、人間が協力しても、あらゆる状況において信頼できるコミュニケーションを可能にする、参照接頭辞が出現することを示します。
論文 参考訳(メタデータ) (2025-03-06T12:47:54Z) - AI persuading AI vs AI persuading Humans: LLMs' Differential Effectiveness in Promoting Pro-Environmental Behavior [70.24245082578167]
環境保護行動(PEB)は気候変動に対処するために不可欠であるが、意識を意図や行動に変えることはいまだ明白である。
大規模言語モデル(LLM)をPEBを促進するツールとして検討し,その影響を3,200人の参加者で比較した。
人工的およびシミュレートされたエージェントは、介入後のEBスタンスに大きく影響し、ヒトの反応はほとんど変化しない。
論文 参考訳(メタデータ) (2025-03-03T21:40:55Z) - Trying to be human: Linguistic traces of stochastic empathy in language models [0.2638512174804417]
大規模言語モデル(LLM)は、コンピュータ生成コンテンツの質向上を支える重要な要因である。
私たちの研究は、2つの重要な要因が人間とAIの人種にどのように貢献するかをテストする。
論文 参考訳(メタデータ) (2024-10-02T15:46:40Z) - X-TURING: Towards an Enhanced and Efficient Turing Test for Long-Term Dialogue Agents [56.64615470513102]
チューリングテストは、自然言語の会話においてAIが人間のような振る舞いを示すかどうかを調べる。
従来の設定では、各参加者は一度に1つのメッセージに制限される。
本稿では,textitburstダイアログパターンを用いて,元のテストを強化するtextbftextscX-Turingを提案する。
論文 参考訳(メタデータ) (2024-08-19T09:57:28Z) - Scaling Data Diversity for Fine-Tuning Language Models in Human Alignment [84.32768080422349]
人間の好みの調整は、大きな言語モデルが誤解を招くか有害なコンテンツを生成するのを防ぐ。
本研究では, 微調整後のLLMの最終性能と線形相関を示唆し, 即時多様性の新たな定式化を提案する。
論文 参考訳(メタデータ) (2024-03-17T07:08:55Z) - Divergences between Language Models and Human Brains [59.100552839650774]
我々は,人間と機械語処理の相違点を体系的に探求する。
我々は、LMがうまく捉えられない2つの領域、社会的/感情的知性と身体的常識を識別する。
以上の結果から,これらの領域における微調整LMは,ヒト脳反応との整合性を向上させることが示唆された。
論文 参考訳(メタデータ) (2023-11-15T19:02:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。