論文の概要: Shaping Shared Languages: Human and Large Language Models' Inductive Biases in Emergent Communication
- arxiv url: http://arxiv.org/abs/2503.04395v1
- Date: Thu, 06 Mar 2025 12:47:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-07 17:59:00.832569
- Title: Shaping Shared Languages: Human and Large Language Models' Inductive Biases in Emergent Communication
- Title(参考訳): 共有言語の形成:創発的コミュニケーションにおける人間と大言語モデルの帰納的バイアス
- Authors: Tom Kouwenhoven, Max Peeperkorn, Roy de Kleijn, Tessa Verhoef,
- Abstract要約: ヒトと大言語モデル(LLM)の帰納バイアスに最適化された人工言語がどのように進化するかを検討する。
我々は,人間とLLMが協力しながらも,すべての状況において信頼性の高いコミュニケーションを可能にする語彙が出現することを示す。
- 参考スコア(独自算出の注目度): 0.09999629695552195
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Languages are shaped by the inductive biases of their users. Using a classical referential game, we investigate how artificial languages evolve when optimised for inductive biases in humans and large language models (LLMs) via Human-Human, LLM-LLM and Human-LLM experiments. We show that referentially grounded vocabularies emerge that enable reliable communication in all conditions, even when humans and LLMs collaborate. Comparisons between conditions reveal that languages optimised for LLMs subtly differ from those optimised for humans. Interestingly, interactions between humans and LLMs alleviate these differences and result in vocabularies which are more human-like than LLM-like. These findings advance our understanding of how inductive biases in LLMs play a role in the dynamic nature of human language and contribute to maintaining alignment in human and machine communication. In particular, our work underscores the need to think of new methods that include human interaction in the training processes of LLMs, and shows that using communicative success as a reward signal can be a fruitful, novel direction.
- Abstract(参考訳): 言語は、ユーザの帰納バイアスによって形作られます。
古典的な参照ゲームを用いて,人間における帰納的バイアスに最適化された人工言語と,人-ヒューマン,LLM-LLM,Human-LLM実験による大規模言語モデル(LLM)について検討した。
我々は,人間とLLMが協力しながらも,すべての状況において信頼性の高いコミュニケーションを可能にする語彙が出現することを示す。
条件の比較により、LLMに最適化された言語は、人間に最適化された言語と微妙に異なることが明らかとなった。
興味深いことに、人間とLLM間の相互作用はこれらの違いを緩和し、LLMのようなより人間に近い語彙をもたらす。
これらの知見は, LLMの帰納的バイアスが人間の言語の動的性質にどのように寄与するかを理解し, 人間と機械のコミュニケーションの整合性維持に寄与する。
特に,本研究は,LLMの訓練過程における人間との相互作用を含む新たな手法を検討することの必要性を強調し,コミュニケーションの成功を報酬信号として活用することは,実りある,新しい方向への道のりであることを示唆している。
関連論文リスト
- LLMs syntactically adapt their language use to their conversational partner [58.92470092706263]
人間の話者は会話中に言語の使用が互いに一致していることがよく観察されている。
大規模言語モデル(LLM)間の会話のコーパスを構築し、2つのLLMエージェントが会話が進むにつれて、より類似した構文的選択をするのを見つける。
論文 参考訳(メタデータ) (2025-03-10T15:37:07Z) - How Deep is Love in LLMs' Hearts? Exploring Semantic Size in Human-like Cognition [75.11808682808065]
本研究では,大言語モデル (LLM) が意味的サイズを理解する上で類似した傾向を示すかどうかを検討する。
以上の結果から,マルチモーダルトレーニングはLLMにとって人間的な理解を深める上で不可欠であることが示唆された。
最後に,LLMが実世界のWebショッピングシナリオにおいて,より大きなセマンティックサイズを持つ注目の見出しに影響されているかを検討する。
論文 参考訳(メタデータ) (2025-03-01T03:35:56Z) - Child vs. machine language learning: Can the logical structure of human language unleash LLMs? [0.0]
人間の言語学習は、LLMを訓練するための現在のアプローチと本質的に異なる方法で進行すると主張する。
非常に強力な実装でさえ、人間が問題にしない言語に固有の論理の側面を見逃す結果をもたらすという我々の仮説を裏付けるLSMによるドイツ語の複数形による証拠を提示する。
論文 参考訳(メタデータ) (2025-02-24T16:40:46Z) - HumT DumT: Measuring and controlling human-like language in LLMs [29.82328120944693]
ヒューマンライクな言語はユーザエクスペリエンスを改善するかもしれないが、過度な信頼とステレオタイピングにつながる可能性がある。
本稿では,HumT と SocioT を紹介し,テキストデータにおける人間のような音色や社会的知覚の他の次元の指標について紹介する。
好みや使用状況のデータセットにわたってHumTを測定することで、LLMからの人間的なアウトプットがより少ないことが分かる。
論文 参考訳(メタデータ) (2025-02-18T20:04:09Z) - Searching for Structure: Investigating Emergent Communication with Large Language Models [0.10923877073891446]
我々は,大規模言語モデルが人工言語を学習し,使用する古典的参照ゲームについてシミュレートする。
この結果から, 当初構造化されていない全体言語は, 2つのLLMエージェントが正常に通信できるような構造的特性を持つことが明らかとなった。
論文 参考訳(メタデータ) (2024-12-10T16:32:19Z) - HLB: Benchmarking LLMs' Humanlikeness in Language Use [2.438748974410787]
20大言語モデル(LLM)を評価する総合的人間類似度ベンチマーク(HLB)を提案する。
実験では2000人以上の被験者から回答を収集し,LSMの成果と比較した。
以上の結果から,LLMが様々な言語レベルにおいてヒトの反応をいかにうまく再現するかの微妙な相違が明らかとなった。
論文 参考訳(メタデータ) (2024-09-24T09:02:28Z) - No Such Thing as a General Learner: Language models and their dual optimization [3.2228025627337864]
我々は、人間もLLMも、様々な意味で一般の学習者ではないと論じている。
言語に対する人間の認知バイアスの重要性について,LLMのパフォーマンスが人間と類似しているか異同であるかは,重要な議論を軽視するものではないと論じる。
論文 参考訳(メタデータ) (2024-08-18T17:01:42Z) - A Survey on Human Preference Learning for Large Language Models [81.41868485811625]
近年の多目的大言語モデル(LLM)の急激な増加は、より有能な基礎モデルと人間の意図を優先学習によって整合させることに大きく依存している。
本調査では、選好フィードバックのソースとフォーマット、選好信号のモデリングと使用、および、整列 LLM の評価について述べる。
論文 参考訳(メタデータ) (2024-06-17T03:52:51Z) - Do Large Language Models Mirror Cognitive Language Processing? [43.68923267228057]
大規模言語モデル(LLM)は、テキスト理解と論理的推論において顕著な能力を示した。
脳認知処理信号は、典型的には人間の言語処理を研究するために使用される。
論文 参考訳(メタデータ) (2024-02-28T03:38:20Z) - Divergences between Language Models and Human Brains [59.100552839650774]
我々は,人間と機械語処理の相違点を体系的に探求する。
我々は、LMがうまく捉えられない2つの領域、社会的/感情的知性と身体的常識を識別する。
以上の結果から,これらの領域における微調整LMは,ヒト脳反応との整合性を向上させることが示唆された。
論文 参考訳(メタデータ) (2023-11-15T19:02:40Z) - Zero-Shot Goal-Directed Dialogue via RL on Imagined Conversations [70.7884839812069]
大規模言語モデル(LLM)は、多くの自然言語タスクに対する強力で一般的な解決策として登場した。
しかしながら、言語生成の最も重要なアプリケーションの多くは対話的であり、エージェントは望ましい結果に達するために相手と話し合わなければならない。
本研究では,そのような目標指向対話に対して,RLでLLMを適応させる新しい手法について検討する。
論文 参考訳(メタデータ) (2023-11-09T18:45:16Z) - Let Models Speak Ciphers: Multiagent Debate through Embeddings [84.20336971784495]
この問題を解決するためにCIPHER(Communicative Inter-Model Protocol Through Embedding Representation)を導入する。
自然言語から逸脱することで、CIPHERはモデルの重みを変更することなく、より広い範囲の情報を符号化する利点を提供する。
このことは、LLM間の通信における代替の"言語"としての埋め込みの優越性と堅牢性を示している。
論文 参考訳(メタデータ) (2023-10-10T03:06:38Z) - Dissociating language and thought in large language models [52.39241645471213]
大規模言語モデル(LLM)は、人間の言語を習得する上で、今までに最も近いモデルである。
我々は、この区別を人間の神経科学に根ざし、形式的、機能的な能力は異なる神経機構に依存していることを示した。
LLMは形式的能力は驚くほど優れているが、機能的能力のタスクにおける性能はいまだに不明瞭である。
論文 参考訳(メタデータ) (2023-01-16T22:41:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。