論文の概要: Shaping Shared Languages: Human and Large Language Models' Inductive Biases in Emergent Communication
- arxiv url: http://arxiv.org/abs/2503.04395v1
- Date: Thu, 06 Mar 2025 12:47:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-07 16:00:15.346139
- Title: Shaping Shared Languages: Human and Large Language Models' Inductive Biases in Emergent Communication
- Title(参考訳): 共有言語の形成:創発的コミュニケーションにおける人間と大言語モデルの帰納的バイアス
- Authors: Tom Kouwenhoven, Max Peeperkorn, Roy de Kleijn, Tessa Verhoef,
- Abstract要約: ヒトと大言語モデル(LLM)の帰納バイアスに最適化された人工言語がどのように進化するかを検討する。
我々は,人間とLLMが協力しながらも,すべての状況において信頼性の高いコミュニケーションを可能にする語彙が出現することを示す。
- 参考スコア(独自算出の注目度): 0.09999629695552195
- License:
- Abstract: Languages are shaped by the inductive biases of their users. Using a classical referential game, we investigate how artificial languages evolve when optimised for inductive biases in humans and large language models (LLMs) via Human-Human, LLM-LLM and Human-LLM experiments. We show that referentially grounded vocabularies emerge that enable reliable communication in all conditions, even when humans and LLMs collaborate. Comparisons between conditions reveal that languages optimised for LLMs subtly differ from those optimised for humans. Interestingly, interactions between humans and LLMs alleviate these differences and result in vocabularies which are more human-like than LLM-like. These findings advance our understanding of how inductive biases in LLMs play a role in the dynamic nature of human language and contribute to maintaining alignment in human and machine communication. In particular, our work underscores the need to think of new methods that include human interaction in the training processes of LLMs, and shows that using communicative success as a reward signal can be a fruitful, novel direction.
- Abstract(参考訳): 言語は、ユーザの帰納バイアスによって形作られます。
古典的な参照ゲームを用いて,人間における帰納的バイアスに最適化された人工言語と,人-ヒューマン,LLM-LLM,Human-LLM実験による大規模言語モデル(LLM)について検討した。
我々は,人間とLLMが協力しながらも,すべての状況において信頼性の高いコミュニケーションを可能にする語彙が出現することを示す。
条件の比較により、LLMに最適化された言語は、人間に最適化された言語と微妙に異なることが明らかとなった。
興味深いことに、人間とLLM間の相互作用はこれらの違いを緩和し、LLMのようなより人間に近い語彙をもたらす。
これらの知見は, LLMの帰納的バイアスが人間の言語の動的性質にどのように寄与するかを理解し, 人間と機械のコミュニケーションの整合性維持に寄与する。
特に,本研究は,LLMの訓練過程における人間との相互作用を含む新たな手法を検討することの必要性を強調し,コミュニケーションの成功を報酬信号として活用することは,実りある,新しい方向への道のりであることを示唆している。
関連論文リスト
- HumT DumT: Measuring and controlling human-like language in LLMs [29.82328120944693]
ヒューマンライクな言語はユーザエクスペリエンスを改善するかもしれないが、過度な信頼とステレオタイピングにつながる可能性がある。
本稿では,HumT と SocioT を紹介し,テキストデータにおける人間のような音色や社会的知覚の他の次元の指標について紹介する。
好みや使用状況のデータセットにわたってHumTを測定することで、LLMからの人間的なアウトプットがより少ないことが分かる。
論文 参考訳(メタデータ) (2025-02-18T20:04:09Z) - Searching for Structure: Investigating Emergent Communication with Large Language Models [0.10923877073891446]
我々は,大規模言語モデルが人工言語を学習し,使用する古典的参照ゲームについてシミュレートする。
この結果から, 当初構造化されていない全体言語は, 2つのLLMエージェントが正常に通信できるような構造的特性を持つことが明らかとなった。
論文 参考訳(メタデータ) (2024-12-10T16:32:19Z) - HLB: Benchmarking LLMs' Humanlikeness in Language Use [2.438748974410787]
20大言語モデル(LLM)を評価する総合的人間類似度ベンチマーク(HLB)を提案する。
実験では2000人以上の被験者から回答を収集し,LSMの成果と比較した。
以上の結果から,LLMが様々な言語レベルにおいてヒトの反応をいかにうまく再現するかの微妙な相違が明らかとなった。
論文 参考訳(メタデータ) (2024-09-24T09:02:28Z) - No Such Thing as a General Learner: Language models and their dual optimization [3.2228025627337864]
我々は、人間もLLMも、様々な意味で一般の学習者ではないと論じている。
言語に対する人間の認知バイアスの重要性について,LLMのパフォーマンスが人間と類似しているか異同であるかは,重要な議論を軽視するものではないと論じる。
論文 参考訳(メタデータ) (2024-08-18T17:01:42Z) - A Survey on Human Preference Learning for Large Language Models [81.41868485811625]
近年の多目的大言語モデル(LLM)の急激な増加は、より有能な基礎モデルと人間の意図を優先学習によって整合させることに大きく依存している。
本調査では、選好フィードバックのソースとフォーマット、選好信号のモデリングと使用、および、整列 LLM の評価について述べる。
論文 参考訳(メタデータ) (2024-06-17T03:52:51Z) - AlignedCoT: Prompting Large Language Models via Native-Speaking Demonstrations [52.43593893122206]
Alignedcotは、大規模言語モデルを呼び出すためのコンテキスト内学習技術である。
ゼロショットシナリオでは、一貫した正しいステップワイズプロンプトを達成する。
数学的推論とコモンセンス推論の実験を行う。
論文 参考訳(メタデータ) (2023-11-22T17:24:21Z) - Divergences between Language Models and Human Brains [59.100552839650774]
我々は,人間と機械語処理の相違点を体系的に探求する。
我々は、LMがうまく捉えられない2つの領域、社会的/感情的知性と身体的常識を識別する。
以上の結果から,これらの領域における微調整LMは,ヒト脳反応との整合性を向上させることが示唆された。
論文 参考訳(メタデータ) (2023-11-15T19:02:40Z) - Think Before You Speak: Cultivating Communication Skills of Large Language Models via Inner Monologue [73.69510478736483]
大規模言語モデル(LLM)は、流動的で一貫性があり多様な応答を生成する。
しかし、それらは重要な能力、コミュニケーションスキルを欠いている。
本稿は,内的モノローグによるLLMのコミュニケーション能力向上を目的としている。
実験の結果,提案したCSIM戦略はバックボーンモデルを改善し,ベースラインよりも優れていた。
論文 参考訳(メタデータ) (2023-11-13T16:19:42Z) - Zero-Shot Goal-Directed Dialogue via RL on Imagined Conversations [70.7884839812069]
大規模言語モデル(LLM)は、多くの自然言語タスクに対する強力で一般的な解決策として登場した。
しかしながら、言語生成の最も重要なアプリケーションの多くは対話的であり、エージェントは望ましい結果に達するために相手と話し合わなければならない。
本研究では,そのような目標指向対話に対して,RLでLLMを適応させる新しい手法について検討する。
論文 参考訳(メタデータ) (2023-11-09T18:45:16Z) - Let Models Speak Ciphers: Multiagent Debate through Embeddings [84.20336971784495]
この問題を解決するためにCIPHER(Communicative Inter-Model Protocol Through Embedding Representation)を導入する。
自然言語から逸脱することで、CIPHERはモデルの重みを変更することなく、より広い範囲の情報を符号化する利点を提供する。
このことは、LLM間の通信における代替の"言語"としての埋め込みの優越性と堅牢性を示している。
論文 参考訳(メタデータ) (2023-10-10T03:06:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。