論文の概要: Investigating the Development of Task-Oriented Communication in Vision-Language Models
- arxiv url: http://arxiv.org/abs/2601.20641v1
- Date: Wed, 28 Jan 2026 14:28:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-29 15:46:06.970722
- Title: Investigating the Development of Task-Oriented Communication in Vision-Language Models
- Title(参考訳): 視覚言語モデルにおけるタスク指向コミュニケーションの開発に関する研究
- Authors: Boaz Carmeli, Orr Paradise, Shafi Goldwasser, Yonatan Belinkov, Ron Meir,
- Abstract要約: 我々は,emphLLMをベースとしたエージェントがタスク指向通信プロトコルを開発できるかどうかを検討する。
視覚言語モデル(VLM)エージェントが通信する参照ゲームフレームワークを使用する。
- 参考スコア(独自算出の注目度): 48.032926105370144
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We investigate whether \emph{LLM-based agents} can develop task-oriented communication protocols that differ from standard natural language in collaborative reasoning tasks. Our focus is on two core properties such task-oriented protocols may exhibit: Efficiency -- conveying task-relevant information more concisely than natural language, and Covertness -- becoming difficult for external observers to interpret, raising concerns about transparency and control. To investigate these aspects, we use a referential-game framework in which vision-language model (VLM) agents communicate, providing a controlled, measurable setting for evaluating language variants. Experiments show that VLMs can develop effective, task-adapted communication patterns. At the same time, they can develop covert protocols that are difficult for humans and external agents to interpret. We also observe spontaneous coordination between similar models without explicitly shared protocols. These findings highlight both the potential and the risks of task-oriented communication, and position referential games as a valuable testbed for future work in this area.
- Abstract(参考訳): 本研究では,協調推論タスクにおいて,標準自然言語とは異なるタスク指向通信プロトコルを開発できるかどうかを検討する。
効率性 -- 自然言語よりも簡潔にタスク関連情報を伝達すること、カバーネス -- 外部のオブザーバが解釈することが難しくなり、透明性とコントロールに対する懸念が高まります。
これらの側面を考察するために、視覚言語モデル(VLM)エージェントがコミュニケーションし、言語変種を評価するための制御可能な設定を提供する参照ゲームフレームワークを使用する。
実験により、VLMはタスク適応型コミュニケーションパターンを効果的に開発できることが示された。
同時に、人間や外部エージェントが解釈しにくい隠蔽プロトコルを開発することもできる。
また、プロトコルを明示的に共有することなく、類似したモデル間の自発的な協調を観察する。
これらの知見は,タスク指向コミュニケーションの潜在的なリスクとリスクと,将来的な作業の場としての位置参照ゲームの両方を浮き彫りにしている。
関連論文リスト
- Learning to Interact in World Latent for Team Coordination [53.51290193631586]
本研究は,多エージェント強化学習(MARL)におけるチーム協調を支援するために,対話型ワールドラテント(IWoL)という新しい表現学習フレームワークを提案する。
コミュニケーションプロトコルを直接モデル化することにより,エージェント間関係とタスク固有の世界情報とを協調的にキャプチャする学習可能な表現空間を構築する。
私たちの表現は、各エージェントの暗黙のラテントとしてだけでなく、コミュニケーションのための明示的なメッセージとしても使用できます。
論文 参考訳(メタデータ) (2025-09-29T22:13:39Z) - Communicating Plans, Not Percepts: Scalable Multi-Agent Coordination with Embodied World Models [0.0]
MARL(Multi-Agent Reinforcement Learning)の中心的な疑問は、通信プロトコルを設計するか、エンドツーエンドで学習するかである。
本稿では,協調的なタスク割り当て問題に対する2つのコミュニケーション戦略を提案し,比較する。
我々の実験によると、創発的コミュニケーションは単純な設定で実現可能であるが、設計された世界モデルベースのアプローチは、複雑さが増大するにつれて、優れたパフォーマンス、サンプル効率、スケーラビリティを示す。
論文 参考訳(メタデータ) (2025-08-04T21:29:07Z) - Interpretable Emergent Language Using Inter-Agent Transformers [0.0]
本稿では,変圧器を用いたマルチエージェント強化学習における言語の出現について検討する。
本稿では, 自己認識を利用して, 記号的, 人間の理解可能な通信プロトコルを学習する, 微分可能言語間変換器を提案する。
論文 参考訳(メタデータ) (2025-05-04T18:57:57Z) - Bidirectional Emergent Language in Situated Environments [4.950411915351642]
マルチエージェントポンとコレクターの2つの新しい協調環境を紹介した。
最適なパフォーマンスには通信プロトコルの出現が必要ですが、適度な成功はそれなしで達成できます。
エージェントは意味のあるメッセージのみを生成し、調整なしでは成功できない状態の受信メッセージに作用する。
論文 参考訳(メタデータ) (2024-08-26T21:25:44Z) - Building Cooperative Embodied Agents Modularly with Large Language
Models [104.57849816689559]
本研究では, 分散制御, 生の知覚観察, コストのかかるコミュニケーション, 様々な実施環境下でインスタンス化された多目的タスクといった課題に対処する。
我々は,LLMの常識知識,推論能力,言語理解,テキスト生成能力を活用し,認知に触発されたモジュラーフレームワークにシームレスに組み込む。
C-WAH と TDW-MAT を用いた実験により, GPT-4 で駆動される CoELA が, 強い計画に基づく手法を超越し, 創発的な効果的なコミュニケーションを示すことを示した。
論文 参考訳(メタデータ) (2023-07-05T17:59:27Z) - On the Role of Emergent Communication for Social Learning in Multi-Agent
Reinforcement Learning [0.0]
社会学習は、専門家からのヒントを使って、異質なポリシーを整列し、サンプルの複雑さを減らし、部分的に観察可能なタスクを解決する。
本稿では,情報ボトルネックに基づく教師なし手法を提案する。
論文 参考訳(メタデータ) (2023-02-28T03:23:27Z) - ERICA: Improving Entity and Relation Understanding for Pre-trained
Language Models via Contrastive Learning [97.10875695679499]
そこで本研究では, ERICA という新たなコントラスト学習フレームワークを提案し, エンティティとその関係をテキストでより深く理解する。
実験の結果,提案する erica フレームワークは文書レベルの言語理解タスクにおいて一貫した改善を実現することがわかった。
論文 参考訳(メタデータ) (2020-12-30T03:35:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。