論文の概要: Direct Semantic Communication Between Large Language Models via Vector Translation
- arxiv url: http://arxiv.org/abs/2511.03945v1
- Date: Thu, 06 Nov 2025 00:43:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-07 20:17:53.253431
- Title: Direct Semantic Communication Between Large Language Models via Vector Translation
- Title(参考訳): ベクトル変換による大規模言語モデル間の直接意味コミュニケーション
- Authors: Fu-Chun Yang, Jason Eshraghian,
- Abstract要約: 大規模言語モデル(LLM)は、メッセージをプレーントークンとして渡すことで、最も遅延したセマンティクスを破棄する。
我々は、直接意味交換を可能にする学習されたマッピングを用いて、ベクトル変換を介して潜時ブリッジを形成する。
- 参考スコア(独自算出の注目度): 3.81908263930559
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In multi-agent settings, such as debate, reflection, or tool-calling, large language models (LLMs) pass messages as plain tokens, discarding most latent semantics. This constrains information transfer and adds unnecessary computational overhead. We form a latent bridge via vector translations, which use learned mappings that enable direct semantic exchange between representation spaces. A dual-encoder translator trained between Llama-2-7B and Mistral-7B-Instruct attains an average cosine alignment of 0.538. Injecting the translated vectors at 30 percent blending strength steers the target model's generation without destabilizing logits. Bidirectional evaluation shows a 2.01:1 transfer asymmetry, indicating that general-purpose models yield more transferable representations than instruction-tuned variants. This conservative injection preserves computational stability while demonstrating that cross-model latent communication is feasible, enabling collaborative AI systems that share meaning rather than tokens.
- Abstract(参考訳): 議論やリフレクション、ツールコールといったマルチエージェント設定では、大きな言語モデル(LLM)がメッセージをプレーントークンとして渡すことで、最も遅延したセマンティクスを破棄する。
これは情報転送を制限し、不要な計算オーバーヘッドを追加する。
我々は,表現空間間の直接意味交換を可能にする学習された写像を用いて,ベクトル変換による潜在ブリッジを形成する。
Llama-2-7BとMistral-7B-Instructの間で訓練されたデュアルエンコーダトランスレータは平均コサインアライメント0.538に達する。
変換ベクトルを30%の混合強度で注入すると、ロジットを不安定にすることなく、ターゲットモデルの生成を制御できる。
双方向評価は2.01:1の非対称性を示し、汎用モデルの方が命令調整された変種よりも伝達可能な表現が得られることを示している。
この保守的な注入は、クロスモデル潜在コミュニケーションが実現可能であることを実証しながら、計算安定性を保ち、トークンよりも意味を共有する協調AIシステムを実現する。
関連論文リスト
- Interference Matrix: Quantifying Cross-Lingual Interference in Transformer Encoders [55.749883010057545]
可能な全ての言語対上で,小さなBERT様のモデルを訓練し,評価することにより,干渉行列を構築する。
分析の結果,言語間の干渉は非対称であり,そのパターンが従来の言語特性と一致しないことが明らかとなった。
論文 参考訳(メタデータ) (2025-08-04T10:02:19Z) - Augmenting Multi-Agent Communication with State Delta Trajectory [44.68954502805962]
本稿では,自然言語トークンとトークン単位の状態遷移の両方をエージェントから別のエージェントに転送する新しい通信プロトコルを提案する。
それぞれのトークンを生成した後のLSMの状態変化のシーケンスは、推論プロセスの裏側に隠された情報をよりよく反映できることがわかった。
実験の結果,SDEを用いたマルチエージェントシステムでは,他の通信プロトコルと比較してSOTAの性能が向上していることがわかった。
論文 参考訳(メタデータ) (2025-06-24T00:38:25Z) - Relative Representations of Latent Spaces enable Efficient Semantic Channel Equalization [11.052047963214006]
本稿では,新たな意味等化アルゴリズムを提案する。
提案手法の有効性を数値計算により明らかにした。
論文 参考訳(メタデータ) (2024-11-29T14:08:48Z) - Language Driven Occupancy Prediction [13.35971455725581]
オープン語彙占有予測のための効果的で一般化可能なフレームワークであるLOccを紹介する。
私たちのパイプラインは、画像の貴重な意味情報を掘り下げ、画像からテキストラベルをLiDARポイントクラウドに、最終的にはボクセルに転送する、実現可能な方法を提供します。
教師付き占有モデルの当初の予測ヘッドを二進的占有状態のための幾何学ヘッドと言語特徴のための言語ヘッドに置き換えることで、LOccは生成された言語基底真実を効果的に利用して、3D言語ボリュームの学習をガイドする。
論文 参考訳(メタデータ) (2024-11-25T03:47:10Z) - VECO 2.0: Cross-lingual Language Model Pre-training with
Multi-granularity Contrastive Learning [56.47303426167584]
複数粒度アライメントを持つコントラスト学習に基づく言語間事前学習モデルVECO2.0を提案する。
具体的には、シーケンス・ツー・シーケンスアライメントが誘導され、並列対の類似性を最大化し、非並列対を最小化する。
トークン・ツー・トークンのアライメントは、シソーラス辞書を介して発掘された同義トークンと、バイリンガルな例の他の未使用トークンとのギャップを埋めるために統合される。
論文 参考訳(メタデータ) (2023-04-17T12:23:41Z) - Improving Zero-Shot Multilingual Translation with Universal
Representations and Cross-Mappings [23.910477693942905]
改良されたゼロショット翻訳では、普遍的な表現と横断的な関係を学習する必要がある。
エンコーダによって出力される表現の差をモデル化するための最適理論に基づく状態距離を提案する。
本稿では,モデルが一貫した予測を行うのに役立つ合意に基づくトレーニング手法を提案する。
論文 参考訳(メタデータ) (2022-10-28T02:47:05Z) - Exploring Unsupervised Pretraining Objectives for Machine Translation [99.5441395624651]
教師なし言語間事前訓練は、ニューラルマシン翻訳(NMT)の強力な結果を得た
ほとんどのアプローチは、入力の一部をマスキングしてデコーダで再構成することで、シーケンス・ツー・シーケンスアーキテクチャにマスク付き言語モデリング(MLM)を適用する。
マスキングと、実際の(完全な)文に似た入力を生成する代替目的を、文脈に基づいて単語を並べ替えて置き換えることにより比較する。
論文 参考訳(メタデータ) (2021-06-10T10:18:23Z) - Learning Source Phrase Representations for Neural Machine Translation [65.94387047871648]
本稿では,対応するトークン表現から句表現を生成可能な注意句表現生成機構を提案する。
実験では,強力なトランスフォーマーベースライン上でのWMT 14の英語・ドイツ語・英語・フランス語タスクにおいて,大幅な改善が得られた。
論文 参考訳(メタデータ) (2020-06-25T13:43:11Z) - From Zero to Hero: On the Limitations of Zero-Shot Cross-Lingual
Transfer with Multilingual Transformers [62.637055980148816]
言語モデリングの目的によって事前訓練された多言語トランスフォーマーは、NLPの事実上のデフォルト転送パラダイムとなっている。
膨大な多言語変換器による言語間変換は,リソースリーンシナリオや遠方言語では著しく効果が低いことを示す。
論文 参考訳(メタデータ) (2020-05-01T22:04:58Z) - Improve Variational Autoencoder for Text Generationwith Discrete Latent
Bottleneck [52.08901549360262]
変分オートエンコーダ(VAE)は、エンドツーエンドの表現学習において必須のツールである。
VAEは強い自己回帰デコーダで潜伏変数を無視する傾向がある。
よりコンパクトな潜在空間において暗黙的な潜在特徴マッチングを強制する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2020-04-22T14:41:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。