論文の概要: When Efficient Communication Explains Convexity
- arxiv url: http://arxiv.org/abs/2602.02821v1
- Date: Mon, 02 Feb 2026 21:20:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:15.092979
- Title: When Efficient Communication Explains Convexity
- Title(参考訳): 効率的なコミュニケーションが凸性を説明するとき
- Authors: Ashvin Ranjan, Shane Steinert-Threlkeld,
- Abstract要約: 本稿では,効率的なコミュニケーションの観点から,どのような要因が説明を成功させるのかを問う。
我々はまず,IB感覚における最適性と,この設定に対する新しい凸性一般化との相関関係を実証し,解析する。
コミュニケーションニーズ分布の凸性は,特に重要な役割を担っている。
- 参考スコア(独自算出の注目度): 2.1771821757134915
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Much recent work has argued that the variation in the languages of the world can be explained from the perspective of efficient communication; in particular, languages can be seen as optimally balancing competing pressures to be simple and to be informative. Focusing on the expression of meaning -- semantic typology -- the present paper asks what factors are responsible for successful explanations in terms of efficient communication. Using the Information Bottleneck (IB) approach to formalizing this trade-off, we first demonstrate and analyze a correlation between optimality in the IB sense and a novel generalization of convexity to this setting. In a second experiment, we manipulate various modeling parameters in the IB framework to determine which factors drive the correlation between convexity and optimality. We find that the convexity of the communicative need distribution plays an especially important role. These results move beyond showing that efficient communication can explain aspects of semantic typology into explanations for why that is the case by identifying which underlying factors are responsible.
- Abstract(参考訳): より最近の研究は、世界の言語の変化は効率的なコミュニケーションの観点から説明できると主張している。
本稿では,意味表現(意味型学)に着目し,コミュニケーションの効率化に寄与する要因について考察する。
このトレードオフを定式化するためにInformation Bottleneck (IB) アプローチを用いることで、まず、IB感覚における最適性と、この設定に対する新しい凸性の一般化との相関関係を実証し、解析する。
第2の実験では、ICBフレームワークの様々なモデリングパラメータを操作して、凸性と最適性の間の相関を駆動する要因を決定する。
コミュニケーションニーズ分布の凸性は,特に重要な役割を担っている。
これらの結果は、効率的なコミュニケーションが意味型論の側面を説明できることを示すことを超えて、その原因となる要因を特定することによって、その理由を説明する。
関連論文リスト
- Implicature in Interaction: Understanding Implicature Improves Alignment in Human-LLM Interaction [8.735329612895578]
インプリケーション(英: Implicature)は、人間とAIのアライメントに不可欠である。
本研究では,コンテキスト駆動型プロンプトに埋め込まれたユーザ意図を推論する大規模言語モデルを提案する。
その結果、より大きなモデルは人間の解釈をより緊密に近似し、小さなモデルは不規則な推論に苦しむことが明らかとなった。
論文 参考訳(メタデータ) (2025-10-29T11:49:42Z) - Understanding the Information Propagation Effects of Communication Topologies in LLM-based Multi-Agent Systems [58.95962217043371]
提案手法は, エージェントの出力の正確さ, 誤動作の有無を, 異なる範囲の位相の下で伝達する因果関係を解析するための枠組みである。
実験により,有益な情報拡散を保ちながらエラーの伝播を効果的に抑制する,適度に疎らなトポロジが,通常最適なタスク性能を達成できることが判明した。
本稿では,高密度グラフとスパースグラフの両方から接続パターンを融合させることにより,エラー抑制と有益な情報伝達のバランスをとる新しいトポロジ設計手法 EIB-leanrner を提案する。
論文 参考訳(メタデータ) (2025-05-29T11:21:48Z) - A primer on optimal transport for causal inference with observational data [0.0]
このレビューの目的は、最適な輸送と観測データによる因果関係の同定の間の驚くほど深い関係について紹介することである。
結果として、このレビューは、統計学、数学、計量学の様々な分野の言語と表記を統一することを目的としている。
論文 参考訳(メタデータ) (2025-03-10T19:51:37Z) - Causal Reasoning in Large Language Models: A Knowledge Graph Approach [6.5344638992876085]
大規模言語モデル(LLM)は一般的に、意味的に類似した情報を取得するか、あるいはチェーン・オブ・シントのような構造化されたプロンプトを通して推論能力を向上させることでパフォーマンスを向上させる。
本稿では,因果関係を利用した知識グラフに基づくランダムウォーク推論手法を提案する。
論文 参考訳(メタデータ) (2024-10-15T13:24:44Z) - Generative causal testing to bridge data-driven models and scientific theories in language neuroscience [82.995061475971]
脳における言語選択性の簡潔な説明を生成するためのフレームワークである生成因果テスト(GCT)を提案する。
GCTは機能的選択性に類似した脳領域の細粒度の違いを識別できることを示す。
論文 参考訳(メタデータ) (2024-10-01T15:57:48Z) - PACE: A Pragmatic Agent for Enhancing Communication Efficiency Using
Large Language Models [29.016842120305892]
本稿では,Large Language Models (LLM) を用いたPACE(Pragmatic Agent for Communication efficiency)に基づく画像実用的コミュニケーションフレームワークを提案する。
PACEは、意味認識、意図分解、意図指向コーディングを順次実行する。
実験的な検証のために,画像の実用的コミュニケーションデータセットとそれに対応する評価基準を構築した。
論文 参考訳(メタデータ) (2024-01-30T06:55:17Z) - From Heuristic to Analytic: Cognitively Motivated Strategies for
Coherent Physical Commonsense Reasoning [66.98861219674039]
ヒューリスティック分析推論(HAR)戦略は、モデル決定のための合理化のコヒーレンスを大幅に改善する。
以上の結果から, PLM推論の一貫性と信頼性を効果的に向上できる可能性が示唆された。
論文 参考訳(メタデータ) (2023-10-24T19:46:04Z) - Inducing Causal Structure for Abstractive Text Summarization [76.1000380429553]
要約データの因果構造を誘導する構造因果モデル(SCM)を導入する。
本稿では因果的要因を模倣できる因果的表現を学習するための因果性インスピレーション付き系列列列モデル(CI-Seq2Seq)を提案する。
2つの広く使われているテキスト要約データセットの実験結果は、我々のアプローチの利点を示している。
論文 参考訳(メタデータ) (2023-08-24T16:06:36Z) - Complementary Explanations for Effective In-Context Learning [77.83124315634386]
大規模言語モデル (LLM) は、説明のインプロンプトから学習する際、顕著な能力を示した。
この研究は、文脈内学習に説明が使用されるメカニズムをよりよく理解することを目的としている。
論文 参考訳(メタデータ) (2022-11-25T04:40:47Z) - Counterfactual Reasoning for Out-of-distribution Multimodal Sentiment
Analysis [56.84237932819403]
本稿では,OODの高次一般化に対するテキストモダリティの悪影響を推定・緩和することを目的とする。
そこで本研究では,マルチモーダル感情分析のためのモデルに依存しない反現実的フレームワークを考案した。
論文 参考訳(メタデータ) (2022-07-24T03:57:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。