論文の概要: The Semiotic Channel Principle: Measuring the Capacity for Meaning in LLM Communication
- arxiv url: http://arxiv.org/abs/2511.19550v1
- Date: Mon, 24 Nov 2025 13:06:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-26 17:37:04.089877
- Title: The Semiotic Channel Principle: Measuring the Capacity for Meaning in LLM Communication
- Title(参考訳): セミオティックチャネル原理:LLM通信における意味測定能力の測定
- Authors: Davide Picca,
- Abstract要約: 本稿では,Large Language Models (LLMs) 解析のための新しいセミオティックフレームワークを提案する。
我々はLLMを、出力がアクティブで非対称な人間の解釈を必要とするセミオティックエンジンとして概念化する。
本研究では、不透明なモデル内部から可観測的なテキストアーティファクトまでの分析を行い、広さと解読可能性の実証的な測定を可能にした。
- 参考スコア(独自算出の注目度): 0.7106986689736826
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper proposes a novel semiotic framework for analyzing Large Language Models (LLMs), conceptualizing them as stochastic semiotic engines whose outputs demand active, asymmetric human interpretation. We formalize the trade-off between expressive richness (semiotic breadth) and interpretive stability (decipherability) using information-theoretic tools. Breadth is quantified as source entropy, and decipherability as the mutual information between messages and human interpretations. We introduce a generative complexity parameter (lambda) that governs this trade-off, as both breadth and decipherability are functions of lambda. The core trade-off is modeled as an emergent property of their distinct responses to $λ$. We define a semiotic channel, parameterized by audience and context, and posit a capacity constraint on meaning transmission, operationally defined as the maximum decipherability by optimizing lambda. This reframing shifts analysis from opaque model internals to observable textual artifacts, enabling empirical measurement of breadth and decipherability. We demonstrate the framework's utility across four key applications: (i) model profiling; (ii) optimizing prompt/context design; (iii) risk analysis based on ambiguity; and (iv) adaptive semiotic systems. We conclude that this capacity-based semiotic approach offers a rigorous, actionable toolkit for understanding, evaluating, and designing LLM-mediated communication.
- Abstract(参考訳): 本稿では,Large Language Models (LLMs) 解析のための新しいセミオティック・フレームワークを提案し,出力が能動的で非対称な人間の解釈を必要とする確率的セミオティック・エンジンとして概念化した。
情報理論ツールを用いた表現豊かさ(セミティックブロードス)と解釈安定(解読可能性)のトレードオフを定式化する。
ブレッドスはソースエントロピーとして定量化され、メッセージと人間の解釈の相互情報として解読可能である。
ラムダの広さと解読可能性の両方がラムダの機能であるので、このトレードオフを管理する生成的複雑性パラメータ(lambda)を導入します。
中心的なトレードオフは、$λ$に対する異なる応答の創発的特性としてモデル化される。
オーディエンスとコンテキストによってパラメータ化されたセミオティックチャネルを定義し、ラムダを最適化することで最大解読可能性として操作的に定義される意味伝達の容量制約を仮定する。
このリフレーミングは、不透明なモデル内部から観測可能なテキストアーティファクトへと分析をシフトさせ、幅と解読可能性の実証的な測定を可能にする。
4つの主要なアプリケーションにまたがってフレームワークの実用性を実証する。
(i)モデルプロファイリング
(二)プロンプト/コンテキスト設計の最適化
三 曖昧性に基づくリスク分析、及び
(4)適応セミオティックシステム。
我々は、このキャパシティベースのセミオティックアプローチは、LSMによるコミュニケーションを理解し、評価し、設計するための厳密で実用的なツールキットを提供すると結論付けている。
関連論文リスト
- Understanding Textual Capability Degradation in Speech LLMs via Parameter Importance Analysis [54.53152524778821]
言語モデル(LLM)への音声の統合は、その能力を大幅に拡張したが、多くの場合、中核となるテキスト能力の弱さを犠牲にしている。
本稿では,パラメータ重要度推定に基づく分析フレームワークを提案する。
レイヤワイズ学習率スケジューリングとローランド適応(LoRA)の2つの緩和戦略について検討する。
実験結果から,両手法は完全な微調整よりもテキスト能力の維持が良好であるとともに,下流の質問応答性能も向上していることがわかった。
論文 参考訳(メタデータ) (2025-09-28T09:04:40Z) - Modeling Open-World Cognition as On-Demand Synthesis of Probabilistic Models [93.1043186636177]
我々は、人々が分散表現と象徴表現の組み合わせを使って、新しい状況に合わせた見知らぬ精神モデルを構築するという仮説を探求する。
モデル合成アーキテクチャ」という概念の計算的実装を提案する。
我々は、新しい推論データセットに基づく人間の判断のモデルとして、MSAを評価した。
論文 参考訳(メタデータ) (2025-07-16T18:01:03Z) - InverseScope: Scalable Activation Inversion for Interpreting Large Language Models [5.670123459649656]
InverseScopeは、入力インバージョンを介して神経活性化を解釈するための仮定ライトでスケーラブルなフレームワークである。
高次元空間におけるサンプリングの非効率性に対処するために,新しい条件生成アーキテクチャを提案する。
また,サンプル入力上で計算された特徴整合率を用いて,解釈可能性仮説をテストする定量的評価プロトコルを導入する。
論文 参考訳(メタデータ) (2025-06-09T03:59:28Z) - Latent Diffusion Model Based Denoising Receiver for 6G Semantic Communication: From Stochastic Differential Theory to Application [11.385703484113552]
生成人工知能(GAI)を利用した新しい意味コミュニケーションフレームワークを提案する。
意味的特徴抽出のための変分オートエンコーダを組み合わせた潜在拡散モデル(LDM)に基づくセマンティックコミュニケーションフレームワークを提案する。
提案システムはゼロショットの一般化をサポートし,低SNRおよびアウト・オブ・ディストリビューション条件下での優れた性能を実現する訓練自由フレームワークである。
論文 参考訳(メタデータ) (2025-06-06T03:20:32Z) - Tuning-Free Accountable Intervention for LLM Deployment -- A
Metacognitive Approach [55.613461060997004]
大規模言語モデル(LLM)は、自然言語処理タスクの幅広い領域にわたる変換的進歩を触媒している。
我々は,自己認識型誤り識別と訂正機能を備えたLLMを実現するために,textbfCLEARと呼ばれる革新的なテキストメタ認知手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T19:18:53Z) - Large Language Models to Enhance Bayesian Optimization [57.474613739645605]
本稿では,大規模言語モデル(LLM)の能力をベイズ最適化に組み込む新しいアプローチであるLLAMBOを提案する。
高いレベルでは、自然言語のBO問題を枠組み化し、LLMが歴史的評価に照らした有望な解を反復的に提案し、評価することを可能にする。
以上の結果から,LLAMBOはゼロショットウォームスタートに有効であり,サロゲートモデリングや候補サンプリングの促進,特に観察が不十分な場合の探索の初期段階において有効であることが示唆された。
論文 参考訳(メタデータ) (2024-02-06T11:44:06Z) - Vocabulary-Defined Semantics: Latent Space Clustering for Improving In-Context Learning [32.178931149612644]
コンテキスト内学習により、言語モデルは下流のデータに適応したり、プロンプト内のデモとして少数のサンプルでタスクを組み込むことができる。
しかし、文脈内学習のパフォーマンスは、実演の質、形式、順序によって不安定である可能性がある。
語彙定義意味論(vocabulary-defined semantics)を提案する。
論文 参考訳(メタデータ) (2024-01-29T14:29:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。