論文の概要: The Semiotic Channel Principle: Measuring the Capacity for Meaning in LLM Communication
- arxiv url: http://arxiv.org/abs/2511.19550v1
- Date: Mon, 24 Nov 2025 13:06:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-26 17:37:04.089877
- Title: The Semiotic Channel Principle: Measuring the Capacity for Meaning in LLM Communication
- Title(参考訳): セミオティックチャネル原理:LLM通信における意味測定能力の測定
- Authors: Davide Picca,
- Abstract要約: 本稿では,Large Language Models (LLMs) 解析のための新しいセミオティックフレームワークを提案する。
我々はLLMを、出力がアクティブで非対称な人間の解釈を必要とするセミオティックエンジンとして概念化する。
本研究では、不透明なモデル内部から可観測的なテキストアーティファクトまでの分析を行い、広さと解読可能性の実証的な測定を可能にした。
- 参考スコア(独自算出の注目度): 0.7106986689736826
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper proposes a novel semiotic framework for analyzing Large Language Models (LLMs), conceptualizing them as stochastic semiotic engines whose outputs demand active, asymmetric human interpretation. We formalize the trade-off between expressive richness (semiotic breadth) and interpretive stability (decipherability) using information-theoretic tools. Breadth is quantified as source entropy, and decipherability as the mutual information between messages and human interpretations. We introduce a generative complexity parameter (lambda) that governs this trade-off, as both breadth and decipherability are functions of lambda. The core trade-off is modeled as an emergent property of their distinct responses to $λ$. We define a semiotic channel, parameterized by audience and context, and posit a capacity constraint on meaning transmission, operationally defined as the maximum decipherability by optimizing lambda. This reframing shifts analysis from opaque model internals to observable textual artifacts, enabling empirical measurement of breadth and decipherability. We demonstrate the framework's utility across four key applications: (i) model profiling; (ii) optimizing prompt/context design; (iii) risk analysis based on ambiguity; and (iv) adaptive semiotic systems. We conclude that this capacity-based semiotic approach offers a rigorous, actionable toolkit for understanding, evaluating, and designing LLM-mediated communication.
- Abstract(参考訳): 本稿では,Large Language Models (LLMs) 解析のための新しいセミオティック・フレームワークを提案し,出力が能動的で非対称な人間の解釈を必要とする確率的セミオティック・エンジンとして概念化した。
情報理論ツールを用いた表現豊かさ(セミティックブロードス)と解釈安定(解読可能性)のトレードオフを定式化する。
ブレッドスはソースエントロピーとして定量化され、メッセージと人間の解釈の相互情報として解読可能である。
ラムダの広さと解読可能性の両方がラムダの機能であるので、このトレードオフを管理する生成的複雑性パラメータ(lambda)を導入します。
中心的なトレードオフは、$λ$に対する異なる応答の創発的特性としてモデル化される。
オーディエンスとコンテキストによってパラメータ化されたセミオティックチャネルを定義し、ラムダを最適化することで最大解読可能性として操作的に定義される意味伝達の容量制約を仮定する。
このリフレーミングは、不透明なモデル内部から観測可能なテキストアーティファクトへと分析をシフトさせ、幅と解読可能性の実証的な測定を可能にする。
4つの主要なアプリケーションにまたがってフレームワークの実用性を実証する。
(i)モデルプロファイリング
(二)プロンプト/コンテキスト設計の最適化
三 曖昧性に基づくリスク分析、及び
(4)適応セミオティックシステム。
我々は、このキャパシティベースのセミオティックアプローチは、LSMによるコミュニケーションを理解し、評価し、設計するための厳密で実用的なツールキットを提供すると結論付けている。
関連論文リスト
- Stable Language Guidance for Vision-Language-Action Models [62.80963701282789]
残留セマンティックステアリング(Residual Semantic Steering)は、セマンティック実行から身体的余裕を逸脱する確率的フレームワークである。
RSSは最先端の堅牢性を実現し、敵対的な言語摂動の下でも性能を維持する。
論文 参考訳(メタデータ) (2026-01-07T16:16:10Z) - Understanding Textual Capability Degradation in Speech LLMs via Parameter Importance Analysis [54.53152524778821]
言語モデル(LLM)への音声の統合は、その能力を大幅に拡張したが、多くの場合、中核となるテキスト能力の弱さを犠牲にしている。
本稿では,パラメータ重要度推定に基づく分析フレームワークを提案する。
レイヤワイズ学習率スケジューリングとローランド適応(LoRA)の2つの緩和戦略について検討する。
実験結果から,両手法は完全な微調整よりもテキスト能力の維持が良好であるとともに,下流の質問応答性能も向上していることがわかった。
論文 参考訳(メタデータ) (2025-09-28T09:04:40Z) - Explaining multimodal LLMs via intra-modal token interactions [55.27436637894534]
MLLM(Multimodal Large Language Models)は、様々な視覚言語タスクにおいて顕著な成功を収めているが、その内部決定機構は十分に理解されていない。
モーダル内相互作用を利用した解釈可能性の向上を提案する。
論文 参考訳(メタデータ) (2025-09-26T14:39:13Z) - Modeling Open-World Cognition as On-Demand Synthesis of Probabilistic Models [93.1043186636177]
我々は、人々が分散表現と象徴表現の組み合わせを使って、新しい状況に合わせた見知らぬ精神モデルを構築するという仮説を探求する。
モデル合成アーキテクチャ」という概念の計算的実装を提案する。
我々は、新しい推論データセットに基づく人間の判断のモデルとして、MSAを評価した。
論文 参考訳(メタデータ) (2025-07-16T18:01:03Z) - InverseScope: Scalable Activation Inversion for Interpreting Large Language Models [5.670123459649656]
InverseScopeは、入力インバージョンを介して神経活性化を解釈するための仮定ライトでスケーラブルなフレームワークである。
高次元空間におけるサンプリングの非効率性に対処するために,新しい条件生成アーキテクチャを提案する。
また,サンプル入力上で計算された特徴整合率を用いて,解釈可能性仮説をテストする定量的評価プロトコルを導入する。
論文 参考訳(メタデータ) (2025-06-09T03:59:28Z) - Latent Diffusion Model Based Denoising Receiver for 6G Semantic Communication: From Stochastic Differential Theory to Application [11.385703484113552]
生成人工知能(GAI)を利用した新しい意味コミュニケーションフレームワークを提案する。
意味的特徴抽出のための変分オートエンコーダを組み合わせた潜在拡散モデル(LDM)に基づくセマンティックコミュニケーションフレームワークを提案する。
提案システムはゼロショットの一般化をサポートし,低SNRおよびアウト・オブ・ディストリビューション条件下での優れた性能を実現する訓練自由フレームワークである。
論文 参考訳(メタデータ) (2025-06-06T03:20:32Z) - Seeing Through Risk: A Symbolic Approximation of Prospect Theory [0.0]
リスク下での意思決定のための新しいシンボリックモデリングフレームワークを提案する。
提案手法は,不透明な実用曲線と確率重み付け関数を,透明でエフェクトサイズの誘導された特徴に置き換える。
数学的に定式化し、よく知られたフレーミング現象と損失回避現象を再現する能力を示し、合成データセットに対するエンドツーエンドの実証検証を提供する。
論文 参考訳(メタデータ) (2025-04-20T01:44:54Z) - Building Trust in Black-box Optimization: A Comprehensive Framework for Explainability [1.3812010983144802]
代理最適化(SO)は共通の解決法であるが、その独自性は説明可能性と透明性の欠如につながっている。
EmphInclusive Explainability Metrics for Surrogate Optimization (IEMSO)を提案する。
これらのメトリクスは、SOアプローチの透明性、信頼性、説明可能性を高める。
論文 参考訳(メタデータ) (2024-10-18T16:20:17Z) - From Feature Importance to Natural Language Explanations Using LLMs with RAG [4.204990010424084]
大規模言語モデル(LLM)の応答に外部知識リポジトリを活用して,トレーサブルな質問応答を導入する。
この知識リポジトリは、高レベルの特徴、特徴の重要性、代替確率を含む、モデルの出力に関するコンテキストの詳細を含む。
社会的・因果的・選択的・コントラスト的な4つの重要な特徴を、人間の説明に関する社会科学研究から一発のプロンプトへと統合し、応答生成過程を導く。
論文 参考訳(メタデータ) (2024-07-30T17:27:20Z) - Diffexplainer: Towards Cross-modal Global Explanations with Diffusion Models [51.21351775178525]
DiffExplainerは、言語ビジョンモデルを活用することで、マルチモーダルなグローバルな説明可能性を実現する新しいフレームワークである。
最適化されたテキストプロンプトに条件付けされた拡散モデルを使用し、クラス出力を最大化する画像を合成する。
生成した視覚的記述の分析により、バイアスと突発的特徴の自動識別が可能になる。
論文 参考訳(メタデータ) (2024-04-03T10:11:22Z) - Tuning-Free Accountable Intervention for LLM Deployment -- A
Metacognitive Approach [55.613461060997004]
大規模言語モデル(LLM)は、自然言語処理タスクの幅広い領域にわたる変換的進歩を触媒している。
我々は,自己認識型誤り識別と訂正機能を備えたLLMを実現するために,textbfCLEARと呼ばれる革新的なテキストメタ認知手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T19:18:53Z) - Large Language Models to Enhance Bayesian Optimization [57.474613739645605]
本稿では,大規模言語モデル(LLM)の能力をベイズ最適化に組み込む新しいアプローチであるLLAMBOを提案する。
高いレベルでは、自然言語のBO問題を枠組み化し、LLMが歴史的評価に照らした有望な解を反復的に提案し、評価することを可能にする。
以上の結果から,LLAMBOはゼロショットウォームスタートに有効であり,サロゲートモデリングや候補サンプリングの促進,特に観察が不十分な場合の探索の初期段階において有効であることが示唆された。
論文 参考訳(メタデータ) (2024-02-06T11:44:06Z) - Vocabulary-Defined Semantics: Latent Space Clustering for Improving In-Context Learning [32.178931149612644]
コンテキスト内学習により、言語モデルは下流のデータに適応したり、プロンプト内のデモとして少数のサンプルでタスクを組み込むことができる。
しかし、文脈内学習のパフォーマンスは、実演の質、形式、順序によって不安定である可能性がある。
語彙定義意味論(vocabulary-defined semantics)を提案する。
論文 参考訳(メタデータ) (2024-01-29T14:29:48Z) - DoLFIn: Distributions over Latent Features for Interpretability [8.807587076209568]
ニューラルネットワークモデルにおける解釈可能性を実現するための新しい戦略を提案する。
我々のアプローチは、確率を中心量として使う成功に基づいている。
DoLFInは解釈可能なソリューションを提供するだけでなく、古典的なCNNやBiLSTMテキスト分類よりも若干優れています。
論文 参考訳(メタデータ) (2020-11-10T18:32:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。