論文の概要: Formal Semantic Control over Language Models
- arxiv url: http://arxiv.org/abs/2602.00638v1
- Date: Sat, 31 Jan 2026 10:12:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.308124
- Title: Formal Semantic Control over Language Models
- Title(参考訳): 言語モデルによる形式的意味制御
- Authors: Yingji Zhang,
- Abstract要約: この論文は意味表現学習を進め、言語表現をより意味的に、幾何学的に解釈できるものにする。
VAEフレームワーク内でこの目標を追求し、2つの補完的な研究方向を探索する。
包括的な目的は、内部の意味表現を体系的に解釈できる言語モデルに移行することである。
- 参考スコア(独自算出の注目度): 2.7708787391533463
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This thesis advances semantic representation learning to render language representations or models more semantically and geometrically interpretable, and to enable localised, quasi-symbolic, compositional control through deliberate shaping of their latent space geometry. We pursue this goal within a VAE framework, exploring two complementary research directions: (i) Sentence-level learning and control: disentangling and manipulating specific semantic features in the latent space to guide sentence generation, with explanatory text serving as the testbed; and (ii) Reasoning-level learning and control: isolating and steering inference behaviours in the latent space to control NLI. In this direction, we focus on Explanatory NLI tasks, in which two premises (explanations) are provided to infer a conclusion. The overarching objective is to move toward language models whose internal semantic representations can be systematically interpreted, precisely structured, and reliably directed. We introduce a set of novel theoretical frameworks and practical methodologies, together with corresponding experiments, to demonstrate that our approaches enhance both the interpretability and controllability of latent spaces for natural language across the thesis.
- Abstract(参考訳): この論文は意味表現学習を進め、言語表現やモデルをより意味的に、幾何学的に解釈可能とし、潜在空間幾何学を意図的に形作ることによって、局所化され、準記号的、構成的制御を可能にする。
我々は、この目標をVAEフレームワーク内で追求し、2つの補完的な研究方向を探求する。
一 文レベルの学習及び制御:文生成を指導するために潜時空間における特定の意味的特徴を指差して操作し、説明文が試験台として機能すること。
(2)推論レベルの学習と制御:NLIを制御するために潜伏空間で推論行動の分離とステアリングを行う。
この方向では,2つの前提(説明)を設けて結論を導出する説明的NLIタスクに焦点をあてる。
包括的な目的は、内部の意味表現を体系的に解釈し、正確に構造化し、確実に指向できる言語モデルに移行することである。
提案手法は,論文全体にわたる自然言語に対する潜在空間の解釈可能性と制御性の向上を実証するため,新しい理論的枠組みと実践的方法論のセットを紹介する。
関連論文リスト
- Language as Mathematical Structure: Examining Semantic Field Theory Against Language Games [0.0]
大規模言語モデル(LLM)は、長年の言語的意味の理論を検証可能な、新しい経験的環境を提供する。
我々は、語彙場(Lexfelder)と言語場(Lingofelder)の概念を連続的な意味空間における相互作用構造として定式化する。
意味的規則性を捉える上でのLLMの成功は、言語が基礎となる数学的構造を示すという見方を支持すると論じる。
論文 参考訳(メタデータ) (2026-01-01T19:15:17Z) - On the Entity-Level Alignment in Crosslingual Consistency [62.33186691736433]
SubSubとSubInjは、主題の英語翻訳を言語間のプロンプトに統合し、実際のリコール精度と一貫性を大きく向上させた。
これらの介入はモデルの内部ピボット言語処理を通じて概念空間における実体表現のアライメントを強化する。
論文 参考訳(メタデータ) (2025-10-11T16:26:50Z) - Constructive Approach to Bidirectional Influence between Qualia Structure and Language Emergence [5.906966694759679]
本稿では,言語出現と主観的経験の構造の双方向的影響について考察する。
分布意味論を持つ言語の出現は、経験によって形成される内部表現の協調と関連していると仮定する。
論文 参考訳(メタデータ) (2024-09-14T11:03:12Z) - The Empty Signifier Problem: Towards Clearer Paradigms for
Operationalising "Alignment" in Large Language Models [18.16062736448993]
本稿では,大規模言語モデル(LLM)における「アライメント」の概念を,ポスト構造主義社会政治理論のレンズを通して論じる。
1) モデル行動のどの次元が重要か,2) 意味と定義がこれらの次元にどのように分類されるか,といったことを議論する枠組みを提案する。
透明性と批判的評価の文化を育成し,LLMと人間集団の整合性の複雑さをコミュニティがナビゲートするのを支援することを目的としている。
論文 参考訳(メタデータ) (2023-10-03T22:02:17Z) - BabySLM: language-acquisition-friendly benchmark of self-supervised
spoken language models [56.93604813379634]
音声表現を学習するための自己指導技術は、人間のラベルを必要とせずに、音声への露出から言語能力を高めることが示されている。
語彙および構文レベルで音声言語モデルを探索するために,言語習得に親しみやすいベンチマークを提案する。
テキストと音声のギャップを埋めることと、クリーンな音声とその内話のギャップを埋めることである。
論文 参考訳(メタデータ) (2023-06-02T12:54:38Z) - Multi-Relational Hyperbolic Word Embeddings from Natural Language
Definitions [5.763375492057694]
本稿では、そのような構造を明示的に活用し、定義から単語埋め込みを導出するマルチリレーショナルモデルを提案する。
経験的な分析は、フレームワークが望ましい構造的制約を課すのに役立つことを示している。
実験により、ユークリッド語よりもハイパーボリック語の埋め込みの方が優れていることが示された。
論文 参考訳(メタデータ) (2023-05-12T08:16:06Z) - An Inclusive Notion of Text [69.36678873492373]
テキストの概念の明確さは再現可能で一般化可能なNLPにとって不可欠である,と我々は主張する。
言語的および非言語的要素の2層分類を導入し,NLPモデリングに使用することができる。
論文 参考訳(メタデータ) (2022-11-10T14:26:43Z) - Contrastive Instruction-Trajectory Learning for Vision-Language
Navigation [66.16980504844233]
視覚言語ナビゲーション(VLN)タスクでは、エージェントが自然言語の指示でターゲットに到達する必要がある。
先行研究は、命令-軌道対間の類似点と相違点を識別できず、サブ命令の時間的連続性を無視する。
本稿では、類似したデータサンプル間の分散と、異なるデータサンプル間の分散を探索し、ロバストなナビゲーションのための独特な表現を学習するContrastive Instruction-Trajectory Learningフレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-08T06:32:52Z) - SLM: Learning a Discourse Language Representation with Sentence
Unshuffling [53.42814722621715]
談話言語表現を学習するための新しい事前学習目的である文レベル言語モデリングを導入する。
本モデルでは,この特徴により,従来のBERTの性能が大幅に向上することを示す。
論文 参考訳(メタデータ) (2020-10-30T13:33:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。