論文の概要: Discovering Semantic Subdimensions through Disentangled Conceptual Representations
- arxiv url: http://arxiv.org/abs/2508.21436v1
- Date: Fri, 29 Aug 2025 09:04:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-01 19:45:10.979602
- Title: Discovering Semantic Subdimensions through Disentangled Conceptual Representations
- Title(参考訳): 対角的概念表現による意味的部分次元の発見
- Authors: Yunhao Zhang, Shaonan Wang, Nan Lin, Xinyi Dong, Chong Li, Chengqing Zong,
- Abstract要約: 本稿では, 粗粒度セマンティックディメンションの基礎となるサブディメンジョンを解明するための新しい枠組みを提案する。
本稿では,大言語モデルから複数のサブ埋め込みへの単語埋め込みを分解するDCSRM(Disentangled Continuous Representation Model)を提案する。
これらのサブエンベディングを用いて、解釈可能なセマンティックサブ次元の集合を同定する。
我々の研究は、概念的意味のよりきめ細かな解釈可能な意味のサブディメンジョンを提供する。
- 参考スコア(独自算出の注目度): 38.66662397064128
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Understanding the core dimensions of conceptual semantics is fundamental to uncovering how meaning is organized in language and the brain. Existing approaches often rely on predefined semantic dimensions that offer only broad representations, overlooking finer conceptual distinctions. This paper proposes a novel framework to investigate the subdimensions underlying coarse-grained semantic dimensions. Specifically, we introduce a Disentangled Continuous Semantic Representation Model (DCSRM) that decomposes word embeddings from large language models into multiple sub-embeddings, each encoding specific semantic information. Using these sub-embeddings, we identify a set of interpretable semantic subdimensions. To assess their neural plausibility, we apply voxel-wise encoding models to map these subdimensions to brain activation. Our work offers more fine-grained interpretable semantic subdimensions of conceptual meaning. Further analyses reveal that semantic dimensions are structured according to distinct principles, with polarity emerging as a key factor driving their decomposition into subdimensions. The neural correlates of the identified subdimensions support their cognitive and neuroscientific plausibility.
- Abstract(参考訳): 概念意味論の中核的な側面を理解することは、言語と脳の中で意味がどのように組織化されているかを明らかにするのに基本的である。
既存のアプローチはしばしば、より微細な概念的区別を見越して、より広い表現のみを提供する事前定義された意味的次元に依存している。
本稿では, 粗粒状セマンティックディメンションの基礎となるサブディメンジョンを解明するための新しい枠組みを提案する。
具体的には、大言語モデルから複数のサブ埋め込みへの単語埋め込みを分解し、それぞれに特定の意味情報をエンコードするDisentangled Continuous Semantic Representation Model (DCSRM)を導入する。
これらのサブエンベディングを用いて、解釈可能なセマンティックサブ次元の集合を同定する。
神経の可視性を評価するため,これらの部分次元を脳の活性化にマッピングするためにボクセルエンコーディングモデルを適用した。
我々の研究は、概念的意味のよりきめ細かな解釈可能な意味のサブディメンジョンを提供する。
さらに分析したところ、意味的次元は異なる原理に従って構造化されており、極性はそれらの分解をサブ次元に導く重要な要因として現れる。
同定されたサブ次元の神経相関は、その認知的および神経科学的妥当性を支持する。
関連論文リスト
- On the Geometry of Semantics in Next-token Prediction [27.33243506775655]
現代の言語モデルは、次世代の予測によってのみ訓練されているにもかかわらず、言語的な意味を捉えている。
本研究では,この概念的にシンプルな学習目標が,潜在意味概念と文法概念を抽出し,符号化するモデルにどのように寄与するかを検討する。
我々の研究は、分布意味論、神経崩壊幾何学、ニューラルネットワークトレーニングのダイナミクスを橋渡しし、NTPの暗黙のバイアスがどのように言語モデルにおける意味表現の出現を形作るかについての洞察を提供する。
論文 参考訳(メタデータ) (2025-05-13T08:46:04Z) - Identifying and interpreting non-aligned human conceptual
representations using language modeling [0.0]
先天性失明は,a-モダル語と知覚関連言語ドメインの両方において概念的再編成を引き起こすことを示す。
視覚障害者は、より強く社会的・認知的な意味と、行動に関連する動詞を関連づける。
一部の動詞では、盲目と盲目の表現は非常に似ている。
論文 参考訳(メタデータ) (2024-03-10T13:02:27Z) - Domain Embeddings for Generating Complex Descriptions of Concepts in
Italian Language [65.268245109828]
電子辞書から抽出した言語情報と語彙情報に富んだ分布意味資源を提案する。
リソースは21のドメイン固有の行列と1つの包括的なマトリックスとグラフィカルユーザインタフェースから構成される。
本モデルは,具体的概念知識に直接関連した行列を選択することにより,概念の意味的記述の推論を容易にする。
論文 参考訳(メタデータ) (2024-02-26T15:04:35Z) - A Geometric Notion of Causal Probing [85.49839090913515]
線形部分空間仮説は、言語モデルの表現空間において、動詞数のような概念に関するすべての情報が線形部分空間に符号化されていることを述べる。
理想線型概念部分空間を特徴づける内在的基準のセットを与える。
2つの言語モデルにまたがる少なくとも1つの概念に対して、この概念のサブスペースは、生成された単語の概念値を精度良く操作することができる。
論文 参考訳(メタデータ) (2023-07-27T17:57:57Z) - Hierarchical Semantic Tree Concept Whitening for Interpretable Image
Classification [19.306487616731765]
ポストホック分析は、モデルに自然に存在するパターンやルールのみを発見することができる。
我々は、隠された層における人間の理解可能な概念の表現を変えるために、積極的に知識を注入する。
本手法は,モデル分類性能に悪影響を及ぼすことなく,セマンティックな概念の絡み合いを良くし,モデルの解釈可能性を向上させる。
論文 参考訳(メタデータ) (2023-07-10T04:54:05Z) - Agentivit\`a e telicit\`a in GilBERTo: implicazioni cognitive [77.71680953280436]
本研究の目的は,トランスフォーマーに基づくニューラルネットワークモデルが語彙意味論を推論するかどうかを検討することである。
考慮される意味的性質は、テリシティ(定性とも組み合わされる)と作用性である。
論文 参考訳(メタデータ) (2023-07-06T10:52:22Z) - Visual representations in the human brain are aligned with large language models [7.779248296336383]
大規模言語モデル(LLM)は,脳が自然界から抽出した複雑な視覚情報をモデル化するのに有用であることを示す。
次に、画像入力をLLM表現に変換するために、ディープニューラルネットワークモデルを訓練する。
論文 参考訳(メタデータ) (2022-09-23T17:34:33Z) - Visual Superordinate Abstraction for Robust Concept Learning [80.15940996821541]
概念学習は言語意味論と結びついた視覚表現を構成する。
視覚概念の本質的な意味的階層を探索する失敗のボトルネックについて説明する。
本稿では,意味認識型視覚サブ空間を明示的にモデル化するビジュアル・スーパーオーディネート・抽象化・フレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-28T14:27:38Z) - Towards Visual Semantics [17.1623244298824]
私たちは、人間の視覚的知覚の精神表現、すなわち概念の構築方法を研究します。
本稿では,分類概念と呼ばれる概念に対応する物質概念を学習する理論とアルゴリズムを提案する。
予備的な実験は、アルゴリズムが正しい精度で属と分化の概念を取得することを証明している。
論文 参考訳(メタデータ) (2021-04-26T07:28:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。