論文の概要: BACH-V: Bridging Abstract and Concrete Human-Values in Large Language Models
- arxiv url: http://arxiv.org/abs/2601.14007v1
- Date: Tue, 20 Jan 2026 14:26:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:23.350212
- Title: BACH-V: Bridging Abstract and Concrete Human-Values in Large Language Models
- Title(参考訳): BACH-V:大規模言語モデルにおける抽象的・具体的な人的価値のブリッジ
- Authors: Junyu Zhang, Yipeng Kang, Jiong Guo, Jiayu Zhan, Junqi Wang,
- Abstract要約: 本稿では,概念的理解を3つの能力に分解する抽象化基盤フレームワークを提案する。
人間の価値観をテストベッドとして利用し、探索(内部アクティベーションにおける値トレースの検出)とステアリング(振る舞いを変えるための表現の修正)を採用する。
その結果,具体的な事象の物語や意思決定の推論において,抽象的価値記述のみに基づいて訓練された診断プローブが同一の値を確実に検出できることが判明した。
- 参考スコア(独自算出の注目度): 13.750822025397904
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Do large language models (LLMs) genuinely understand abstract concepts, or merely manipulate them as statistical patterns? We introduce an abstraction-grounding framework that decomposes conceptual understanding into three capacities: interpretation of abstract concepts (Abstract-Abstract, A-A), grounding of abstractions in concrete events (Abstract-Concrete, A-C), and application of abstract principles to regulate concrete decisions (Concrete-Concrete, C-C). Using human values as a testbed - given their semantic richness and centrality to alignment - we employ probing (detecting value traces in internal activations) and steering (modifying representations to shift behavior). Across six open-source LLMs and ten value dimensions, probing shows that diagnostic probes trained solely on abstract value descriptions reliably detect the same values in concrete event narratives and decision reasoning, demonstrating cross-level transfer. Steering reveals an asymmetry: intervening on value representations causally shifts concrete judgments and decisions (A-C, C-C), yet leaves abstract interpretations unchanged (A-A), suggesting that encoded abstract values function as stable anchors rather than malleable activations. These findings indicate LLMs maintain structured value representations that bridge abstraction and action, providing a mechanistic and operational foundation for building value-driven autonomous AI systems with more transparent, generalizable alignment and control.
- Abstract(参考訳): 大きな言語モデル(LLM)は抽象概念を真に理解しているか、それとも単に統計パターンとして扱うのか?
抽象概念の解釈(抽象概念,A-A)、具体的事象における抽象概念の理解(抽象概念,A-C)、具体的決定を規定する抽象原理の適用(抽象概念,C-C)の3つの能力に概念的理解を分解する抽象化基盤フレームワークを導入する。
人間の価値をテストベッドとして – セマンティックな豊かさとアライメントの中央性 – を使用することで,探索(内部アクティベーションにおける値トレースの検出)とステアリング(振る舞いを変えるための表現の修正)を採用します。
6つのオープンソースLCMと10の値次元にわたる調査の結果、抽象的な値記述のみに基づいて訓練された診断プローブが、具体的なイベントの物語や意思決定の推論において、同じ値を確実に検出し、クロスレベルな転送を示すことが示されている。
値表現の介入は具体的な判断と決定(A-C, C-C)を因果的にシフトさせるが、抽象的な解釈は変化しない(A-A)。
これらの結果は、LLMが抽象化とアクションをブリッジする構造化された価値表現を維持し、より透明で一般化可能なアライメントとコントロールを備えた、価値駆動型自律AIシステムを構築するための機械的かつ運用的な基盤を提供することを示している。
関連論文リスト
- Using Large Language Models for Abstraction of Planning Domains - Extended Version [6.021787236982658]
PDDLにおけるエージェントの具体的な振る舞いをモデル化し、大規模言語モデル(LLM)を用いた文脈内学習の利用について検討する。
代替具体的なアクションの選択の抽象化、具体的なアクションのシーケンスの抽象化、アクション/述語パラメータの抽象化の3つのカテゴリについて検討する。
生成された抽象PDDLドメインと問題インスタンスは、シンボル検証ツールと人間の専門家によってチェックされる。
論文 参考訳(メタデータ) (2025-10-23T06:27:03Z) - ActivationReasoning: Logical Reasoning in Latent Activation Spaces [43.17973499652433]
大きな言語モデル (LLM) は、流動的なテキストを生成するのに優れているが、内部の推論は不透明で制御が難しいままである。
LLMの潜在空間に明示的な論理的推論を組み込むフレームワークである ActivationReasoning (AR) を導入する。
ARは推論の複雑さで堅牢にスケールし、抽象的でコンテキストに敏感なタスクに一般化し、モデルバックボーン間で転送する。
論文 参考訳(メタデータ) (2025-10-21T00:21:04Z) - Benchmarking Abstract and Reasoning Abilities Through A Theoretical Perspective [59.7140089198992]
抽象的推論を本質的なパターンを抽出する能力として定義する数学的枠組みを開発する。
基本的な推論精度を計測する(scoreGamma)と、特定のシンボルに依存するモデルの定量化(scoreDelta)である。
論文 参考訳(メタデータ) (2025-05-28T09:02:45Z) - Seeing the Abstract: Translating the Abstract Language for Vision Language Models [13.065703240655973]
本研究は,抽象表現を持つ高表現領域であるファッション領域に焦点をあてる。
最近の大規模マルチモーダルファッションデータセットを分析することで、抽象用語が支配的な存在であることが分かる。
本稿では, 抽象表現をよく表現されたコンクリートにシフトさせるための, 学習不要でモデルに依存しない ACT (Abstract-to-Concrete Translator) を提案する。
論文 参考訳(メタデータ) (2025-05-06T07:14:10Z) - Improving Chain-of-Thought Reasoning via Quasi-Symbolic Abstractions [25.337811496479265]
CoT(Chain-of-Though)は、大規模言語モデルにおける推論のための一般的な戦略である。
準シンボリックな説明を通じて,LLMを高レベルの抽象化で動作させる,CoTのバリエーションであるQuaSARを提案する。
実験の結果,準記号的抽象化はCoT法を最大8%精度で改善できることがわかった。
論文 参考訳(メタデータ) (2025-02-18T07:58:48Z) - Building Minimal and Reusable Causal State Abstractions for
Reinforcement Learning [63.58935783293342]
Causal Bisimulation Modeling (CBM) は、各タスクのダイナミクスと報酬関数の因果関係を学習し、最小限のタスク固有の抽象化を導出する手法である。
CBMの学習された暗黙的ダイナミクスモデルは、明確なものよりも根底にある因果関係と状態抽象化を正確に識別する。
論文 参考訳(メタデータ) (2024-01-23T05:43:15Z) - AbsPyramid: Benchmarking the Abstraction Ability of Language Models with a Unified Entailment Graph [62.685920585838616]
抽象能力は人間の知性において必須であり、言語モデルでは未探索のままである。
本稿では、抽象知識の221Kテキスト記述を統一したエンテーメントグラフであるAbsPyramidを提案する。
論文 参考訳(メタデータ) (2023-11-15T18:11:23Z) - Does Deep Learning Learn to Abstract? A Systematic Probing Framework [69.2366890742283]
抽象化はディープラーニングモデルにとって望ましい機能であり、具体的なインスタンスから抽象概念を誘導し、学習コンテキストを超えて柔軟に適用することを意味する。
本稿では,伝達可能性の観点から,ディープラーニングモデルの抽象化能力を検討するための体系的探索フレームワークを提案する。
論文 参考訳(メタデータ) (2023-02-23T12:50:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。