論文の概要: On the Limitations of Steering in Language Model Alignment
- arxiv url: http://arxiv.org/abs/2505.01162v1
- Date: Fri, 02 May 2025 10:08:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-05 17:21:19.989746
- Title: On the Limitations of Steering in Language Model Alignment
- Title(参考訳): 言語モデルアライメントにおけるステアリングの限界について
- Authors: Chebrolu Niranjan, Kokil Jaidka, Gerard Christopher Yeo,
- Abstract要約: ステアリングベクトルの限界をアライメント機構として評価する枠組みを提案する。
本研究は,トランスフォーマーフックの介入とアントロニムに基づく関数ベクトルの枠組みを用いて,ステアリング効果におけるプロンプト構造とコンテキスト複雑さの役割を評価する。
- 参考スコア(独自算出の注目度): 10.014248704653
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Steering vectors are a promising approach to aligning language model behavior at inference time. In this paper, we propose a framework to assess the limitations of steering vectors as alignment mechanisms. Using a framework of transformer hook interventions and antonym-based function vectors, we evaluate the role of prompt structure and context complexity in steering effectiveness. Our findings indicate that steering vectors are promising for specific alignment tasks, such as value alignment, but may not provide a robust foundation for general-purpose alignment in LLMs, particularly in complex scenarios. We establish a methodological foundation for future investigations into steering capabilities of reasoning models.
- Abstract(参考訳): ステアリングベクトルは、推論時に言語モデルの振る舞いを調整するための有望なアプローチである。
本稿では, ステアリングベクトルの限界をアライメント機構として評価する枠組みを提案する。
本研究は,トランスフォーマーフックの介入とアントロニムに基づく関数ベクトルの枠組みを用いて,ステアリング効果におけるプロンプト構造とコンテキスト複雑さの役割を評価する。
以上の結果から, ステアリングベクトルは値アライメントなどの特定のアライメントタスクに対して有望であるが, LLMにおける汎用アライメント, 特に複雑なシナリオにおけるロバストな基盤にはならない可能性が示唆された。
推論モデルの操舵能力に関する今後の研究のための方法論的基盤を確立する。
関連論文リスト
- Investigating Generalization of One-shot LLM Steering Vectors [21.2431937128876]
本稿では,1つのトレーニング例に基づいて,勾配降下によるステアリングベクトルの最適化を提案する。
得られたベクトルは、複数のモデルにおける安全関連挙動を効果的に媒介する。
論文 参考訳(メタデータ) (2025-02-26T06:13:01Z) - Improving Instruction-Following in Language Models through Activation Steering [58.876600545898675]
命令固有ベクトル表現を言語モデルから導出し,それに従ってモデルをステアリングする。
提案手法は,出力形式や長さ,単語の包摂といった制約に対するモデル適合性をいかに向上させるかを示す。
本研究は,アクティベーションステアリングが言語生成におけるきめ細かい制御に実用的でスケーラブルなアプローチを提供することを示す。
論文 参考訳(メタデータ) (2024-10-15T08:38:20Z) - Analyzing the Generalization and Reliability of Steering Vectors [8.253773195379166]
ステアリングベクトルは分布内および分布外の両方にかなりの制限があることを示す。
分散において、ステアビリティは異なる入力間で高度に変動する。
アウト・オブ・ディストリビューション(out-of-distribution)、ステアリングベクトル(steering vector)はよく一般化されるが、いくつかの概念はプロンプトの合理的な変化に対して脆弱である。
論文 参考訳(メタデータ) (2024-07-17T08:32:03Z) - Context-aware Fine-tuning of Self-supervised Speech Models [56.95389222319555]
微調整におけるコンテキスト,すなわち周辺セグメントの使用について検討する。
我々はコンテキスト認識ファインチューニングと呼ばれる新しいアプローチを提案する。
いくつかの下流タスクに対して,SLUE と Libri-light ベンチマークを用いて提案手法の評価を行った。
論文 参考訳(メタデータ) (2022-12-16T15:46:15Z) - Guiding the PLMs with Semantic Anchors as Intermediate Supervision:
Towards Interpretable Semantic Parsing [57.11806632758607]
本稿では,既存の事前学習言語モデルを階層型デコーダネットワークに組み込むことを提案する。
第一原理構造をセマンティックアンカーとすることで、2つの新しい中間管理タスクを提案する。
いくつかのセマンティック解析ベンチマークで集中的な実験を行い、我々のアプローチがベースラインを一貫して上回ることを示す。
論文 参考訳(メタデータ) (2022-10-04T07:27:29Z) - Extracting Latent Steering Vectors from Pretrained Language Models [14.77762401765532]
本研究では,言語モデルデコーダから直接潜在ベクトルを抽出できることを示す。
実験により、ステアリングベクトルが存在し、それが言語モデルの隠れ状態に追加されると、ほぼ完璧にターゲット文を生成することが示された。
テキスト類似度ベンチマークで評価すると, ステアリングベクトル間の距離が文類似度を反映していることが分かる。
論文 参考訳(メタデータ) (2022-05-10T19:04:37Z) - Target-Embedding Autoencoders for Supervised Representation Learning [111.07204912245841]
本稿では,対象空間が高次元な純粋教師付き環境における一般化の枠組みを解析する。
我々は、教師付き予測のための目標埋め込みオートエンコーダ(TEA)の一般的なフレームワークのモチベーションと形式化を行い、特徴とターゲットの予測の両方から予測可能なように最適化された中間潜在表現を学習する。
論文 参考訳(メタデータ) (2020-01-23T02:37:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。