論文の概要: VRAIL: Vectorized Reward-based Attribution for Interpretable Learning
- arxiv url: http://arxiv.org/abs/2506.16014v1
- Date: Thu, 19 Jun 2025 04:21:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-23 19:00:04.935119
- Title: VRAIL: Vectorized Reward-based Attribution for Interpretable Learning
- Title(参考訳): VRAIL: 解釈可能な学習のためのベクトル化リワードに基づく属性
- Authors: Jina Kim, Youjin Jang, Jeongjin Han,
- Abstract要約: VRAILは、状態特徴から解釈可能な重み表現を学ぶ、価値に基づく強化学習(RL)のためのフレームワークである。
VRAILは、状態特徴を用いた推定値関数に適合する深層学習(DL)ステージと、これを用いて潜在ベース報酬変換による学習を形作るRLステージの2段階で構成されている。
- 参考スコア(独自算出の注目度): 3.8165295526908234
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose VRAIL (Vectorized Reward-based Attribution for Interpretable Learning), a bi-level framework for value-based reinforcement learning (RL) that learns interpretable weight representations from state features. VRAIL consists of two stages: a deep learning (DL) stage that fits an estimated value function using state features, and an RL stage that uses this to shape learning via potential-based reward transformations. The estimator is modeled in either linear or quadratic form, allowing attribution of importance to individual features and their interactions. Empirical results on the Taxi-v3 environment demonstrate that VRAIL improves training stability and convergence compared to standard DQN, without requiring environment modifications. Further analysis shows that VRAIL uncovers semantically meaningful subgoals, such as passenger possession, highlighting its ability to produce human-interpretable behavior. Our findings suggest that VRAIL serves as a general, model-agnostic framework for reward shaping that enhances both learning and interpretability.
- Abstract(参考訳): 本稿では,VRAIL(Vectorized Reward-based Attribution for Interpretable Learning)を提案する。
VRAILは、状態特徴を用いた推定値関数に適合する深層学習(DL)ステージと、これを用いて潜在ベース報酬変換による学習を形作るRLステージの2段階で構成されている。
推定器は線形または二次形式のいずれかでモデル化され、個々の特徴とその相互作用に重要性が寄与する。
Taxi-v3環境に関する実証実験の結果,VRAILは環境修正を必要とせず,通常のDQNに比べてトレーニングの安定性と収束性を向上することが示された。
さらなる分析により、VRAILは、乗客の所有のような意味論的に意味のあるサブゴールを明らかにし、人間の解釈可能な行動を生み出す能力を強調している。
以上の結果から,VRAILは報酬形成のための一般的なモデルに依存しないフレームワークとして機能し,学習と解釈性の両方を高めることが示唆された。
関連論文リスト
- VLM-R1: A Stable and Generalizable R1-style Large Vision-Language Model [29.524164786422368]
最近、DeepSeek R1は、強化学習が大規模言語モデル(LLM)の推論能力を大幅に改善できることを示した。
視覚言語モデル(VLM)へのR1型強化学習の拡張について検討する。
VLM-R1 は,汎用視覚言語タスクにおける VLM の性能向上のために RL を利用した専用フレームワークである。
論文 参考訳(メタデータ) (2025-04-10T10:05:15Z) - Parameter-Efficient and Memory-Efficient Tuning for Vision Transformer: A Disentangled Approach [87.8330887605381]
本稿では,学習可能なパラメータをわずかに限定して,事前学習した視覚変換器を下流認識タスクに適用する方法を示す。
学習可能で軽量なモジュールを用いてタスク固有のクエリを合成する。
本手法はメモリ制約下での最先端性能を実現し,実環境における適用性を示す。
論文 参考訳(メタデータ) (2024-07-09T15:45:04Z) - DETAIL: Task DEmonsTration Attribution for Interpretable In-context Learning [75.68193159293425]
インコンテキスト学習(ICL)により、トランスフォーマーベースの言語モデルでは、パラメータを更新することなく、いくつかの"タスクデモ"で特定のタスクを学習することができる。
ICLの特徴に対処する影響関数に基づく帰属手法DETAILを提案する。
ホワイトボックスモデルで得られた属性スコアがブラックボックスモデルに転送可能であることを示すことにより、モデル性能を向上させる上で、DETAILの広範な適用性を実験的に証明する。
論文 参考訳(メタデータ) (2024-05-22T15:52:52Z) - SPOT: Scalable 3D Pre-training via Occupancy Prediction for Learning Transferable 3D Representations [76.45009891152178]
トレーニング-ファインタニングアプローチは、さまざまな下流データセットとタスクをまたいだトレーニング済みのバックボーンを微調整することで、ラベル付けの負担を軽減することができる。
本稿では, 一般表現学習が, 占領予測のタスクを通じて達成できることを, 初めて示す。
本研究は,LiDAR 点の理解を促進するとともに,LiDAR の事前訓練における今後の進歩の道を開くことを目的とする。
論文 参考訳(メタデータ) (2023-09-19T11:13:01Z) - Uncovering the Hidden Cost of Model Compression [43.62624133952414]
視覚プロンプティングは、コンピュータビジョンにおける伝達学習の重要な方法として登場した。
モデル圧縮は視覚的プロンプトベース転送の性能に有害である。
しかし、量子化によってモデルが圧縮されるとき、キャリブレーションに対する負の効果は存在しない。
論文 参考訳(メタデータ) (2023-08-29T01:47:49Z) - Improving VAE-based Representation Learning [26.47244578124654]
優れた表現にはどのような特性が必要か,また異なるVAE構造選択が学習特性に与える影響について検討する。
ローカルな特徴を学習するデコーダを使用することで、残りのグローバルな特徴を潜伏者によってうまく捉えられることを示す。
論文 参考訳(メタデータ) (2022-05-28T23:00:18Z) - Scalable Rule-Based Representation Learning for Interpretable
Classification [12.736847587988853]
ルールベースのLearner Representation (RRL)は、データ表現と分類のための解釈可能な非ファジィ規則を学習する。
RRLは容易に調整でき、異なるシナリオの分類精度とモデルの複雑さのトレードオフを得ることができる。
論文 参考訳(メタデータ) (2021-09-30T13:07:42Z) - A Framework to Learn with Interpretation [2.3741312212138896]
本稿では,予測モデルとその関連解釈モデルを共同で学習する新しい枠組みを提案する。
我々は,選択した隠れ層の出力を入力として取り込む,高レベル属性関数の小型辞書を求める。
学習した機能を視覚化する詳細なパイプラインも開発されている。
論文 参考訳(メタデータ) (2020-10-19T09:26:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。