論文の概要: From Knots to Knobs: Towards Steerable Collaborative Filtering Using Sparse Autoencoders
- arxiv url: http://arxiv.org/abs/2601.11182v1
- Date: Fri, 16 Jan 2026 10:58:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-19 20:21:50.459305
- Title: From Knots to Knobs: Towards Steerable Collaborative Filtering Using Sparse Autoencoders
- Title(参考訳): ノットからノブへ:スパースオートエンコーダを用いたステアブル協調フィルタリングを目指して
- Authors: Martin Spišák, Ladislav Peška, Petr Škoda, Vojtěch Vančura, Rodrigo Alves,
- Abstract要約: 本稿では,コラボレーティブフィルタにオートエンコーダを適用した最初の例である。
意味概念と個々のニューロン間の適切なマッピング関数を提案する。
また、この表現を利用して、望ましい方向にレコメンデーションを操る、シンプルで効果的な方法も評価する。
- 参考スコア(独自算出の注目度): 8.744951561204507
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Sparse autoencoders (SAEs) have recently emerged as pivotal tools for introspection into large language models. SAEs can uncover high-quality, interpretable features at different levels of granularity and enable targeted steering of the generation process by selectively activating specific neurons in their latent activations. Our paper is the first to apply this approach to collaborative filtering, aiming to extract similarly interpretable features from representations learned purely from interaction signals. In particular, we focus on a widely adopted class of collaborative autoencoders (CFAEs) and augment them by inserting an SAE between their encoder and decoder networks. We demonstrate that such representation is largely monosemantic and propose suitable mapping functions between semantic concepts and individual neurons. We also evaluate a simple yet effective method that utilizes this representation to steer the recommendations in a desired direction.
- Abstract(参考訳): スパースオートエンコーダ(SAE)は、最近、大規模な言語モデルへのイントロスペクションのための重要なツールとして登場した。
SAEは、異なるレベルの粒度の高品質で解釈可能な特徴を明らかにすることができ、潜在活性化において特定のニューロンを選択的に活性化することにより、生成プロセスのターゲットステアリングを可能にする。
本論文は, 相互作用信号から純粋に学習した表現から類似の解釈可能な特徴を抽出することを目的とした, 協調フィルタリングに本手法を適用した最初の試みである。
特に、広く採用されているコラボレーティブオートエンコーダ(CFAE)のクラスに着目し、それらをエンコーダネットワークとデコーダネットワークの間にSAEを挿入することで拡張する。
このような表現は、主に単意味であり、意味論的概念と個々のニューロン間の適切なマッピング関数を提案する。
また、この表現を利用して、望ましい方向にレコメンデーションを操る、シンプルで効果的な方法も評価する。
関連論文リスト
- Evaluating Sparse Autoencoders: From Shallow Design to Matching Pursuit [23.806945495163774]
スパースオートエンコーダ(SAE)は近年,解釈可能性の中心的なツールとなっている。
本稿では,MNISTを用いた制御環境でのSAEの評価を行う。
我々はそれらをMP-SAE(Matching Pursuit)をアンロールする反復SAEと比較する。
論文 参考訳(メタデータ) (2025-06-05T16:57:58Z) - Sparse Autoencoder Insights on Voice Embeddings [3.2377830280631468]
本研究では,タイタネットモデルから発生する話者埋め込みに対して,スパースオートエンコーダを適用した。
抽出した特徴は, 特徴分割やステアリングなど, 大規模言語モデルの埋め込みに類似した特徴を示す。
解析の結果,オートエンコーダは言語や音楽などの特徴を識別・操作できることがわかった。
論文 参考訳(メタデータ) (2025-01-31T19:21:43Z) - Disentangling Dense Embeddings with Sparse Autoencoders [0.0]
スパースオートエンコーダ(SAE)は、複雑なニューラルネットワークから解釈可能な特徴を抽出する可能性を示している。
大規模言語モデルからの高密度テキスト埋め込みに対するSAEの最初の応用の1つを提示する。
その結果,解釈可能性を提供しながら意味的忠実さを保っていることが明らかとなった。
論文 参考訳(メタデータ) (2024-08-01T15:46:22Z) - Triple-Encoders: Representations That Fire Together, Wire Together [51.15206713482718]
コントラスト学習(Contrastive Learning)は、バイエンコーダを介して発話間の相対距離を埋め込み空間に符号化する表現学習法である。
本研究では,これら独立に符号化された発話から分散発話混合物を効率よく計算する三重エンコーダを提案する。
トリプルエンコーダはバイエンコーダよりも大幅に改善され、シングルベクトル表現モデルよりもゼロショットの一般化が向上することがわかった。
論文 参考訳(メタデータ) (2024-02-19T18:06:02Z) - Improving Deep Representation Learning via Auxiliary Learnable Target Coding [69.79343510578877]
本稿では,深層表現学習の補助的正規化として,新たな学習対象符号化を提案する。
具体的には、より差別的な表現を促進するために、マージンベースの三重項損失と、提案した目標符号上の相関整合損失を設計する。
論文 参考訳(メタデータ) (2023-05-30T01:38:54Z) - Wav2Seq: Pre-training Speech-to-Text Encoder-Decoder Models Using Pseudo
Languages [58.43299730989809]
本稿では,音声データに対するエンコーダ・デコーダモデルの両部分を事前学習するための,最初の自己教師型アプローチであるWav2Seqを紹介する。
我々は、コンパクトな離散表現として擬似言語を誘導し、自己教師付き擬似音声認識タスクを定式化する。
このプロセスは独自のものであり、低コストの第2段階のトレーニングとして適用することができる。
論文 参考訳(メタデータ) (2022-05-02T17:59:02Z) - Multi-Modal Zero-Shot Sign Language Recognition [51.07720650677784]
マルチモーダルなゼロショット手話認識モデルを提案する。
C3DモデルとともにTransformerベースのモデルを使用して手の検出と深い特徴抽出を行う。
意味空間は、視覚的特徴をクラスラベルの言語的な埋め込みにマッピングするために使用される。
論文 参考訳(メタデータ) (2021-09-02T09:10:39Z) - MetaSDF: Meta-learning Signed Distance Functions [85.81290552559817]
ニューラルな暗示表現で形状を一般化することは、各関数空間上の学習先行値に比例する。
形状空間の学習をメタラーニング問題として定式化し、勾配に基づくメタラーニングアルゴリズムを利用してこの課題を解決する。
論文 参考訳(メタデータ) (2020-06-17T05:14:53Z) - Improve Variational Autoencoder for Text Generationwith Discrete Latent
Bottleneck [52.08901549360262]
変分オートエンコーダ(VAE)は、エンドツーエンドの表現学習において必須のツールである。
VAEは強い自己回帰デコーダで潜伏変数を無視する傾向がある。
よりコンパクトな潜在空間において暗黙的な潜在特徴マッチングを強制する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2020-04-22T14:41:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。