論文の概要: The Variational Bandwidth Bottleneck: Stochastic Evaluation on an
Information Budget
- arxiv url: http://arxiv.org/abs/2004.11935v1
- Date: Fri, 24 Apr 2020 18:29:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-10 02:57:15.749974
- Title: The Variational Bandwidth Bottleneck: Stochastic Evaluation on an
Information Budget
- Title(参考訳): 変動帯域のボトルネック : 情報予算の確率的評価
- Authors: Anirudh Goyal, Yoshua Bengio, Matthew Botvinick, Sergey Levine
- Abstract要約: 多くのアプリケーションにおいて、複雑な入力データから関連する情報のみを抽出することが望ましい。
情報ボトルネック法は、これを情報理論最適化問題として定式化する。
本稿では,特権情報の推定値について,各例について決定する帯域幅のばらつきボトルネックを提案する。
- 参考スコア(独自算出の注目度): 164.65771897804404
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In many applications, it is desirable to extract only the relevant
information from complex input data, which involves making a decision about
which input features are relevant. The information bottleneck method formalizes
this as an information-theoretic optimization problem by maintaining an optimal
tradeoff between compression (throwing away irrelevant input information), and
predicting the target. In many problem settings, including the reinforcement
learning problems we consider in this work, we might prefer to compress only
part of the input. This is typically the case when we have a standard
conditioning input, such as a state observation, and a "privileged" input,
which might correspond to the goal of a task, the output of a costly planning
algorithm, or communication with another agent. In such cases, we might prefer
to compress the privileged input, either to achieve better generalization
(e.g., with respect to goals) or to minimize access to costly information
(e.g., in the case of communication). Practical implementations of the
information bottleneck based on variational inference require access to the
privileged input in order to compute the bottleneck variable, so although they
perform compression, this compression operation itself needs unrestricted,
lossless access. In this work, we propose the variational bandwidth bottleneck,
which decides for each example on the estimated value of the privileged
information before seeing it, i.e., only based on the standard input, and then
accordingly chooses stochastically, whether to access the privileged input or
not. We formulate a tractable approximation to this framework and demonstrate
in a series of reinforcement learning experiments that it can improve
generalization and reduce access to computationally costly information.
- Abstract(参考訳): 多くのアプリケーションにおいて、複雑な入力データから関連する情報のみを抽出することが望ましい。
情報ボトルネック法は、圧縮(無関係な入力情報)と目標予測との最適なトレードオフを維持して、情報理論最適化問題として定式化する。
本研究で検討する強化学習問題を含む多くの問題設定では、入力の一部だけを圧縮することを好むかもしれない。
これは通常、状態観察のような標準的なコンディショニング入力と、タスクの目標、コストのかかる計画アルゴリズムの出力、または他のエージェントとの通信に対応する「優先」入力がある場合である。
そのような場合、我々は、より良い一般化(例えば、目標)を達成するか、コストのかかる情報(例えば、通信の場合)へのアクセスを最小限に抑えるために、特権入力を圧縮することを好むかもしれない。
変動推論に基づく情報ボトルネックの実践的な実装は、ボトルネック変数を計算するために特権入力へのアクセスを必要とするため、圧縮を行うが、この圧縮操作自体は制限のない無損失アクセスを必要とする。
本稿では,標準入力のみに基づいて,特権情報の推定値に関する各例を決定する変動帯域ボトルネックを提案し,それに従って,特権入力にアクセスするか否かを確率的に選択する。
我々は,この枠組みの扱いやすい近似を定式化し,一般化を改良し,計算コストの高い情報へのアクセスを削減できることを示す強化学習実験を行った。
関連論文リスト
- Differential error feedback for communication-efficient decentralized learning [48.924131251745266]
本稿では,差分量子化と誤りフィードバックをブレンドする分散通信効率学習手法を提案する。
その結果,平均二乗誤差と平均ビットレートの両面において通信効率が安定であることが示唆された。
その結果、小さなステップサイズで有限ビットの場合には、圧縮がない場合に達成可能な性能が得られることが判明した。
論文 参考訳(メタデータ) (2024-06-26T15:11:26Z) - Incrementally-Computable Neural Networks: Efficient Inference for
Dynamic Inputs [75.40636935415601]
ディープラーニングは、センサーデータやユーザ入力などの動的入力を効率的に処理するという課題に直面していることが多い。
インクリメンタルな計算アプローチを採用し、入力の変化に応じて計算を再利用する。
本稿では,この手法をトランスフォーマーアーキテクチャに適用し,修正入力の分数に比例した複雑性を持つ効率的なインクリメンタル推論アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-07-27T16:30:27Z) - Discrete Key-Value Bottleneck [95.61236311369821]
ディープニューラルネットワークは、データストリームがi.d.d.であり、ラベル付きデータが豊富である分類タスクでうまく機能する。
この課題に対処した強力なアプローチの1つは、手軽に利用可能なデータ量に対する大規模なエンコーダの事前トレーニングと、タスク固有のチューニングである。
しかし、新しいタスクを考えると、多くの重みを微調整する必要があるため、エンコーダの重みを更新することは困難であり、その結果、以前のタスクに関する情報を忘れてしまう。
この問題に対処するモデルアーキテクチャを提案し,個別かつ学習可能なキー値符号のペアを含む離散的ボトルネックの上に構築する。
論文 参考訳(メタデータ) (2022-07-22T17:52:30Z) - Robust Predictable Control [149.71263296079388]
提案手法は,従来の手法よりもはるかに厳密な圧縮を実現し,標準的な情報ボトルネックよりも最大5倍高い報酬が得られることを示す。
また,本手法はより堅牢で,新しいタスクをより一般化したポリシーを学習することを示す。
論文 参考訳(メタデータ) (2021-09-07T17:29:34Z) - Scalable Vector Gaussian Information Bottleneck [19.21005180893519]
そこで我々は,エンコーダが観測の複数の記述を出力するスケーラブルな情報ボトルネックと呼ばれる問題の変動について検討する。
分布が不明な一般ソースに対する変分推論型アルゴリズムを導出し,ニューラルネットワークを用いてパラメータ化する方法を示す。
論文 参考訳(メタデータ) (2021-02-15T12:51:26Z) - On the Relevance-Complexity Region of Scalable Information Bottleneck [15.314757778110955]
本稿では,エンコーダが観測の複数の記述を出力する,スケーラブルな情報ボトルネックと呼ばれる問題のバリエーションについて検討する。
問題の動機は、一般化の許容レベルに応じて様々なレベルの精度を必要とする、いくつかのアプリケーションシナリオにある。
論文 参考訳(メタデータ) (2020-11-02T22:25:28Z) - Learning Optimal Representations with the Decodable Information
Bottleneck [43.30367159353152]
機械学習では、我々のゴールは圧縮ではなく、むしろ一般化であり、予測ファミリや関心のデコーダと密接に関連している。
本稿では,情報保持と圧縮を所望の予測族の観点から考慮した,情報保持可能な情報ボトルネック(DIB)を提案する。
結果として、DIBは期待されるテスト性能の観点で最適であり、保証とともに推定できる表現を生み出します。
論文 参考訳(メタデータ) (2020-09-27T08:33:08Z) - Information-theoretic User Interaction: Significant Inputs for Program
Synthesis [11.473616777800318]
重要質問問題を導入し、一般には困難であることを示す。
我々はその問題を解決するための情報理論の欲求的アプローチを開発する。
対話型プログラム合成の文脈では、上記の結果を用いてプログラム学習者を開発する。
私たちのアクティブな学習者は、偽陰性と偽陽性をトレードオフし、現実のデータセット上で少数の反復に収束することができます。
論文 参考訳(メタデータ) (2020-06-22T21:46:40Z) - Focus of Attention Improves Information Transfer in Visual Features [80.22965663534556]
本稿では,真のオンライン環境下での視覚情報伝達のための教師なし学習に焦点を当てた。
エントロピー項の計算は、エントロピー項のオンライン推定を行う時間的プロセスによって行われる。
入力確率分布をよりよく構成するために,人間のような注目モデルを用いる。
論文 参考訳(メタデータ) (2020-06-16T15:07:25Z) - On the Information Bottleneck Problems: Models, Connections,
Applications and Information Theoretic Views [39.49498500593645]
本チュートリアルでは,情報理論の観点からボトルネック問題の変種に着目した。
問題を解決するための実践的な方法と、コーディングと学習の側面との関係について論じる。
論文 参考訳(メタデータ) (2020-01-31T15:23:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。