論文の概要: Drop-Bottleneck: Learning Discrete Compressed Representation for
Noise-Robust Exploration
- arxiv url: http://arxiv.org/abs/2103.12300v1
- Date: Tue, 23 Mar 2021 04:31:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-24 14:08:43.774878
- Title: Drop-Bottleneck: Learning Discrete Compressed Representation for
Noise-Robust Exploration
- Title(参考訳): drop-bottleneck: ノイズロバスト探索のための離散圧縮表現の学習
- Authors: Jaekyeom Kim, Minjung Kim, Dongyeon Woo, Gunhee Kim
- Abstract要約: 我々はdrop-bottleneckという新しい情報ボトルネック法を提案する。
Drop-Bottleneckは、ターゲット変数とは無関係な機能を個別にドロップする。
特徴次元抽出器を共同で学習し、対象タスクに対する各特徴の関連性を考慮した特徴を選択する。
- 参考スコア(独自算出の注目度): 40.87933278591657
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel information bottleneck (IB) method named Drop-Bottleneck,
which discretely drops features that are irrelevant to the target variable.
Drop-Bottleneck not only enjoys a simple and tractable compression objective
but also additionally provides a deterministic compressed representation of the
input variable, which is useful for inference tasks that require consistent
representation. Moreover, it can jointly learn a feature extractor and select
features considering each feature dimension's relevance to the target task,
which is unattainable by most neural network-based IB methods. We propose an
exploration method based on Drop-Bottleneck for reinforcement learning tasks.
In a multitude of noisy and reward sparse maze navigation tasks in VizDoom
(Kempka et al., 2016) and DMLab (Beattie et al., 2016), our exploration method
achieves state-of-the-art performance. As a new IB framework, we demonstrate
that Drop-Bottleneck outperforms Variational Information Bottleneck (VIB)
(Alemi et al., 2017) in multiple aspects including adversarial robustness and
dimensionality reduction.
- Abstract(参考訳): 本稿では,ターゲット変数と無関係な特徴を離散的にドロップする,drop-bottleneckという新しい情報ボトルネック法を提案する。
Drop-Bottleneckは単純な圧縮目的だけでなく、一貫した表現を必要とする推論タスクに有用な入力変数の決定論的圧縮表現も提供する。
さらに、特徴抽出器を共同で学習し、目的タスクに対する各特徴次元の関連性を考慮した特徴を選択できるが、ほとんどのニューラルネットワークベースのIB手法では達成できない。
強化学習タスクのためのDrop-Bottleneckに基づく探索手法を提案する。
VizDoom (Kempka et al., 2016) と DMLab (Beattie et al., 2016) の多数のノイズおよび報奨迷路ナビゲーションタスクにおいて, この探索手法は最先端の性能を達成する。
In a new IB framework, we demonstrate that Drop-Bottleneck are outperforms variational Information Bottleneck (VIB) (Alemi et al., 2017) in multiple aspects including adversarial robustness and dimensionality reduction。
関連論文リスト
- FDCNet: Feature Drift Compensation Network for Class-Incremental Weakly
Supervised Object Localization [10.08410402383604]
本研究は、クラス増分弱教師付きオブジェクトローカライゼーション(CI-WSOL)の課題に対処する。
ゴールは、画像レベルのアノテーションのみを使用して、新しいクラスのオブジェクトローカライゼーションを漸進的に学習し、以前に学習したクラスをローカライズする能力を維持することである。
まず、クラスインクリメンタル分類器の戦略を破滅的な忘れ方に適用し、CI-WSOLの強力なベースライン法を提案する。
そこで我々は,特徴ドリフトがクラススコアやローカライゼーションマップに与える影響を補償する特徴ドリフト補償ネットワークを提案する。
論文 参考訳(メタデータ) (2023-09-17T01:10:45Z) - Knowledge Combination to Learn Rotated Detection Without Rotated
Annotation [53.439096583978504]
回転バウンディングボックスは、伸長したオブジェクトの出力あいまいさを劇的に減少させる。
この効果にもかかわらず、回転検出器は広く使われていない。
本稿では,モデルが正確な回転ボックスを予測できるフレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-05T03:07:36Z) - MoBYv2AL: Self-supervised Active Learning for Image Classification [57.4372176671293]
画像分類のための自己教師型アクティブラーニングフレームワークであるMoBYv2ALを提案する。
私たちの貢献は、最も成功した自己教師付き学習アルゴリズムであるMoBYをALパイプラインに持ち上げることです。
近年のAL法と比較すると,最先端の結果が得られている。
論文 参考訳(メタデータ) (2023-01-04T10:52:02Z) - Self-supervised Sequential Information Bottleneck for Robust Exploration
in Deep Reinforcement Learning [28.75574762244266]
本研究では、圧縮された時間的コヒーレントな表現を学習するためのシーケンシャルな情報ボトルネックの目標について紹介する。
ノイズの多い環境での効率的な探索のために,タスク関連状態の新規性を捉える本質的な報奨を更に構築する。
論文 参考訳(メタデータ) (2022-09-12T15:41:10Z) - Discovery-and-Selection: Towards Optimal Multiple Instance Learning for
Weakly Supervised Object Detection [86.86602297364826]
複数インスタンス学習(DS-MIL)と融合した発見・選択手法を提案する。
我々の提案するDS-MILアプローチは,最先端の性能を報告しながら,ベースラインを一貫して改善することができる。
論文 参考訳(メタデータ) (2021-10-18T07:06:57Z) - Reducing Information Bottleneck for Weakly Supervised Semantic
Segmentation [17.979336178991083]
弱教師付きセマンティックセグメンテーションは、クラスラベルからピクセルレベルのローカライゼーションを生成する。
このようなラベルで訓練された分類器は、ターゲットオブジェクトの小さな識別領域に焦点を当てる可能性が高い。
本稿では,最後のアクティベーション関数を除去することで,情報のボトルネックを低減する手法を提案する。
さらに,非識別領域から分類への情報伝達をさらに促進する新たなプーリング手法を提案する。
論文 参考訳(メタデータ) (2021-10-13T06:49:45Z) - Dynamic Relevance Learning for Few-Shot Object Detection [6.550840743803705]
動的グラフ畳み込みネットワーク(GCN)を構築するために,すべてのサポート画像とクエリ画像上の関心領域(RoI)の関係を利用した動的関連学習モデルを提案する。
提案モデルでは,より一般化された特徴の学習の有効性を示す総合的な性能が得られた。
論文 参考訳(メタデータ) (2021-08-04T18:29:42Z) - Dense Relation Distillation with Context-aware Aggregation for Few-Shot
Object Detection [18.04185751827619]
新規なオブジェクトのきめ細かい特徴を、ほんのわずかなデータで簡単に見落としてしまうため、オブジェクト検出は困難である。
本稿では,少数の検出問題に対処するために,DCNet (Context-aware Aggregation) を用いたDense Relation Distillationを提案する。
論文 参考訳(メタデータ) (2021-03-30T05:34:49Z) - EDN: Salient Object Detection via Extremely-Downsampled Network [66.38046176176017]
画像全体のグローバルビューを効果的に学ぶために、極端なダウンサンプリング技術を使用するExtremely-Downsampled Network(EDN)を紹介します。
実験は、ednがリアルタイム速度でsart性能を達成することを実証する。
論文 参考訳(メタデータ) (2020-12-24T04:23:48Z) - Multi-scale Interactive Network for Salient Object Detection [91.43066633305662]
本稿では,隣接レベルからの機能を統合するためのアグリゲート・インタラクション・モジュールを提案する。
より効率的なマルチスケール機能を得るために、各デコーダユニットに自己相互作用モジュールを埋め込む。
5つのベンチマークデータセットによる実験結果から,提案手法は後処理を一切行わず,23の最先端手法に対して良好に動作することが示された。
論文 参考訳(メタデータ) (2020-07-17T15:41:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。