論文の概要: Focus-and-Expand: Training Guidance Through Gradual Manipulation of
Input Features
- arxiv url: http://arxiv.org/abs/2007.07723v1
- Date: Wed, 15 Jul 2020 14:49:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-10 04:32:51.084991
- Title: Focus-and-Expand: Training Guidance Through Gradual Manipulation of
Input Features
- Title(参考訳): 焦点と拡張:入力特徴の経時的操作による指導指導
- Authors: Moab Arar, Noa Fish, Dani Daniel, Evgeny Tenetov, Ariel Shamir, Amit
Bermano
- Abstract要約: 本稿では,ニューラル・アンド・エパンド(fax)ネットワークのトレーニングプロセスを導く方法を提案する。
このプロセスは様々な入力特徴の考慮を促す。
我々は,様々なコンピュータビジョンタスクにおける状態拡張手法を実現する。
- 参考スコア(独自算出の注目度): 11.200634125590069
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a simple and intuitive Focus-and-eXpand (\fax) method to guide the
training process of a neural network towards a specific solution. Optimizing a
neural network is a highly non-convex problem. Typically, the space of
solutions is large, with numerous possible local minima, where reaching a
specific minimum depends on many factors. In many cases, however, a solution
which considers specific aspects, or features, of the input is desired. For
example, in the presence of bias, a solution that disregards the biased feature
is a more robust and accurate one. Drawing inspiration from Parameter
Continuation methods, we propose steering the training process to consider
specific features in the input more than others, through gradual shifts in the
input domain. \fax extracts a subset of features from each input data-point,
and exposes the learner to these features first, Focusing the solution on them.
Then, by using a blending/mixing parameter $\alpha$ it gradually eXpands the
learning process to include all features of the input. This process encourages
the consideration of the desired features more than others. Though not
restricted to this field, we quantitatively evaluate the effectiveness of our
approach on various Computer Vision tasks, and achieve state-of-the-art bias
removal, improvements to an established augmentation method, and two examples
of improvements to image classification tasks. Through these few examples we
demonstrate the impact this approach potentially carries for a wide variety of
problems, which stand to gain from understanding the solution landscape.
- Abstract(参考訳): 本稿では,ニューラルネットワークのトレーニングプロセスを特定の解へ導くための,シンプルで直感的なFocus-and-eXpand(\fax)手法を提案する。
ニューラルネットワークの最適化は、非常に非凸な問題である。
典型的には、解空間は大きいが、多くの可能な局所ミニマを持ち、特定の最小値に達することは多くの因子に依存する。
しかし多くの場合、入力の特定の側面や特徴を考慮に入れたソリューションが望まれる。
例えば、バイアスが存在する場合、バイアスのある特徴を無視したソリューションはより堅牢で正確なものである。
パラメータ継続法からインスピレーションを得て,入力領域の段階的な変化を通じて,入力の特定の特徴を他よりも考慮し,学習プロセスを操ることを提案する。
\faxは各入力データポイントから機能のサブセットを抽出し、学習者をまずこれらの機能に公開し、ソリューションにフォーカスする。
次に、混合/混合パラメータ$\alpha$を使用することで、学習プロセスを徐々にeXpandし、入力のすべての機能を含める。
このプロセスは、他のものよりも望ましい機能の考慮を促します。
この分野に限らず、様々なコンピュータビジョンタスクにおけるアプローチの有効性を定量的に評価し、最先端のバイアス除去、確立された拡張法の改善、画像分類タスクの改善の2つの例を示す。
これらのいくつかの例を通じて、このアプローチが、ソリューションの状況を理解することで得られる、さまざまな問題をもたらす可能性があることを実証します。
関連論文リスト
- Customize Your Own Paired Data via Few-shot Way [14.193031218059646]
いくつかの教師付き手法は膨大な量のペアトレーニングデータを必要とするため、使用量が大幅に制限される。
他の教師なしの手法は、大規模な事前訓練された事前訓練を最大限に活用するため、事前訓練されたドメインに制限され、アウト・オブ・ディストリビューションのケースでひどく振る舞う。
提案フレームワークでは,サンプル間の方向変換に基づく新たな数ショット学習機構を導入し,学習可能な空間を指数関数的に拡張する。
論文 参考訳(メタデータ) (2024-05-21T04:21:35Z) - Ideal Abstractions for Decision-Focused Learning [108.15241246054515]
本稿では,決定関連情報の損失を最小限に抑えるために,出力空間を自動的に構成する手法を提案する。
本手法は,ディープニューラルネットワークトレーニングのためのデータ取得と,閉ループ山火事管理タスクの2つの領域で実証する。
論文 参考訳(メタデータ) (2023-03-29T23:31:32Z) - Few-Shot Point Cloud Semantic Segmentation via Contrastive
Self-Supervision and Multi-Resolution Attention [6.350163959194903]
数発の学習事前学習のための対照的な自己超越フレームワークを提案する。
具体的には、3Dポイントクラウドのための学習可能な拡張子を用いて、新しいコントラスト学習アプローチを実装した。
最接近点と最遠点の両方を用いて多分解能アテンションモジュールを開発し,局所点と大域点の情報をより効率的に抽出する。
論文 参考訳(メタデータ) (2023-02-21T07:59:31Z) - Feature Selection with Distance Correlation [0.0]
距離相関に基づく特徴選択法(DisCo)を提案する。
7000以上のエネルギーフローの集合から特徴を抽出するために本手法を用いることで,より深いアーキテクチャの性能に適合できることを示す。
論文 参考訳(メタデータ) (2022-11-30T19:00:04Z) - OReX: Object Reconstruction from Planar Cross-sections Using Neural
Fields [10.862993171454685]
OReXはスライス単独で3次元形状を復元する手法であり、前者がニューラルネットワーク勾配である。
適度なニューラルネットワークは入力平面上でトレーニングされ、与えられた3D座標の内外推定を返却し、滑らかさと自己相似性を誘導する強力な先行を与える。
我々は、粗大な訓練を奨励する反復的な推定アーキテクチャと階層的な入力サンプリングスキームを提供し、訓練プロセスは後段の高周波に集中できるようにする。
論文 参考訳(メタデータ) (2022-11-23T11:44:35Z) - AMS-Net: Adaptive Multiscale Sparse Neural Network with Interpretable
Basis Expansion for Multiphase Flow Problems [8.991619150027267]
本研究では、物理過程の学習に応用可能な適応スパース学習アルゴリズムを提案し、大きなスナップショット空間を与えられた解のスパース表現を得る。
基本関数の情報は損失関数に組み込まれており、複数の時間ステップにおけるダウンスケール縮小次数解と参照解との差を最小限に抑える。
複雑なアプリケーションにおける提案手法の有効性と解釈性を示すため, 2相多相流問題に対してより数値的な実験を行った。
論文 参考訳(メタデータ) (2022-07-24T13:12:43Z) - Revisiting Point Cloud Simplification: A Learnable Feature Preserving
Approach [57.67932970472768]
MeshとPoint Cloudの単純化手法は、3Dモデルの複雑さを低減しつつ、視覚的品質と関連する健全な機能を維持することを目的としている。
そこで本研究では,正解点の標本化を学習し,高速点雲の簡易化手法を提案する。
提案手法は、入力空間から任意のユーザ定義の点数を選択し、視覚的知覚誤差を最小限に抑えるために、その位置を再配置するよう訓練されたグラフニューラルネットワークアーキテクチャに依存する。
論文 参考訳(メタデータ) (2021-09-30T10:23:55Z) - Learning Neural Network Subspaces [74.44457651546728]
近年の観測は,ニューラルネットワーク最適化の展望の理解を深めている。
1つのモデルのトレーニングと同じ計算コストで、高精度ニューラルネットワークの線、曲線、単純軸を学習します。
1つのモデルのトレーニングと同じ計算コストで、高精度ニューラルネットワークの線、曲線、単純軸を学習します。
論文 参考訳(メタデータ) (2021-02-20T23:26:58Z) - Multi-task Supervised Learning via Cross-learning [102.64082402388192]
我々は,様々なタスクを解くことを目的とした回帰関数の集合を適合させることで,マルチタスク学習と呼ばれる問題を考える。
我々の新しい定式化では、これらの関数のパラメータを2つに分けて、互いに近づきながらタスク固有のドメインで学習する。
これにより、異なるドメインにまたがって収集されたデータが、互いのタスクにおける学習パフォーマンスを改善するのに役立つ、クロス・ファーティライズが促進される。
論文 参考訳(メタデータ) (2020-10-24T21:35:57Z) - Saliency-driven Class Impressions for Feature Visualization of Deep
Neural Networks [55.11806035788036]
分類に欠かせないと思われる特徴を視覚化することは有利である。
既存の可視化手法は,背景特徴と前景特徴の両方からなる高信頼画像を生成する。
本研究では,あるタスクにおいて最も重要であると考えられる識別的特徴を可視化するための,サリエンシ駆動型アプローチを提案する。
論文 参考訳(メタデータ) (2020-07-31T06:11:06Z) - Exchangeable Input Representations for Reinforcement Learning [48.696389129611056]
本研究は、ニューラルネットワーク入力を効率的な表現空間に投影するための注意に基づく手法を提案する。
提案した表現は、$m$オブジェクトの入力に対して$m!$の要素である入力空間が得られることを示す。
論文 参考訳(メタデータ) (2020-03-19T21:18:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。