論文の概要: Characterizing and overcoming the greedy nature of learning in
multi-modal deep neural networks
- arxiv url: http://arxiv.org/abs/2202.05306v1
- Date: Thu, 10 Feb 2022 20:11:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-14 14:46:03.441872
- Title: Characterizing and overcoming the greedy nature of learning in
multi-modal deep neural networks
- Title(参考訳): マルチモーダル深層ニューラルネットワークにおける学習の欲望特性の特徴化と克服
- Authors: Nan Wu, Stanis{\l}aw Jastrz\k{e}bski, Kyunghyun Cho, Krzysztof J.
Geras
- Abstract要約: 深層ニューラルネットワークにおける学習の欲張った性質から、モデルは一つのモダリティにのみ依存する傾向にあり、他のモダリティには不適合であることを示す。
本稿では,学習中のモーダル間の条件付き学習速度のバランスをとるアルゴリズムを提案し,グリージー学習の問題に対処できることを実証する。
- 参考スコア(独自算出の注目度): 62.48782506095565
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We hypothesize that due to the greedy nature of learning in multi-modal deep
neural networks, these models tend to rely on just one modality while
under-fitting the other modalities. Such behavior is counter-intuitive and
hurts the models' generalization, as we observe empirically. To estimate the
model's dependence on each modality, we compute the gain on the accuracy when
the model has access to it in addition to another modality. We refer to this
gain as the conditional utilization rate. In the experiments, we consistently
observe an imbalance in conditional utilization rates between modalities,
across multiple tasks and architectures. Since conditional utilization rate
cannot be computed efficiently during training, we introduce a proxy for it
based on the pace at which the model learns from each modality, which we refer
to as the conditional learning speed. We propose an algorithm to balance the
conditional learning speeds between modalities during training and demonstrate
that it indeed addresses the issue of greedy learning. The proposed algorithm
improves the model's generalization on three datasets: Colored MNIST, Princeton
ModelNet40, and NVIDIA Dynamic Hand Gesture.
- Abstract(参考訳): 我々は、マルチモーダル深層ニューラルネットワークにおける学習の欲深い性質から、これらのモデルは、他のモダリティを過小評価しながら、1つのモダリティのみに依存する傾向があると仮定する。
このような振る舞いは直感に反し、経験的に観察することでモデルの一般化を損なう。
各モダリティに対するモデルの依存度を推定するために、他のモダリティに加えてモデルがそれにアクセスする場合の精度の利得を計算する。
この利得を条件付き利用率と呼ぶ。
実験では,複数のタスクやアーキテクチャにまたがる条件付き利用率の不均衡を常に観察する。
条件付き利用率を学習中に効率的に計算することはできないため,条件付き学習速度と呼ぶ各モダリティからモデルが学習するペースに基づいて,条件付き利用率をプロキシとして導入する。
本稿では,学習中のモーダル間の条件付き学習速度のバランスをとるアルゴリズムを提案し,グリージー学習の問題に対処できることを実証する。
提案アルゴリズムは、色付きMNIST、プリンストンモデルNet40、NVIDIA Dynamic Hand Gestureの3つのデータセットにおけるモデルの一般化を改善する。
関連論文リスト
- Dynamic Post-Hoc Neural Ensemblers [55.15643209328513]
本研究では,ニューラルネットワークをアンサンブル手法として活用することを検討する。
低多様性のアンサンブルを学習するリスクを動機として,ベースモデル予測をランダムにドロップすることでモデルの正規化を提案する。
このアプローチはアンサンブル内の多様性を低くし、オーバーフィッティングを減らし、一般化能力を向上させる。
論文 参考訳(メタデータ) (2024-10-06T15:25:39Z) - Combating Missing Modalities in Egocentric Videos at Test Time [92.38662956154256]
現実のアプリケーションは、プライバシの懸念、効率性の必要性、ハードウェアの問題により、不完全なモダリティを伴う問題に直面することが多い。
再トレーニングを必要とせずに,テスト時にこの問題に対処する新しい手法を提案する。
MiDlは、欠落したモダリティをテスト時にのみ扱う、自己管理型のオンラインソリューションとしては初めてのものだ。
論文 参考訳(メタデータ) (2024-04-23T16:01:33Z) - Discrete Neural Algorithmic Reasoning [18.497863598167257]
本稿では,有限状態の組合せとして,ニューラル推論器に実行軌跡の維持を強制することを提案する。
アルゴリズムの状態遷移の監督で訓練されたモデルでは、元のアルゴリズムと完全に整合することができる。
論文 参考訳(メタデータ) (2024-02-18T16:03:04Z) - A Dynamical Model of Neural Scaling Laws [79.59705237659547]
ネットワークトレーニングと一般化の解決可能なモデルとして,勾配降下で訓練されたランダムな特徴モデルを分析する。
我々の理論は、データの繰り返し再利用により、トレーニングとテスト損失のギャップが徐々に増大することを示している。
論文 参考訳(メタデータ) (2024-02-02T01:41:38Z) - Dynamic Tensor Decomposition via Neural Diffusion-Reaction Processes [24.723536390322582]
テンソル分解は マルチウェイデータ解析の 重要なツールです
動的EMbedIngs fOr Dynamic Algorithm dEcomposition (DEMOTE)を提案する。
シミュレーション研究と実世界の応用の両方において,本手法の利点を示す。
論文 参考訳(メタデータ) (2023-10-30T15:49:45Z) - Learning Unseen Modality Interaction [54.23533023883659]
マルチモーダル学習は、すべてのモダリティの組み合わせが訓練中に利用でき、クロスモーダル対応を学ぶことを前提としている。
我々は、目に見えないモダリティ相互作用の問題を提起し、第1の解を導入する。
異なるモジュラリティの多次元的特徴を、豊富な情報を保存した共通空間に投影するモジュールを利用する。
論文 参考訳(メタデータ) (2023-06-22T10:53:10Z) - The Underlying Correlated Dynamics in Neural Training [6.385006149689549]
ニューラルネットワークのトレーニングは、計算集約的なタスクである。
本稿では,パラメータのダイナミクスの相関に基づくモデルを提案する。
この表現は、基礎となるトレーニングダイナミクスの理解を深め、より良い加速技術を設計するための道を開くことができる。
論文 参考訳(メタデータ) (2022-12-18T08:34:11Z) - On Modality Bias Recognition and Reduction [70.69194431713825]
マルチモーダル分類の文脈におけるモダリティバイアス問題について検討する。
本稿では,各ラベルの特徴空間を適応的に学習するプラグアンドプレイ損失関数法を提案する。
本手法は, ベースラインに比べ, 顕著な性能向上を実現している。
論文 参考訳(メタデータ) (2022-02-25T13:47:09Z) - A Theory of Universal Learning [26.51949485387526]
普遍的な学習の確率は3つしかないことを示す。
任意の概念クラスの学習曲線は指数的あるいは任意に遅い速度で減衰することを示す。
論文 参考訳(メタデータ) (2020-11-09T15:10:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。