論文の概要: DomainLab: A modular Python package for domain generalization in deep learning
- arxiv url: http://arxiv.org/abs/2403.14356v1
- Date: Thu, 21 Mar 2024 12:35:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-22 14:18:45.521322
- Title: DomainLab: A modular Python package for domain generalization in deep learning
- Title(参考訳): DomainLab: ディープラーニングにおけるドメインの一般化のためのモジュール型Pythonパッケージ
- Authors: Xudong Sun, Carla Feistner, Alexej Gossmann, George Schwarz, Rao Muhammad Umer, Lisa Beer, Patrick Rockenschaub, Rahul Babu Shrestha, Armin Gruber, Nutan Chen, Sayedali Shetab Boushehri, Florian Buettner, Carsten Marr,
- Abstract要約: DomainLabは、ユーザが指定したニューラルネットワークを、構成可能な正規化損失項でトレーニングするためのモジュール型のPythonパッケージである。
分離された設計により、ニューラルネットワークを正規化損失構造から分離することができる。
分散データのニューラルネットワークの一般化性能を評価するために、強力なベンチマーク機能を提供する。
- 参考スコア(独自算出の注目度): 11.184385636410738
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Poor generalization performance caused by distribution shifts in unseen domains often hinders the trustworthy deployment of deep neural networks. Many domain generalization techniques address this problem by adding a domain invariant regularization loss terms during training. However, there is a lack of modular software that allows users to combine the advantages of different methods with minimal effort for reproducibility. DomainLab is a modular Python package for training user specified neural networks with composable regularization loss terms. Its decoupled design allows the separation of neural networks from regularization loss construction. Hierarchical combinations of neural networks, different domain generalization methods, and associated hyperparameters, can all be specified together with other experimental setup in a single configuration file. Hierarchical combinations of neural networks, different domain generalization methods, and associated hyperparameters, can all be specified together with other experimental setup in a single configuration file. In addition, DomainLab offers powerful benchmarking functionality to evaluate the generalization performance of neural networks in out-of-distribution data. The package supports running the specified benchmark on an HPC cluster or on a standalone machine. The package is well tested with over 95 percent coverage and well documented. From the user perspective, it is closed to modification but open to extension. The package is under the MIT license, and its source code, tutorial and documentation can be found at https://github.com/marrlab/DomainLab.
- Abstract(参考訳): 目に見えない領域における分布シフトに起因する低次一般化性能は、ディープニューラルネットワークの信頼性の高い展開を妨げることが多い。
多くの領域一般化技術は、訓練中にドメイン不変正則化損失項を追加することでこの問題に対処する。
しかし、様々な方法の利点を再現性に最小限の労力で組み合わせることのできるモジュラーソフトウェアの欠如がある。
DomainLabは、ユーザが指定したニューラルネットワークを、構成可能な正規化損失項でトレーニングするためのモジュール型のPythonパッケージである。
分離された設計により、ニューラルネットワークを正規化損失構造から分離することができる。
ニューラルネットワークの階層的な組み合わせ、異なるドメインの一般化方法、および関連するハイパーパラメータはすべて、単一の設定ファイル内の他の実験的な設定と一緒に指定することができる。
ニューラルネットワークの階層的な組み合わせ、異なるドメインの一般化方法、および関連するハイパーパラメータはすべて、単一の設定ファイル内の他の実験的な設定と一緒に指定することができる。
さらに、DomainLabは、アウト・オブ・ディストリビューションデータにおけるニューラルネットワークの一般化性能を評価するために、強力なベンチマーク機能を提供する。
パッケージは、指定されたベンチマークをHPCクラスタまたはスタンドアロンマシン上で実行することをサポートする。
パッケージは95%以上をカバーし、十分にドキュメント化されている。
ユーザの視点からは、変更はクローズドだが、拡張にはオープンである。
パッケージはMITライセンス下にあり、ソースコード、チュートリアル、ドキュメントはhttps://github.com/marrlab/DomainLabにある。
関連論文リスト
- HPFF: Hierarchical Locally Supervised Learning with Patch Feature Fusion [7.9514535887836795]
本稿では,階層的局所教師付き学習とパッチレベルの特徴を補助的ネットワーク上で実現する新しいモデルを提案する。
我々は, CIFAR-10, STL-10, SVHN, ImageNetのデータセットについて実験を行い, 提案したHPFFが従来の手法より有意に優れていたことを示す。
論文 参考訳(メタデータ) (2024-07-08T06:05:19Z) - ConvLoRA and AdaBN based Domain Adaptation via Self-Training [4.006331916849688]
マルチターゲットドメイン適応のための畳み込み低ランク適応(ConvLoRA)を提案する。
ConvLoRAはトレーニング済みのモデルウェイトを凍結し、畳み込み層にトレーニング可能な低ランク分解行列を追加し、勾配をバックプロパゲートする。
提案手法はトレーニング可能なパラメータを少なくし,大規模独立微調整ネットワークと同等あるいは同等に動作する。
論文 参考訳(メタデータ) (2024-02-07T15:43:50Z) - Virtual Classification: Modulating Domain-Specific Knowledge for
Multidomain Crowd Counting [67.38137379297717]
マルチドメインのクラウドカウントは、複数の多様なデータセットの一般的なモデルを学ぶことを目的としている。
ディープネットワークは、ドメインバイアスとして知られるすべてのドメインではなく、支配的なドメインの分布をモデル化することを好む。
マルチドメイン群カウントにおけるドメインバイアス問題を処理するために,MDKNet(Modulating Domain-specific Knowledge Network)を提案する。
論文 参考訳(メタデータ) (2024-02-06T06:49:04Z) - Adaptive Test-Time Personalization for Federated Learning [51.25437606915392]
テスト時パーソナライズド・フェデレーション・ラーニング(TTPFL)と呼ばれる新しい設定を導入する。
TTPFLでは、クライアントはテスト期間中にラベル付きデータに頼ることなく、教師なしの方法でグローバルモデルをローカルに適応する。
本稿では,ソースドメイン間の分散シフトから,モデル内の各モジュールの適応率を適応的に学習する ATP という新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-28T20:42:47Z) - Efficient Hierarchical Domain Adaptation for Pretrained Language Models [77.02962815423658]
生成言語モデルは、多種多様な一般的なドメインコーパスに基づいて訓練される。
計算効率のよいアダプタアプローチを用いて,ドメイン適応を多種多様なドメインに拡張する手法を提案する。
論文 参考訳(メタデータ) (2021-12-16T11:09:29Z) - The Separation Capacity of Random Neural Networks [78.25060223808936]
標準ガウス重みと一様分布バイアスを持つ十分に大きな2層ReLUネットワークは、この問題を高い確率で解くことができることを示す。
我々は、相互複雑性という新しい概念の観点から、データの関連構造を定量化する。
論文 参考訳(メタデータ) (2021-07-31T10:25:26Z) - Input Invex Neural Network [11.072628804821083]
接続された決定境界は、イメージセグメンテーション、クラスタリング、アルファシェープ、nD空間内の領域の定義など、いくつかのタスクで有用である。
本稿では,ニューラルネットワークを用いた凸関数構築のための2つの手法を提案する。
論文 参考訳(メタデータ) (2021-06-16T12:48:55Z) - Solving Mixed Integer Programs Using Neural Networks [57.683491412480635]
本稿では,mipソルバの2つのキーサブタスクに学習を適用し,高品質なジョイント変数割当を生成し,その割当と最適課題との客観的値の差を限定する。
提案手法は,ニューラルネットワークに基づく2つのコンポーネントであるニューラルダイバーディングとニューラルブランチを構築し,SCIPなどのベースMIPソルバで使用する。
2つのGoogle生産データセットとMIPLIBを含む6つの現実世界データセットに対するアプローチを評価し、それぞれに別々のニューラルネットワークをトレーニングする。
論文 参考訳(メタデータ) (2020-12-23T09:33:11Z) - Batch Normalization Embeddings for Deep Domain Generalization [50.51405390150066]
ドメインの一般化は、異なるドメインと見えないドメインで堅牢に実行されるように機械学習モデルをトレーニングすることを目的としている。
一般的な領域一般化ベンチマークにおいて,最先端技術よりも分類精度が著しく向上したことを示す。
論文 参考訳(メタデータ) (2020-11-25T12:02:57Z) - Distributional Generalization: A New Kind of Generalization [10.555325639706071]
分散一般化という新しい概念を導入する。
列車とテスト時の分類器の出力は、平均誤差だけをクローズするのとは対照的に、*as distributions*である、と大まかに述べています。
機械学習において、これらの予想の実証的な証拠を様々な領域にわたって与える。
論文 参考訳(メタデータ) (2020-09-17T06:26:17Z) - Learn to Expect the Unexpected: Probably Approximately Correct Domain
Generalization [38.345670899258515]
ドメインの一般化は、トレーニングデータとテストデータが異なるデータドメインから来るときの機械学習の問題である。
データ分布にメタ分布が存在する領域をまたいで一般化する単純な理論モデルを提案する。
論文 参考訳(メタデータ) (2020-02-13T17:37:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。