論文の概要: TorchDEQ: A Library for Deep Equilibrium Models
- arxiv url: http://arxiv.org/abs/2310.18605v1
- Date: Sat, 28 Oct 2023 06:16:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-31 17:45:05.234540
- Title: TorchDEQ: A Library for Deep Equilibrium Models
- Title(参考訳): TorchDEQ: 深い平衡モデルのためのライブラリ
- Authors: Zhengyang Geng, J. Zico Kolter
- Abstract要約: TorchDEQは、最小限のコードとベストプラクティスで複数のドメイン上でDEQを定義し、トレーニングし、推論することを可能にする、アウト・オブ・ザ・ボックスのライブラリです。
私たちは、異なるドメインにまたがる6つの暗黙のモデルをサポートするDEQ Zoo'を構築します。
DEQ Zooの6つのプロジェクトすべてにまたがる10のデータセット上でのDECのパフォーマンス、トレーニングの安定性、効率を大幅に改善しました。
- 参考スコア(独自算出の注目度): 72.65236284030894
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Equilibrium (DEQ) Models, an emerging class of implicit models that maps
inputs to fixed points of neural networks, are of growing interest in the deep
learning community. However, training and applying DEQ models is currently done
in an ad-hoc fashion, with various techniques spread across the literature. In
this work, we systematically revisit DEQs and present TorchDEQ, an
out-of-the-box PyTorch-based library that allows users to define, train, and
infer using DEQs over multiple domains with minimal code and best practices.
Using TorchDEQ, we build a ``DEQ Zoo'' that supports six published implicit
models across different domains. By developing a joint framework that
incorporates the best practices across all models, we have substantially
improved the performance, training stability, and efficiency of DEQs on ten
datasets across all six projects in the DEQ Zoo. TorchDEQ and DEQ Zoo are
released as \href{https://github.com/locuslab/torchdeq}{open source}.
- Abstract(参考訳): Deep Equilibrium (DEQ) Modelsは、ニューラルネットワークの固定点に入力をマッピングする暗黙のモデルの新たなクラスであり、ディープラーニングコミュニティへの関心が高まっている。
しかし、DECモデルのトレーニングと適用は現在、様々な技術が文献に散在しているアドホックな方法で行われている。
本稿では,deqsを体系的に再検討して,最小限のコードとベストプラクティスで複数のドメイン上でdeqsを定義,トレーニング,推測できるpytorchベースのライブラリであるtorchdeqを提案する。
TorchDEQを使って、異なるドメインにまたがる6つの暗黙のモデルをサポートする ``DEQ Zoo'' を構築します。
すべてのモデルでベストプラクティスを取り入れた共同フレームワークを開発することで、DEC Zoo内の6つのプロジェクトすべてにわたる10のデータセット上でのDECのパフォーマンス、トレーニングの安定性、効率を大幅に改善しました。
TorchDEQ と DEQ Zoo は \href{https://github.com/locuslab/torchdeq}{opensource} としてリリースされた。
関連論文リスト
- MALPOLON: A Framework for Deep Species Distribution Modeling [3.1457219084519004]
MALPOLONは深部種分布モデル(deep-SDM)の訓練と推測を容易にすることを目的としている
Pythonで書かれ、PyTorchライブラリ上に構築されている。
このフレームワークはGitHubとPyPiでオープンソース化されている。
論文 参考訳(メタデータ) (2024-09-26T17:45:10Z) - FreeSeg-Diff: Training-Free Open-Vocabulary Segmentation with Diffusion Models [56.71672127740099]
我々は,閉鎖語彙データセットのトレーニングモデルによって伝統的に解決されるイメージセグメンテーションの課題に焦点をあてる。
我々は、ゼロショットのオープン語彙セグメンテーションのために、異なる、比較的小さなオープンソース基盤モデルを活用している。
当社のアプローチ(別名FreeSeg-Diff)は、トレーニングに依存しないもので、Pascal VOCとCOCOデータセットの両方で多くのトレーニングベースのアプローチより優れています。
論文 参考訳(メタデータ) (2024-03-29T10:38:25Z) - Mixture-Models: a one-stop Python Library for Model-based Clustering
using various Mixture Models [4.60168321737677]
textttMixture-Modelsは、Gaussian Mixture Models(GMM)とその変種を適合させるオープンソースのPythonライブラリである。
様々な第1/第2次最適化ルーチンを使用して、これらのモデルの実装と分析を合理化する。
このライブラリは、BIC、AIC、ログライクな推定など、ユーザフレンドリーなモデル評価ツールを提供する。
論文 参考訳(メタデータ) (2024-02-08T19:34:24Z) - Learning a Diffusion Model Policy from Rewards via Q-Score Matching [93.0191910132874]
本稿では,拡散モデルポリシの構造を学習されたQ-関数に関連付ける理論的枠組みを提案する。
本稿では,この理論からQスコアマッチングを示す新しいポリシー更新手法を提案する。
論文 参考訳(メタデータ) (2023-12-18T23:31:01Z) - FlexModel: A Framework for Interpretability of Distributed Large
Language Models [0.0]
マルチGPUとマルチノード構成に分散したモデルを扱うための,合理化されたインターフェースを提供するソフトウェアパッケージであるFlexModelを紹介する。
このライブラリは既存のモデル配布ライブラリと互換性があり、PyTorchモデルをカプセル化している。
ユーザ登録可能なHookFunctionを公開して,分散モデル内部との直接的なインタラクションを容易にする。
論文 参考訳(メタデータ) (2023-12-05T21:19:33Z) - PyRCA: A Library for Metric-based Root Cause Analysis [66.72542200701807]
PyRCAは、AIOps(AIOps)のためのRoot Cause Analysis(RCA)のオープンソースの機械学習ライブラリである。
複雑なメトリクス因果依存性を明らかにし、インシデントの根本原因を自動的に特定する、包括的なフレームワークを提供する。
論文 参考訳(メタデータ) (2023-06-20T09:55:10Z) - Chain-of-Skills: A Configurable Model for Open-domain Question Answering [79.8644260578301]
検索モデルは、現実世界の知識集約的なタスクに欠かせない要素である。
最近の研究はカスタマイズされたメソッドに焦点を合わせ、モデルの転送可能性とスケーラビリティを制限している。
本稿では,各モジュールがデータセット間で再利用可能なキースキルに対応するモジュールレトリバーを提案する。
論文 参考訳(メタデータ) (2023-05-04T20:19:39Z) - Pythae: Unifying Generative Autoencoders in Python -- A Benchmarking Use
Case [0.0]
我々はPythaeについて紹介する。Pythaeは多種多様なオープンソースPythonライブラリで、生成オートエンコーダモデルの単純で再現性があり、信頼性の高い利用を提供する。
本稿では、下流タスクにおける主な改善点として、19の生成オートエンコーダモデルを紹介し、比較する。
論文 参考訳(メタデータ) (2022-06-16T17:11:41Z) - TyXe: Pyro-based Bayesian neural nets for Pytorch [12.343312954353639]
我々はPytorchとPyro上に構築されたベイズニューラルネットワークライブラリTyXeを紹介する。
私たちの主要な設計原則は、アーキテクチャ、事前、推論、そして可能性仕様をきれいに分離することです。
既存のパッケージとは対照的に、TyXeはいかなるレイヤクラスも実装せず、代わりに一般的なPytorchコードで定義されたアーキテクチャに依存している。
論文 参考訳(メタデータ) (2021-10-01T09:04:26Z) - Multiscale Deep Equilibrium Models [162.15362280927476]
マルチスケールディープ均衡モデル(MDEQ)を新たに提案する。
MDEQは、複数の特徴分解の平衡点を直接解き、同時に伝播する。
本稿では,Cityscapesデータセットの高解像度画像に対するイメージネット分類とセマンティックセグメンテーションの2つの大規模ビジョンタスクにおけるこのアプローチの有効性について述べる。
論文 参考訳(メタデータ) (2020-06-15T18:07:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。