論文の概要: Generative Adversarial Learning of Sinkhorn Algorithm Initializations
- arxiv url: http://arxiv.org/abs/2212.00133v1
- Date: Wed, 30 Nov 2022 21:56:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 15:28:47.760169
- Title: Generative Adversarial Learning of Sinkhorn Algorithm Initializations
- Title(参考訳): シンクホーンアルゴリズム初期化の生成的逆学習
- Authors: Jonathan Geuter, Vaios Laschos
- Abstract要約: Sinkhornアルゴリズムは、離散確率分布間の最適な輸送距離の近似を計算するための最先端技術である。
アルゴリズムの初期化を計算するためにニューラルネットワークを訓練する。
特定のアプリケーションに対して,ネットワークを独立して使用できることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Sinkhorn algorithm (arXiv:1306.0895) is the state-of-the-art to compute
approximations of optimal transport distances between discrete probability
distributions, making use of an entropically regularized formulation of the
problem. The algorithm is guaranteed to converge, no matter its initialization.
This lead to little attention being paid to initializing it, and simple
starting vectors like the n-dimensional one-vector are common choices. We train
a neural network to compute initializations for the algorithm, which
significantly outperform standard initializations. The network predicts a
potential of the optimal transport dual problem, where training is conducted in
an adversarial fashion using a second, generating network. The network is
universal in the sense that it is able to generalize to any pair of
distributions of fixed dimension. Furthermore, we show that for certain
applications the network can be used independently.
- Abstract(参考訳): シンクホーンアルゴリズム (arXiv:1306.0895) は離散確率分布間の最適な輸送距離の近似を計算し、エントロピカルに正規化された問題の定式化を利用する。
このアルゴリズムは初期化にかかわらず収束することが保証されている。
このことは初期化にはほとんど注意を払わず、n次元の1ベクトルのような単純な開始ベクトルは一般的な選択である。
アルゴリズムの初期化を計算するためにニューラルネットワークを訓練する。
ネットワークは、第2の生成ネットワークを用いて敵対的な方法でトレーニングを行う最適輸送双対問題の可能性を予測する。
ネットワークは、固定次元の任意の一対の分布に一般化できるという意味で普遍的である。
さらに,特定のアプリケーションではネットワークを独立して使用できることを示す。
関連論文リスト
- GradINN: Gradient Informed Neural Network [2.287415292857564]
物理情報ニューラルネットワーク(PINN)にヒントを得た手法を提案する。
GradINNは、システムの勾配に関する事前の信念を利用して、予測関数の勾配を全ての入力次元にわたって制限する。
非時間依存システムにまたがる多様な問題に対するGradINNの利点を実証する。
論文 参考訳(メタデータ) (2024-09-03T14:03:29Z) - LaCoOT: Layer Collapse through Optimal Transport [5.869633234882029]
本稿では,過度にパラメータ化された深層ニューラルネットワークの深さを低減するための最適輸送手法を提案する。
この距離を最小化することで、ネットワーク内の中間層を完全に取り除くことができ、性能損失はほとんどなく、微調整も不要であることを示す。
論文 参考訳(メタデータ) (2024-06-13T09:03:53Z) - Iterative Soft Shrinkage Learning for Efficient Image Super-Resolution [91.3781512926942]
画像超解像(SR)は、CNNからトランスフォーマーアーキテクチャへの広範なニューラルネットワーク設計を目撃している。
本研究は,市販のネットワーク設計を生かし,基礎となる計算オーバーヘッドを低減するため,超高解像度イテレーションにおけるネットワークプルーニングの可能性について検討する。
本研究では, ランダムネットワークのスパース構造を最適化し, 重要でない重みを小さめに微調整することにより, 反復型軟収縮率(ISS-P)法を提案する。
論文 参考訳(メタデータ) (2023-03-16T21:06:13Z) - Learning k-Level Structured Sparse Neural Networks Using Group Envelope Regularization [4.0554893636822]
制約のあるリソースに大規模ディープニューラルネットワークをデプロイするための新しいアプローチを導入する。
この手法は推論時間を短縮し、メモリ需要と消費電力を減らすことを目的とする。
論文 参考訳(メタデータ) (2022-12-25T15:40:05Z) - Unsupervised Optimal Power Flow Using Graph Neural Networks [172.33624307594158]
グラフニューラルネットワークを用いて、要求された電力と対応するアロケーションとの間の非線形パラメトリゼーションを学習する。
シミュレーションを通して、この教師なし学習コンテキストにおけるGNNの使用は、標準解法に匹敵するソリューションにつながることを示す。
論文 参考訳(メタデータ) (2022-10-17T17:30:09Z) - Adaptive Self-supervision Algorithms for Physics-informed Neural
Networks [59.822151945132525]
物理情報ニューラルネットワーク(PINN)は、損失関数のソフト制約として問題領域からの物理的知識を取り入れている。
これらのモデルの訓練性に及ぼす座標点の位置の影響について検討した。
モデルがより高い誤りを犯している領域に対して、より多くのコロケーションポイントを段階的に割り当てる適応的コロケーション方式を提案する。
論文 参考訳(メタデータ) (2022-07-08T18:17:06Z) - Edge Rewiring Goes Neural: Boosting Network Resilience via Policy
Gradient [62.660451283548724]
ResiNetは、さまざまな災害や攻撃に対する回復力のあるネットワークトポロジを発見するための強化学習フレームワークである。
ResiNetは複数のグラフに対してほぼ最適のレジリエンス向上を実現し,ユーティリティのバランスを保ちながら,既存のアプローチに比べて大きなマージンを持つことを示す。
論文 参考訳(メタデータ) (2021-10-18T06:14:28Z) - Topological obstructions in neural networks learning [67.8848058842671]
損失勾配関数フローのグローバル特性について検討する。
損失関数とそのモースコンプレックスの位相データ解析を用いて,損失面の大域的特性と勾配軌道に沿った局所的挙動を関連付ける。
論文 参考訳(メタデータ) (2020-12-31T18:53:25Z) - Graph Neural Networks for Scalable Radio Resource Management:
Architecture Design and Theoretical Analysis [31.372548374969387]
本稿では,大規模無線資源管理問題にグラフニューラルネットワーク(GNN)を適用することを提案する。
提案手法はスケーラビリティが高く,1つのGPU上で1,000ドルのトランシーバペアを6ミリ秒以内で行う干渉チャネルにおけるビームフォーミング問題を解くことができる。
論文 参考訳(メタデータ) (2020-07-15T11:43:32Z) - Deep neural networks for inverse problems with pseudodifferential
operators: an application to limited-angle tomography [0.4110409960377149]
線形逆問題において擬微分演算子(Psi$DOs)を学習するための新しい畳み込みニューラルネットワーク(CNN)を提案する。
フォワード演算子のより一般的な仮定の下では、ISTAの展開された反復はCNNの逐次的な層として解釈できることを示す。
特に、LA-CTの場合、アップスケーリング、ダウンスケーリング、畳み込みの操作は、制限角X線変換の畳み込み特性とウェーブレット系を定義する基本特性を組み合わせることで正確に決定できることを示す。
論文 参考訳(メタデータ) (2020-06-02T14:03:41Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。