論文の概要: A new Sinkhorn algorithm with Deletion and Insertion operations
- arxiv url: http://arxiv.org/abs/2111.14565v1
- Date: Mon, 29 Nov 2021 14:47:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-30 19:01:33.939022
- Title: A new Sinkhorn algorithm with Deletion and Insertion operations
- Title(参考訳): 削除・挿入操作を用いた新しいシンクホーンアルゴリズム
- Authors: Luc Brun, Benoit Ga\"uz\`ere, S\'ebastien Bougleux, Florian Yger
- Abstract要約: 2つの集合 V1 と V2 の間のエプシロン割り当ては、V1 の部分と V2 の部分の間の写像として理解することができる。
V1の残りの要素は、V2のエプシロン擬似要素にマッピングされる。
逆に、V2の残りの要素は、V1のエプシロン擬似要素の像に対応する。
- 参考スコア(独自算出の注目度): 5.9147332416585225
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This technical report is devoted to the continuous estimation of an
epsilon-assignment. Roughly speaking, an epsilon assignment between two sets V1
and V2 may be understood as a bijective mapping between a sub part of V1 and a
sub part of V2 . The remaining elements of V1 (not included in this mapping)
are mapped onto an epsilon pseudo element of V2 . We say that such elements are
deleted. Conversely, the remaining elements of V2 correspond to the image of
the epsilon pseudo element of V1. We say that these elements are inserted. As a
result our method provides a result similar to the one of the Sinkhorn
algorithm with the additional ability to reject some elements which are either
inserted or deleted. It thus naturally handles sets V1 and V2 of different
sizes and decides mappings/insertions/deletions in a unified way. Our
algorithms are iterative and differentiable and may thus be easily inserted
within a backpropagation based learning framework such as artificial neural
networks.
- Abstract(参考訳): この技術的報告は、エプシロン割り当ての連続的な推定に費やされている。
概して、2つの集合 V1 と V2 の間のエプシロンの割り当ては、V1 の部分部分と V2 の部分の間の単射写像として理解することができる。
v1 の残りの要素(この写像には含まれない)は v2 のエプシロン擬元に写像される。
このような要素は削除されます。
逆に、v2 の残りの要素は v1 の epsilon pseudo element のイメージに対応する。
私たちはこれらの要素を挿入すると言う。
その結果、Sinkhornアルゴリズムに類似した結果を提供し、挿入または削除されたいくつかの要素を拒否する機能を追加する。
これにより、異なるサイズの集合 v1 と v2 を自然に処理し、マッピング/インセプション/削除を統一的に決定する。
我々のアルゴリズムは反復的で微分可能であり、人工ニューラルネットワークのようなバックプロパゲーションベースの学習フレームワークに簡単に挿入できる。
関連論文リスト
- Approximate second laws and energy extraction from quantum batteries [0.0]
系のハミルトニアンにおける十分な摂動が存在する場合、状態は系状態の対角的要素が話し始めるように変換される。
応用として、近似熱演算により量子電池から有限エルゴトロピーが抽出される可能性があることを示す。
論文 参考訳(メタデータ) (2024-09-09T18:08:26Z) - Neural Vector Fields: Generalizing Distance Vector Fields by Codebooks
and Zero-Curl Regularization [73.3605319281966]
メッシュと暗黙的符号なし距離関数(UDF)を演算する明示的な学習プロセスを採用した新しい3D表現であるNeural Vector Fields (NVF)を提案する。
両NVFを水密化・非水密化・非水密化・非水密化・非水密化・非水密化・非水密化・非水密化・非水密化・クロスドメイン化の4つのシナリオで評価した。
論文 参考訳(メタデータ) (2023-09-04T10:42:56Z) - Neural Vector Fields: Implicit Representation by Explicit Learning [63.337294707047036]
ニューラルベクトル場 (Neural Vector Fields, NVF) という新しい3次元表現法を提案する。
メッシュを直接操作するための明示的な学習プロセスを採用するだけでなく、符号なし距離関数(UDF)の暗黙的な表現も採用している。
提案手法は,まず表面への変位クエリを予測し,テキスト再構成として形状をモデル化する。
論文 参考訳(メタデータ) (2023-03-08T02:36:09Z) - Eight types of qutrit dynamics generated by unitary evolution combined
with 2+1 projective measurement [0.7614628596146599]
我々は、一元的に進化した3次元量子系によって量子状態の集合上で生成できるマルコフ連鎖を分類する。
そのような系の力学は、ブロッホ球と単一点の合同で起こるものとして視覚化することができる。
論文 参考訳(メタデータ) (2021-12-04T17:17:50Z) - Self-Supervised Learning Disentangled Group Representation as Feature [82.07737719232972]
既存の自己監督学習(SSL)は、回転や着色などの単純な拡張機能のみを分解することを示す。
反復的分割に基づく不変リスク最小化(IP-IRM)を提案する。
我々は、IP-IRMが完全に不整合表現に収束し、様々なベンチマークでその効果を示すことを証明した。
論文 参考訳(メタデータ) (2021-10-28T16:12:33Z) - Duplex Sequence-to-Sequence Learning for Reversible Machine Translation [53.924941333388155]
機械翻訳のようなシーケンス・ツー・シーケンス(seq2seq)問題は双方向である。
我々は、em二重化seq2seqニューラルネットワークを提案し、機械翻訳に適用する。
広く使用されている機械翻訳ベンチマークの実験は、REDERがリバーシブル機械翻訳の最初の成功を達成することを検証します。
論文 参考訳(メタデータ) (2021-05-07T18:21:57Z) - Abelian Neural Networks [48.52497085313911]
まず、アベリア群演算のためのニューラルネットワークアーキテクチャを構築し、普遍近似特性を導出する。
連想対称の特徴づけを用いて、アベリア半群演算に拡張する。
固定単語埋め込み上でモデルをトレーニングし、元の word2vec よりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-02-24T11:52:21Z) - Distributive Laws, Spans and the ZX-Calculus [0.0]
モジュラーに新しいジェネレータとリレーションを追加することで、より大きなZX計算の断片をモジュラーに構築する。
これは、Zanasiのプッシュアウトキューブの技法と同様に、分配法則によって小道具を組み立てるラックの技法を用いて行われる。
論文 参考訳(メタデータ) (2021-02-08T17:47:28Z) - Neural Operator: Graph Kernel Network for Partial Differential Equations [57.90284928158383]
この作業はニューラルネットワークを一般化し、無限次元空間(演算子)間の写像を学習できるようにすることである。
非線形活性化関数と積分作用素のクラスを構成することにより、無限次元写像の近似を定式化する。
実験により,提案したグラフカーネルネットワークには所望の特性があり,最先端技術と比較した場合の競合性能を示すことが確認された。
論文 参考訳(メタデータ) (2020-03-07T01:56:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。