論文の概要: Adversarial training for predictive tasks: theoretical analysis and
limitations in the deterministic case
- arxiv url: http://arxiv.org/abs/2011.00835v3
- Date: Mon, 30 Nov 2020 07:41:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 11:12:01.803613
- Title: Adversarial training for predictive tasks: theoretical analysis and
limitations in the deterministic case
- Title(参考訳): 予測課題に対する敵対的訓練--決定論的場合の理論分析と限界
- Authors: Thibault Lesieur, J\'er\'emie Messud, Issa Hammoud, Hanyuan Peng,
C\'eline Lacombe, Paulien Jeunesse
- Abstract要約: Conditional Generalized Adversarial Network (CGAN) は、ディープニューラルネットワークをトレーニングして、処理シーケンスの結果を模倣することができる。
CGANによる決定論的物理処理シーケンスの試験では, 損失が$L_p$であるのに比べ, 真の改善は得られなかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To train a deep neural network to mimic the outcomes of processing sequences,
a version of Conditional Generalized Adversarial Network (CGAN) can be used. It
has been observed by others that CGAN can help to improve the results even for
deterministic sequences, where only one output is associated with the
processing of a given input. Surprisingly, our CGAN-based tests on
deterministic geophysical processing sequences did not produce a real
improvement compared to the use of an $L_p$ loss; we here propose a first
theoretical explanation why. Our analysis goes from the non-deterministic case
to the deterministic one. It led us to develop an adversarial way to train a
content loss that gave better results on our data.
- Abstract(参考訳): ディープニューラルネットワークを訓練して処理シーケンスの結果を模倣するために、コンディション一般化適応ネットワーク(CGAN)のバージョンを使用することができる。
CGANは、与えられた入力の処理に1つの出力しか関連付けられていない決定論的シーケンスにおいても、結果を改善するのに有効である。
驚くべきことに、決定論的地球物理処理シーケンスに関するcganベースのテストは、$l_p$の損失を用いた場合に比べ、真の改善には至らなかった。
分析は非決定論的な場合から決定論的な場合へと進む。
これにより、私たちのデータにより良い結果をもたらすコンテンツ損失をトレーニングする逆の方法が開発されました。
関連論文リスト
- Predicting Probabilities of Error to Combine Quantization and Early Exiting: QuEE [68.6018458996143]
本稿では,量子化と早期出口動的ネットワークを組み合わせたより一般的な動的ネットワークQuEEを提案する。
我々のアルゴリズムは、ソフトアーリーエグジットや入力依存圧縮の一形態と見なすことができる。
提案手法の重要な要素は、さらなる計算によって実現可能な潜在的な精度向上の正確な予測である。
論文 参考訳(メタデータ) (2024-06-20T15:25:13Z) - Concurrent Training and Layer Pruning of Deep Neural Networks [0.0]
トレーニングの初期段階において、ニューラルネットワークの無関係な層を特定し、排除できるアルゴリズムを提案する。
本研究では,非線形区間を切断した後にネットワークを流れる情報の流れを,非線形ネットワーク区間の周囲の残差接続を用いた構造を用いる。
論文 参考訳(メタデータ) (2024-06-06T23:19:57Z) - Inference of Causal Networks using a Topological Threshold [0.10241134756773226]
本稿では,因果関係しきい値を自動的に決定する制約に基づくアルゴリズムを提案する。
このアルゴリズムは一般にPCアルゴリズムよりも高速で精度が高いことを示す。
論文 参考訳(メタデータ) (2024-04-21T21:56:39Z) - Neural Algorithmic Reasoning with Causal Regularisation [18.299363749150093]
我々は重要な観察を行う: アルゴリズムが特定の中間計算を同一に実行する多くの異なる入力が存在する。
この洞察により、アルゴリズムの中間軌道が与えられた場合、ターゲットアルゴリズムが全く同じ次の軌道ステップを持つような入力を生成するデータ拡張手順を開発することができる。
我々は、Hint-Relicと呼ばれる結果の手法が、推論器のOOD一般化能力を改善することを証明した。
論文 参考訳(メタデータ) (2023-02-20T19:41:15Z) - A heteroencoder architecture for prediction of failure locations in
porous metals using variational inference [1.2722697496405462]
多孔質金属張力試験片の故障箇所を予測するために,エンコーダ・デコーダ畳み込みニューラルネットワークを用いた。
故障箇所の予測の目的は、標本中のほとんどの材料が故障しないため、クラス不均衡の極端なケースを示す。
得られた予測分散は、任意の標本において最も失敗する可能性のある位置のランク付けに有効であることを示す。
論文 参考訳(メタデータ) (2022-01-31T20:26:53Z) - How does unlabeled data improve generalization in self-training? A
one-hidden-layer theoretical analysis [93.37576644429578]
この研究は、既知の反復的自己学習パラダイムに関する最初の理論的分析を確立する。
トレーニング収束と一般化能力の両面で、ラベルなしデータの利点を実証する。
また、浅部ニューラルネットワークから深部ニューラルネットワークへの実験は、我々の確立した自己学習に関する理論的知見の正しさを正当化するものである。
論文 参考訳(メタデータ) (2022-01-21T02:16:52Z) - Self-Ensembling GAN for Cross-Domain Semantic Segmentation [107.27377745720243]
本稿では,セマンティックセグメンテーションのためのクロスドメインデータを利用した自己理解型生成逆数ネットワーク(SE-GAN)を提案する。
SE-GANでは、教師ネットワークと学生ネットワークは、意味分節マップを生成するための自己組織化モデルを構成する。
その単純さにもかかわらず、SE-GANは敵の訓練性能を大幅に向上させ、モデルの安定性を高めることができる。
論文 参考訳(メタデータ) (2021-12-15T09:50:25Z) - Why Lottery Ticket Wins? A Theoretical Perspective of Sample Complexity
on Pruned Neural Networks [79.74580058178594]
目的関数の幾何学的構造を解析することにより、刈り取られたニューラルネットワークを訓練する性能を解析する。
本稿では,ニューラルネットワークモデルがプルーニングされるにつれて,一般化が保証された望ましいモデル近傍の凸領域が大きくなることを示す。
論文 参考訳(メタデータ) (2021-10-12T01:11:07Z) - Mitigating Performance Saturation in Neural Marked Point Processes:
Architectures and Loss Functions [50.674773358075015]
本稿では,グラフ畳み込み層のみを利用するGCHPという単純なグラフベースのネットワーク構造を提案する。
我々は,GCHPがトレーニング時間を大幅に短縮し,時間間確率仮定による確率比損失がモデル性能を大幅に改善できることを示した。
論文 参考訳(メタデータ) (2021-07-07T16:59:14Z) - An Uncertainty-Driven GCN Refinement Strategy for Organ Segmentation [53.425900196763756]
本研究では,不確実性解析とグラフ畳み込みネットワークに基づくセグメンテーション改善手法を提案する。
半教師付きグラフ学習問題を定式化するために、特定の入力ボリュームにおける畳み込みネットワークの不確実性レベルを用いる。
本手法は膵臓で1%,脾臓で2%向上し,最先端のCRF改善法よりも優れていた。
論文 参考訳(メタデータ) (2020-12-06T18:55:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。