論文の概要: Towards Generalising Neural Implicit Representations
- arxiv url: http://arxiv.org/abs/2101.12690v1
- Date: Fri, 29 Jan 2021 17:20:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-01 12:54:59.662166
- Title: Towards Generalising Neural Implicit Representations
- Title(参考訳): ニューラルインシシシト表現の一般化に向けて
- Authors: Theo W. Costain, Victor Adrian Prisacariu
- Abstract要約: 我々は、従来のタスクと並んで、両タスクのニューラル表現のトレーニングはより一般的なエンコーディングを生み出すことができると論じている。
提案手法は,タスクごとに高品質な結果をもたらす機能豊富なエンコーディングを学習する。
またセグメンテーションタスクを再構築し、暗黙の表現コンテキストに対するより代表的な課題を創出する。
- 参考スコア(独自算出の注目度): 15.728196666021665
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural implicit representations have shown substantial improvements in
efficiently storing 3D data, when compared to conventional formats. However,
the focus of existing work has mainly been on storage and subsequent
reconstruction. In this work, we argue that training neural representations for
both reconstruction tasks, alongside conventional tasks, can produce more
general encodings that admit equal quality reconstructions to single task
training, whilst providing improved results on conventional tasks when compared
to single task encodings. Through multi-task experiments on reconstruction,
classification, and segmentation our approach learns feature rich encodings
that produce high quality results for each task. We also reformulate the
segmentation task, creating a more representative challenge for implicit
representation contexts.
- Abstract(参考訳): ニューラルな暗黙表現は、従来のフォーマットと比較して、3Dデータを効率的に保存する上で大幅に改善されている。
しかし、既存の作業の焦点は、主に保管とその後の再建である。
本研究は, 従来のタスクと並んで, 従来のタスクに比較して, 従来のタスクに対して改善された結果を提供しつつ, 単一タスクのトレーニングと同等の品質の再構築を許容する, より一般的なエンコーディングを実現できることを論じるものである。
再構成,分類,セグメンテーションに関するマルチタスク実験を通じて,提案手法は,タスクごとに高品質な結果をもたらす機能豊富なエンコーディングを学習する。
またセグメンテーションタスクを再構築し、暗黙の表現コンテキストに対するより代表的な課題を創出する。
関連論文リスト
- Towards Task-Compatible Compressible Representations [0.7980273012483663]
マルチタスクで学習可能な圧縮において、あるタスクで学習した表現が別のタスクの速度歪み性能に肯定的な寄与をしない問題について検討する。
学習可能なスケーラブルコーディングでは、この共有表現を学習する際に入力再構成にも報いることで、入力再構成のためのサイド情報の利用が増加した。
我々はCOCO 2017のオブジェクト検出とCityscapesデータセットの深さ推定のために訓練された表現を用いて実験を行い、画像再構成とセマンティックセグメンテーションタスクを支援する。
論文 参考訳(メタデータ) (2024-05-16T16:47:46Z) - Contextualising Implicit Representations for Semantic Tasks [5.453372578880444]
以前の研究では、リコンストラクションタスクにのみ訓練された暗黙の表現が、一般的に意味的なタスクには役に立たないエンコーディングを生成することが示されている。
本稿では,暗黙表現のエンコーディングを文脈化して,下流タスクで使用できるようにする手法を提案する。
論文 参考訳(メタデータ) (2023-05-22T17:59:58Z) - Real-World Compositional Generalization with Disentangled
Sequence-to-Sequence Learning [81.24269148865555]
最近提案されたDunangled sequence-to-sequence model (Dangle)は、有望な一般化能力を示している。
このモデルに2つの重要な変更を加え、より不整合表現を奨励し、その計算とメモリ効率を改善する。
具体的には、各タイミングでソースキーと値を適応的に再エンコードするのではなく、表現をアンタングルし、キーを定期的に再エンコードする。
論文 参考訳(メタデータ) (2022-12-12T15:40:30Z) - Fast Inference and Transfer of Compositional Task Structures for
Few-shot Task Generalization [101.72755769194677]
本稿では,タスクがサブタスクグラフによって特徴づけられる,数発の強化学習問題として定式化する。
我々のマルチタスクサブタスクグラフ推論器(MTSGI)は、トレーニングタスクから、まず、サブタスクグラフの観点から、一般的なハイレベルなタスク構造を推測する。
提案手法は,2次元グリッドワールドおよび複雑なWebナビゲーション領域において,タスクの共通基盤構造を学習し,活用し,未知のタスクへの適応を高速化する。
論文 参考訳(メタデータ) (2022-05-25T10:44:25Z) - Reconstruction Task Finds Universal Winning Tickets [24.52604301906691]
十分に訓練されたニューラルネットワークは、コンピュータビジョンシステムにおいて有望な精度と効率のトレードオフを実現するのに有効である。
既存のプルーニングアルゴリズムのほとんどは、ソースドメインで定義された分類タスクのみに焦点を当てている。
本稿では,画像レベルのプレトレインタスクは,下流の様々なタスクに対して,モデルを刈り取ることができないことを示す。
論文 参考訳(メタデータ) (2022-02-23T13:04:32Z) - Learning to Generalize Compositionally by Transferring Across Semantic
Parsing Tasks [37.66114618645146]
本研究では,ある構成課題から別の構成課題への移動学習を容易にする学習表現について検討する。
本手法を3つの全く異なるデータセットを用いて意味解析に適用する。
本手法は,対象タスクのテストセット上でのベースラインに対する合成一般化を著しく改善する。
論文 参考訳(メタデータ) (2021-11-09T09:10:21Z) - Learning to Relate Depth and Semantics for Unsupervised Domain
Adaptation [87.1188556802942]
教師なしドメイン適応(UDA)設定において,視覚的タスク関係を符号化してモデル性能を向上させる手法を提案する。
本稿では,意味的および深さ的予測のタスク依存性を符号化する新しいクロスタスク関係層(ctrl)を提案する。
さらに、セマンティック擬似ラベルを利用してターゲットドメインを監督する反復自己学習(ISL)トレーニングスキームを提案する。
論文 参考訳(メタデータ) (2021-05-17T13:42:09Z) - Reparameterizing Convolutions for Incremental Multi-Task Learning
without Task Interference [75.95287293847697]
マルチタスクモデルを開発する際の2つの一般的な課題は、しばしば文献で見過ごされる。
まず、モデルを本質的に漸進的に可能にし、以前に学んだことを忘れずに新しいタスクから情報を継続的に取り入れる(インクリメンタルラーニング)。
第二に、タスク間の有害な相互作用を排除し、マルチタスク設定(タスク干渉)においてシングルタスクのパフォーマンスを著しく低下させることが示されている。
論文 参考訳(メタデータ) (2020-07-24T14:44:46Z) - Data-driven Regularization via Racecar Training for Generalizing Neural
Networks [28.08782668165276]
ニューラルネットワークの一般化を改善するための新しいトレーニング手法を提案する。
逆パスによる実践的なネットワークアーキテクチャにおいて,私たちの定式化が容易に実現可能であることを示す。
提案手法で学習したネットワークは,すべての層で入力と出力のバランスが良くなり,説明性が向上し,各種タスクやタスク転送の性能が向上した。
論文 参考訳(メタデータ) (2020-06-30T18:00:41Z) - Probing Linguistic Features of Sentence-Level Representations in Neural
Relation Extraction [80.38130122127882]
ニューラルリレーション抽出(RE)に関連する言語特性を対象とした14の探索タスクを導入する。
私たちは、40以上の異なるエンコーダアーキテクチャと2つのデータセットでトレーニングされた言語的特徴の組み合わせによって学習された表現を研究するためにそれらを使用します。
アーキテクチャによって引き起こされるバイアスと言語的特徴の含意は、探索タスクのパフォーマンスにおいて明らかに表現されている。
論文 参考訳(メタデータ) (2020-04-17T09:17:40Z) - Generalized Hindsight for Reinforcement Learning [154.0545226284078]
1つのタスクを解決しようとするときに収集された低リワードデータは、そのタスクを解決するための信号をほとんど、あるいは全く提供しない、と我々は主張する。
本稿では,動作を適切なタスクで再現するための近似逆強化学習手法であるGeneralized Hindsightを提案する。
論文 参考訳(メタデータ) (2020-02-26T18:57:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。