論文の概要: Learning to Learn and Sample BRDFs
- arxiv url: http://arxiv.org/abs/2210.03510v2
- Date: Thu, 4 May 2023 14:42:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-05 19:40:35.407737
- Title: Learning to Learn and Sample BRDFs
- Title(参考訳): BRDFの学習とサンプル化
- Authors: Chen Liu, Michael Fischer, Tobias Ritschel
- Abstract要約: 本稿では,2方向反射率分布関数(BRDF)モデルを物理的に取得し,学習する結合過程を高速化する手法を提案する。
BRDF学習はメタラーニングによって加速することができるが、機械的プロセスに依存しているため、獲得は遅いままである。
- 参考スコア(独自算出の注目度): 18.19532475153141
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a method to accelerate the joint process of physically acquiring
and learning neural Bi-directional Reflectance Distribution Function (BRDF)
models. While BRDF learning alone can be accelerated by meta-learning,
acquisition remains slow as it relies on a mechanical process. We show that
meta-learning can be extended to optimize the physical sampling pattern, too.
After our method has been meta-trained for a set of fully-sampled BRDFs, it is
able to quickly train on new BRDFs with up to five orders of magnitude fewer
physical acquisition samples at similar quality. Our approach also extends to
other linear and non-linear BRDF models, which we show in an extensive
evaluation.
- Abstract(参考訳): 本稿では,神経双方向反射率分布関数(brdf)モデルの物理的獲得と学習の協調プロセスを促進させる手法を提案する。
BRDF学習はメタラーニングによって加速することができるが、機械的プロセスに依存しているため、獲得は遅いままである。
物理サンプリングパターンを最適化するためにメタ学習も拡張可能であることを示す。
本手法は,完全サンプリングbrdfに対してメタトレーニングを行った後,最大5桁の物理的取得サンプルを同じ品質で,新しいbrdfを迅速に訓練することができる。
また,本手法は他の線形および非線形brdfモデルにも拡張し,広範な評価を行った。
関連論文リスト
- Compact Language Models via Pruning and Knowledge Distillation [61.56557874432008]
ミニトロンモデルでは、スクラッチからのトレーニングに比べてMMLUスコアが最大16%改善している。
すでにトレーニング済みの15Bモデルから8Bと4Bモデルを抽出するには、スクラッチからトレーニングするよりも、モデル毎のトレーニングトークンを最大40倍少なくする必要があります。
論文 参考訳(メタデータ) (2024-07-19T21:47:57Z) - Take the Bull by the Horns: Hard Sample-Reweighted Continual Training
Improves LLM Generalization [165.98557106089777]
大きな言語モデル(LLM)の能力を高めることが大きな課題だ。
本研究は,従来の事前学習データセットを用いたLCMの光連続訓練に関する実証的戦略から始まった。
次に、この戦略をインスタンス重み付け分散ロバスト最適化の原則化されたフレームワークに定式化します。
論文 参考訳(メタデータ) (2024-02-22T04:10:57Z) - Fine-Tuning Generative Models as an Inference Method for Robotic Tasks [18.745665662647912]
ロボット作業における観察にニューラルネットワークモデルのサンプル生成を迅速に適応させる方法について検討する。
鍵となるアイデアは、観測された証拠と一致する生成サンプルにそれを適合させることで、モデルを素早く微調整することである。
本手法は自己回帰モデルと変分自己エンコーダの両方に適用可能であることを示す。
論文 参考訳(メタデータ) (2023-10-19T16:11:49Z) - A Human-Machine Joint Learning Framework to Boost Endogenous BCI
Training [20.2015819836196]
内因性脳-コンピュータインターフェース(BCI)は、脳から外部デバイスへの直接的な経路を提供する。
自発的なBCI制御をマスターするには、画像によって識別的で安定した脳信号パターンを生成する必要がある。
そこで本研究では,内因性BCIにおける学習の促進を目的とした人間機械共同学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-25T01:24:18Z) - SAM-RL: Sensing-Aware Model-Based Reinforcement Learning via
Differentiable Physics-Based Simulation and Rendering [49.78647219715034]
本稿では,SAM-RL と呼ばれる感性認識モデルに基づく強化学習システムを提案する。
SAM-RLは、センサーを意識した学習パイプラインによって、ロボットがタスクプロセスを監視するための情報的視点を選択することを可能にする。
我々は,ロボット組立,ツール操作,変形可能なオブジェクト操作という3つの操作タスクを達成するための実世界の実験に,我々のフレームワークを適用した。
論文 参考訳(メタデータ) (2022-10-27T05:30:43Z) - Neural BRDFs: Representation and Operations [25.94375378662899]
双方向反射率分布関数 (BRDF) はコンピュータグラフィックスにおいてリアルな物理的外観を生成するために広く用いられている。
我々は「ニューラルBRDF代数」の形式を示し、BRDFの表現と操作を同時に重視する。
論文 参考訳(メタデータ) (2021-11-06T03:50:02Z) - Efficiently Training On-Policy Actor-Critic Networks in Robotic Deep
Reinforcement Learning with Demonstration-like Sampled Exploration [7.930709072852582]
本稿では,アクター批判アルゴリズムに基づく実証から学ぶための一般的なフレームワークを提案する。
我々は,Mujocoの4つの標準ベンチマーク環境と,自設計の2つのロボット環境について実験を行った。
論文 参考訳(メタデータ) (2021-09-27T12:42:05Z) - Neural BRDF Representation and Importance Sampling [79.84316447473873]
本稿では,リフレクタンスBRDFデータのコンパクトニューラルネットワークに基づく表現について述べる。
BRDFを軽量ネットワークとしてエンコードし、適応角サンプリングによるトレーニングスキームを提案する。
複数の実世界のデータセットから等方性および異方性BRDFの符号化結果を評価する。
論文 参考訳(メタデータ) (2021-02-11T12:00:24Z) - Denoising Diffusion Implicit Models [117.03720513930335]
DDPMと同様の訓練手順を施した反復的暗黙的確率モデルに対して,拡散暗黙モデル(DDIM)を提案する。
DDIMsは、DDPMsと比較して、壁面時間で10倍から50倍高速な高品質のサンプルを作成できる。
論文 参考訳(メタデータ) (2020-10-06T06:15:51Z) - Fast-Convergent Federated Learning [82.32029953209542]
フェデレーション学習は、モバイルデバイスの現代的なネットワークを介して機械学習タスクを分散するための、有望なソリューションである。
本稿では,FOLBと呼ばれる高速収束型フェデレーション学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-26T14:37:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。