論文の概要: How Powerful Are Randomly Initialized Pointcloud Set Functions?
- arxiv url: http://arxiv.org/abs/2003.05410v1
- Date: Wed, 11 Mar 2020 16:54:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 13:54:08.261950
- Title: How Powerful Are Randomly Initialized Pointcloud Set Functions?
- Title(参考訳): ランダムに初期化したPointcloud Set関数はどの程度強力か?
- Authors: Aditya Sanghi, Pradeep Kumar Jayaraman
- Abstract要約: トレーニングされていないニューラルネットワーク関数によって生成されたランダムな埋め込みについて検討し、それらが強力な表現であることを示す。
ランダムな集合関数が、完全に訓練されたモデルよりも、ほぼあるいはそれ以上の精度で得られることを示す驚くべき結果が得られる。
- 参考スコア(独自算出の注目度): 13.63816241706028
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study random embeddings produced by untrained neural set functions, and
show that they are powerful representations which well capture the input
features for downstream tasks such as classification, and are often linearly
separable. We obtain surprising results that show that random set functions can
often obtain close to or even better accuracy than fully trained models. We
investigate factors that affect the representative power of such embeddings
quantitatively and qualitatively.
- Abstract(参考訳): 学習されていない神経集合関数によって生成されるランダム埋め込みについて検討し、分類などの下流タスクの入力特徴をうまく捉える強力な表現であり、しばしば線形に分離可能であることを示した。
ランダムな集合関数は、完全に訓練されたモデルよりも、ほぼあるいはそれ以上の精度が得られることを示す驚くべき結果が得られる。
このような埋め込みの代表的な力に影響を与える要因を定量的に定性的に検討する。
関連論文リスト
- Gradient Span Algorithms Make Predictable Progress in High Dimension [0.0]
我々は、全ての「漸進的アルゴリズム」が、無限大となる傾向があるため、スケールされたランダム関数に決定論的に就いていることを証明した。
分布仮定はトレーニングに使用されるが、ランダムグラスやスピンも含む。
論文 参考訳(メタデータ) (2024-10-13T19:26:18Z) - A Heavy-Tailed Algebra for Probabilistic Programming [53.32246823168763]
本稿では,確率変数の尾を解析するための体系的アプローチを提案する。
本稿では,確率型プログラミング言語コンパイラの静的解析(サンプル作成前)において,この手法をどのように利用できるかを示す。
実験結果から,重み付き代数を利用する推論アルゴリズムは,多数の密度モデリングおよび変分推論タスクにおいて優れた性能が得られることを確認した。
論文 参考訳(メタデータ) (2023-06-15T16:37:36Z) - Promises and Pitfalls of the Linearized Laplace in Bayesian Optimization [73.80101701431103]
線形化ラプラス近似(LLA)はベイズニューラルネットワークの構築に有効で効率的であることが示されている。
ベイズ最適化におけるLLAの有用性について検討し,その性能と柔軟性を強調した。
論文 参考訳(メタデータ) (2023-04-17T14:23:43Z) - Function Approximation with Randomly Initialized Neural Networks for
Approximate Model Reference Adaptive Control [0.0]
近年の研究では、ReLUのような特殊活性化関数に対して、ランダムなアクティベーションの線形結合によって高い精度が得られることが示されている。
本稿では, 直接積分表現が知られていないアクティベーションを用いて, 対象関数の積分表現を形成する手段を提供する。
論文 参考訳(メタデータ) (2023-03-28T18:55:48Z) - Provable General Function Class Representation Learning in Multitask
Bandits and MDPs [58.624124220900306]
マルチタスク表現学習は、サンプル効率を高めるために強化学習において一般的なアプローチである。
本研究では,解析結果を一般関数クラス表現に拡張する。
バンディットと線形MDPの一般関数クラスにおけるマルチタスク表現学習の利点を理論的に検証する。
論文 参考訳(メタデータ) (2022-05-31T11:36:42Z) - Learning Debiased and Disentangled Representations for Semantic
Segmentation [52.35766945827972]
セマンティックセグメンテーションのためのモデルに依存しない訓練手法を提案する。
各トレーニングイテレーションで特定のクラス情報をランダムに除去することにより、クラス間の機能依存を効果的に削減する。
提案手法で訓練したモデルは,複数のセマンティックセグメンテーションベンチマークにおいて強い結果を示す。
論文 参考訳(メタデータ) (2021-10-31T16:15:09Z) - Neural Network Approximation of Refinable Functions [8.323468006516018]
本研究では, 深部ReLUネットワークの出力幅が一定であり, 精度指数で深部を増大させることにより, 精錬可能関数が近似可能であることを示す。
本研究は,ウェーブレットの標準構成に使用される関数と,コンピュータ支援幾何設計における部分分割アルゴリズムを用いて構築される関数に適用する。
論文 参考訳(メタデータ) (2021-07-28T06:45:36Z) - Reachable Sets of Classifiers and Regression Models: (Non-)Robustness
Analysis and Robust Training [1.0878040851638]
分類器と回帰モデルの両方の頑健性特性を解析・拡張する。
具体的には、(非)難易度を検証し、堅牢なトレーニング手順を提案し、我々のアプローチが敵攻撃よりも優れていることを示す。
第2に、ラベル付けされていない入力に対する信頼できない予測と信頼できない予測を区別し、各特徴が予測に与える影響を定量化し、特徴ランキングを計算する技術を提供する。
論文 参考訳(メタデータ) (2020-07-28T10:58:06Z) - UNIPoint: Universally Approximating Point Processes Intensities [125.08205865536577]
学習可能な関数のクラスが任意の有効な強度関数を普遍的に近似できることを示す。
ニューラルポイントプロセスモデルであるUNIPointを実装し,各イベントの基底関数の和をパラメータ化するために,リカレントニューラルネットワークを用いた。
論文 参考訳(メタデータ) (2020-07-28T09:31:56Z) - Characteristic Functions on Graphs: Birds of a Feather, from Statistical
Descriptors to Parametric Models [8.147652597876862]
本稿では,特徴関数の特定の変量を計算するための計算効率の良いアルゴリズムであるFEATHERを紹介する。
FEATHERによって抽出された機能は、ノードレベルの機械学習タスクに有用である、と我々は主張する。
実世界の大規模データセットを用いた実験により,提案アルゴリズムが高品質な表現を生成することを示す。
論文 参考訳(メタデータ) (2020-05-16T11:47:05Z) - Explaining Black Box Predictions and Unveiling Data Artifacts through
Influence Functions [55.660255727031725]
影響関数は、影響力のあるトレーニング例を特定することによって、モデルの判断を説明する。
本稿では,代表課題における影響関数と共通単語順応法の比較を行う。
我々は,学習データ中の成果物を明らかにすることができる影響関数に基づく新しい尺度を開発した。
論文 参考訳(メタデータ) (2020-05-14T00:45:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。