論文の概要: BR-NS: an Archive-less Approach to Novelty Search
- arxiv url: http://arxiv.org/abs/2104.03936v1
- Date: Thu, 8 Apr 2021 17:31:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-09 13:15:58.400019
- Title: BR-NS: an Archive-less Approach to Novelty Search
- Title(参考訳): BR-NS:ノベルティ検索のためのアーカイブレスアプローチ
- Authors: Achkan Salehi, Alexandre Coninx, Stephane Doncieux
- Abstract要約: 行動認識に基づく新規性探索(BR-NS)という,新規性推定の代替手法について議論する。
BR-NSはアーカイブを必要とせず、行動空間で定義できるメトリクスを前提にせず、近隣の検索に依存しません。
我々は、その実現可能性とダイナミクス、および時間複雑性の観点からアーカイブベースのnsよりも潜在的に有利な点について洞察を得るために実験を行う。
- 参考スコア(独自算出の注目度): 70.13948372218849
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As open-ended learning based on divergent search algorithms such as Novelty
Search (NS) draws more and more attention from the research community, it is
natural to expect that its application to increasingly complex real-world
problems will require the exploration to operate in higher dimensional Behavior
Spaces which will not necessarily be Euclidean. Novelty Search traditionally
relies on k-nearest neighbours search and an archive of previously visited
behavior descriptors which are assumed to live in a Euclidean space. This is
problematic because of a number of issues. On one hand, Euclidean distance and
Nearest-neighbour search are known to behave differently and become less
meaningful in high dimensional spaces. On the other hand, the archive has to be
bounded since, memory considerations aside, the computational complexity of
finding nearest neighbours in that archive grows linearithmically with its
size. A sub-optimal bound can result in "cycling" in the behavior space, which
inhibits the progress of the exploration. Furthermore, the performance of NS
depends on a number of algorithmic choices and hyperparameters, such as the
strategies to add or remove elements to the archive and the number of
neighbours to use in k-nn search. In this paper, we discuss an alternative
approach to novelty estimation, dubbed Behavior Recognition based Novelty
Search (BR-NS), which does not require an archive, makes no assumption on the
metrics that can be defined in the behavior space and does not rely on nearest
neighbours search. We conduct experiments to gain insight into its feasibility
and dynamics as well as potential advantages over archive-based NS in terms of
time complexity.
- Abstract(参考訳): ノベルティサーチ(NS)のような多様な検索アルゴリズムに基づくオープンエンドラーニングは、研究コミュニティからますます注目を集めているため、より複雑な実世界の問題に応用するためには、必ずしもユークリッドではない高次元の行動空間を探索する必要があると期待するのも当然である。
ノベルティ・サーチは伝統的にk-ネアレスト近傍の探索と、ユークリッド空間に居住していると仮定された以前に訪れた行動記述子のアーカイブに依存している。
これは多くの問題のために問題となる。
一方、ユークリッド距離と近距離探索は異なる振る舞いをすることが知られており、高次元空間では意味をなさない。
一方、アーカイブは、メモリを考慮すれば、アーカイブ内の最寄りの近傍を見つける計算の複雑さはそのサイズで線形に増加するため、バウンダリでなければならない。
準最適境界(sub-optimal bound)は、行動空間において「サイクリング(cycling)」となり、探索の進行を阻害する。
さらに、nsの性能は、アーカイブに要素を追加または削除する戦略や、k-nn検索で使用する近傍の数など、多くのアルゴリズム選択とハイパーパラメータに依存する。
本稿では,行動認識に基づくノベルティ探索 (BR-NS) という,行動空間で定義可能な測度を前提とせず,近隣の探索に頼らない,新規性推定の代替手法について論じる。
我々は、その実現可能性とダイナミクス、および時間複雑性の観点からアーカイブベースのnsよりも潜在的に有利な点について洞察を得るために実験を行う。
関連論文リスト
- Early Exit Strategies for Approximate k-NN Search in Dense Retrieval [10.48678957367324]
アーリーエグジットのための最先端のA-kNNを構築し,忍耐の概念に基づく教師なし手法を提案する。
我々は,A-kNNの効率を最大5倍の高速化で向上すると同時に,無視可能な効率損失を達成できることを示す。
論文 参考訳(メタデータ) (2024-08-09T10:17:07Z) - Efficient NAS with FaDE on Hierarchical Spaces [0.6372911857214884]
階層型NAS空間の有限領域における相対的な性能予測を得るために、微分可能なアーキテクチャ探索を用いるFaDEを提案する。
FaDEは特に深層階層の多セル探索空間に向いている。
論文 参考訳(メタデータ) (2024-04-24T21:33:17Z) - Lexically-Accelerated Dense Retrieval [29.327878974130055]
LADR (Lexically-Accelerated Dense Retrieval) は, 既存の高密度検索モデルの効率を向上する, 簡便な手法である。
LADRは、標準ベンチマークでの徹底的な検索と同等の精度とリコールの両方を一貫して達成する。
論文 参考訳(メタデータ) (2023-07-31T15:44:26Z) - k-Means Maximum Entropy Exploration [55.81894038654918]
余分な報酬を伴う連続空間での探索は、強化学習におけるオープンな問題である。
本研究では, 状態訪問分布のエントロピーに対する近似値の低界化に基づく人工好奇性アルゴリズムを提案する。
提案手法は,高次元連続空間における探索のためのベンチマークにおいて,計算効率と競合性の両方を示す。
論文 参考訳(メタデータ) (2022-05-31T09:05:58Z) - Geodesics, Non-linearities and the Archive of Novelty Search [69.6462706723023]
このアーカイブの重要な効果は、不適切な行動指標の使用による探索バイアスと相反することである。
我々の観察は、サンプリングにおいてアーカイブにより積極的な役割を担っていることが有益であることを示しているように思われる。
論文 参考訳(メタデータ) (2022-05-06T12:03:40Z) - Exploring Complicated Search Spaces with Interleaving-Free Sampling [127.07551427957362]
本稿では,長距離接続を伴う複雑な検索空間上に探索アルゴリズムを構築する。
我々はtextbfIF-NAS という単純なアルゴリズムを提案し、異なるサブネットワークを構築するために周期的なサンプリング戦略を実行する。
提案した探索空間において、IF-NASはランダムサンプリングと従来の重み付け検索のアルゴリズムを有意差で上回っている。
論文 参考訳(メタデータ) (2021-12-05T06:42:48Z) - Probabilistic DAG Search [29.47649645431227]
探索空間の潜伏構造を利用して探索木間で情報を共有するための確率的フレームワークを開発する。
我々は、Tic-Tac-Toeの既存の非確率的代替品と特徴選択アプリケーションとを比較検討するアルゴリズムを実証的に見出した。
論文 参考訳(メタデータ) (2021-06-16T11:35:19Z) - AutoSpace: Neural Architecture Search with Less Human Interference [84.42680793945007]
現在のニューラルネットワークアーキテクチャ検索(NAS)アルゴリズムは、ネットワーク構築のための検索空間を設計するための専門知識と努力を必要とします。
探索空間を最適なものに進化させる新しい微分可能な進化フレームワークであるAutoSpaceを提案する。
学習した検索空間では、最近のNASアルゴリズムの性能は、以前手作業で設計した空間に比べて大幅に改善できる。
論文 参考訳(メタデータ) (2021-03-22T13:28:56Z) - Leveraging Reinforcement Learning for evaluating Robustness of KNN
Search Algorithms [0.0]
与えられたクエリポイントのデータセットでk-nearestの隣人を見つける問題は、数年前から解決されてきた。
本稿では,K-Nearest Neighbor Search(K-Nearest Neighbor Search)の手法について,計算の視点から検討する。
本論文では,KNNSアプローチの対敵点に対する堅牢性を評価するために,汎用的な強化学習ベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-10T16:10:58Z) - GOLD-NAS: Gradual, One-Level, Differentiable [100.12492801459105]
GOLD-NAS (Gradual One-Level Differentiable Neural Architecture Search) という新しいアルゴリズムを提案する。
1レベル最適化に可変リソース制約を導入し、弱い演算子をスーパーネットワークから徐々に追い出す。
論文 参考訳(メタデータ) (2020-07-07T10:37:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。