論文の概要: Information flow and Laplacian dynamics on local optima networks
- arxiv url: http://arxiv.org/abs/2401.09229v1
- Date: Wed, 17 Jan 2024 14:12:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-18 15:50:14.032616
- Title: Information flow and Laplacian dynamics on local optima networks
- Title(参考訳): 局所オプティマネットワークにおける情報の流れとラプラシアンダイナミクス
- Authors: Hendrik Richter and Sarah L. Thomson
- Abstract要約: ローカルオプティマネットワーク(LON)の新しい手法を提案する。
ノードは局所最適であり、エッジはそれらの間の検索遷移である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We propose a new way of looking at local optima networks (LONs). LONs
represent fitness landscapes; the nodes are local optima, and the edges are
search transitions between them. Many metrics computed on LONs have been
proposed and shown to be linked to metaheuristic search difficulty. These have
typically considered LONs as describing static structures. In contrast to this,
Laplacian dynamics (LD) is an approach to consider the information flow across
a network as a dynamical process. We adapt and apply LD to the context of LONs.
As a testbed, we consider instances from the quadratic assignment problem (QAP)
library. Metrics related to LD are proposed and these are compared with
existing LON metrics. The results show that certain LD metrics are strong
predictors of metaheuristic performance for iterated local search and tabu
search.
- Abstract(参考訳): 我々は,ローカルオプティマネットワーク(lons)を探索する新しい手法を提案する。
ノードは局所最適であり、エッジはそれらの間の検索遷移である。
LONで計算された多くの指標が提案され、メタヒューリスティックな探索困難と結びついていることが示されている。
これらは典型的には、LONを静的構造を記述するものと見なしている。
これとは対照的に、ラプラシア力学(LD)は、ネットワーク間の情報フローを動的プロセスとして考えるアプローチである。
我々はLDをLONの文脈に適用する。
テストベッドとして、二次代入問題(QAP)ライブラリのインスタンスを考える。
LDに関連するメトリクスを提案し,既存のLONメトリクスと比較した。
その結果,特定のLD指標が局所探索とタブ検索の反復においてメタヒューリスティックな性能の強い予測因子であることが示唆された。
関連論文リスト
- Low-Rank Representations Meets Deep Unfolding: A Generalized and
Interpretable Network for Hyperspectral Anomaly Detection [41.50904949744355]
現在のハイパースペクトル異常検出(HAD)ベンチマークデータセットは、低解像度、単純なバックグラウンド、検出データの小さなサイズに悩まされている。
これらの要因は、ロバスト性の観点からよく知られた低ランク表現(LRR)モデルの性能も制限する。
我々は、複雑なシナリオにおけるHADアルゴリズムの堅牢性を改善するために、新しいHADベンチマークデータセットであるAIR-HADを構築した。
論文 参考訳(メタデータ) (2024-02-23T14:15:58Z) - Scaling Sparse Fine-Tuning to Large Language Models [67.59697720719672]
大きな言語モデル(LLM)は、パラメータの数が多いため、完全な微調整が難しい。
本研究では,パラメータの配列とパラメータのデルタを事前学習した値に対して保持する新しいスパース微調整法SpIELを提案する。
提案手法は,LoRAのようなパラメータ効率の高い微調整法よりも性能が優れ,実行時間も同等であることを示す。
論文 参考訳(メタデータ) (2024-01-29T18:43:49Z) - SQLNet: Scale-Modulated Query and Localization Network for Few-Shot
Class-Agnostic Counting [71.38754976584009]
CAC(class-agnostic counting)タスクは、最近、任意のクラスの全てのオブジェクトを、入力画像にいくつかの例を付与してカウントする問題を解くために提案されている。
我々は、スケール変調クエリーおよびローカライズネットワーク(Net)と呼ばれる、新しいローカライズベースのCACアプローチを提案する。
クエリとローカライゼーションの段階において、模範者のスケールを完全に探求し、各オブジェクトを正確に位置付けし、その近似サイズを予測することで、効果的なカウントを実現している。
論文 参考訳(メタデータ) (2023-11-16T16:50:56Z) - Do Localization Methods Actually Localize Memorized Data in LLMs? A Tale of Two Benchmarks [28.46131289972691]
2つのベンチマークは、記憶データに責任があるコンポーネントをピンポイントするローカライズ手法の能力を評価する。
異なる視点にもかかわらず、我々の2つのベンチマークは5つのローカライゼーション手法の一貫性のあるランキングを得る。
論文 参考訳(メタデータ) (2023-11-15T15:52:40Z) - Decoupled Local Aggregation for Point Cloud Learning [12.810517967372043]
本稿では,局所的な集合から空間関係の明示的なモデリングを分離することを提案する。
本稿では,各学習段階で相対的な空間符号化が最初に形成される軽量な点ネットワークであるDeLAを提案する。
DeLAはScanObjectNNで90%以上、S3DIS Area 5で74% mIoUを達成した。
論文 参考訳(メタデータ) (2023-08-31T08:21:29Z) - LSGNN: Towards General Graph Neural Network in Node Classification by
Local Similarity [59.41119013018377]
本稿では,ローカル類似性(LocalSim)を用いて,プラグイン・アンド・プレイモジュールとしても機能するノードレベルの重み付き融合を学習する。
そこで本研究では,より情報性の高いマルチホップ情報を抽出するための,新規かつ効率的な初期残留差分接続(IRDC)を提案する。
提案手法,すなわちローカル類似グラフニューラルネットワーク(LSGNN)は,ホモ親和性グラフとヘテロ親和性グラフの両方において,同等あるいは優れた最先端性能を提供できる。
論文 参考訳(メタデータ) (2023-05-07T09:06:11Z) - RELS-DQN: A Robust and Efficient Local Search Framework for
Combinatorial Optimization [11.269582666887324]
本稿では,DQNフレームワークのRELS-DQNを紹介する。
1つのアプリケーションでトレーニングされたRELS-DQNモデルを使用することで、ローカル検索アルゴリズムと既存のDQNモデルの両方に等しい解値を提供することで、様々なアプリケーションに一般化することができる。
論文 参考訳(メタデータ) (2023-04-11T18:01:49Z) - Why do Nearest Neighbor Language Models Work? [93.71050438413121]
言語モデル(LM)は、すでに見られる文脈の表現を逐次計算することで、テキストの確率を計算する。
Retrieval-augmented LMは、大規模なデータストアから取得した情報にアクセスすることによって、標準的なニューラルLMよりも改善されている。
論文 参考訳(メタデータ) (2023-01-07T11:12:36Z) - AsySQN: Faster Vertical Federated Learning Algorithms with Better
Computation Resource Utilization [159.75564904944707]
垂直連合学習(VFL)のための非同期準ニュートン(AsySQN)フレームワークを提案する。
提案アルゴリズムは、逆ヘッセン行列を明示的に計算することなく、近似して降下ステップをスケールする。
本稿では,非同期計算を採用することにより,計算資源の有効利用が期待できることを示す。
論文 参考訳(メタデータ) (2021-09-26T07:56:10Z) - Efficient Nearest Neighbor Language Models [114.40866461741795]
非パラメトリックニューラルネットワークモデル(NLM)は、外部データストアを用いてテキストの予測分布を学習する。
比較性能を維持しながら、推論速度の最大6倍の高速化を実現する方法を示す。
論文 参考訳(メタデータ) (2021-09-09T12:32:28Z) - Multi-layer local optima networks for the analysis of advanced local
search-based algorithms [0.6299766708197881]
ローカルオプティマスネットワーク(Local Optima Network, LON)は、特定の近傍演算子と局所探索アルゴリズムに基づいて、特定の最適化問題のフィットネスランドスケープを圧縮するグラフモデルである。
本稿では、多層LONの概念と、フィットネスランドスケープ分析のためのメトリクス抽出を目的としたこれらのモデルを探索するための方法論を提案する。
論文 参考訳(メタデータ) (2020-04-29T03:20:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。