論文の概要: SALSA-CLRS: A Sparse and Scalable Benchmark for Algorithmic Reasoning
- arxiv url: http://arxiv.org/abs/2309.12253v1
- Date: Thu, 21 Sep 2023 16:57:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-22 14:09:42.019979
- Title: SALSA-CLRS: A Sparse and Scalable Benchmark for Algorithmic Reasoning
- Title(参考訳): SALSA-CLRS: アルゴリズム推論のためのスパースでスケーラブルなベンチマーク
- Authors: Julian Minder, Florian Gr\"otschla, Jo\"el Mathys, Roger Wattenhofer
- Abstract要約: 本稿では、CLRSアルゴリズム学習ベンチマークの拡張、スケーラビリティの優先順位付け、スパース表現の利用について紹介する。
我々のアプローチには、オリジナルのCLRSベンチマークからの適応アルゴリズムが含まれており、分散およびランダム化アルゴリズムの新たな問題が導入されている。
- 参考スコア(独自算出の注目度): 20.706469085872516
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We introduce an extension to the CLRS algorithmic learning benchmark,
prioritizing scalability and the utilization of sparse representations. Many
algorithms in CLRS require global memory or information exchange, mirrored in
its execution model, which constructs fully connected (not sparse) graphs based
on the underlying problem. Despite CLRS's aim of assessing how effectively
learned algorithms can generalize to larger instances, the existing execution
model becomes a significant constraint due to its demanding memory requirements
and runtime (hard to scale). However, many important algorithms do not demand a
fully connected graph; these algorithms, primarily distributed in nature, align
closely with the message-passing paradigm employed by Graph Neural Networks.
Hence, we propose SALSA-CLRS, an extension of the current CLRS benchmark
specifically with scalability and sparseness in mind. Our approach includes
adapted algorithms from the original CLRS benchmark and introduces new problems
from distributed and randomized algorithms. Moreover, we perform a thorough
empirical evaluation of our benchmark. Code is publicly available at
https://github.com/jkminder/SALSA-CLRS.
- Abstract(参考訳): 我々はCLRSアルゴリズム学習ベンチマークの拡張を導入し、スケーラビリティとスパース表現の利用を優先する。
CLRSの多くのアルゴリズムは、その実行モデルに反映されたグローバルメモリや情報交換を必要とし、根底にある問題に基づいて完全に連結された(スパースではない)グラフを構成する。
clrは、学習したアルゴリズムがいかに効果的に大規模インスタンスに一般化できるかを評価することを目的としているが、既存の実行モデルは、メモリ要求とランタイム(スケールが難しい)のために重大な制約となる。
しかし、多くの重要なアルゴリズムは完全連結グラフを必要としない。これらのアルゴリズムは本質的に分散しており、グラフニューラルネットワークが採用するメッセージパッシングパラダイムと密接に関連している。
したがって、スケーラビリティとスパース性を念頭に置いて、現在のCLRSベンチマークの拡張であるSALSA-CLRSを提案する。
我々のアプローチには、オリジナルのCLRSベンチマークからの適応アルゴリズムが含まれ、分散およびランダム化アルゴリズムの新たな問題が導入されている。
さらに,ベンチマークを徹底的に評価した。
コードはhttps://github.com/jkminder/SALSA-CLRSで公開されている。
関連論文リスト
- A General Online Algorithm for Optimizing Complex Performance Metrics [5.726378955570775]
我々は,バイナリ,マルチクラス,マルチラベルの分類問題において,様々な複雑なパフォーマンス指標を用いて,直接的に使用可能な汎用オンラインアルゴリズムを導入,分析する。
アルゴリズムの更新と予測のルールは、過去のデータを保存することなく、非常にシンプルで計算的に効率的である。
論文 参考訳(メタデータ) (2024-06-20T21:24:47Z) - The CLRS-Text Algorithmic Reasoning Language Benchmark [48.45201665463275]
CLRS-TextはCLRSベンチマークのテキストバージョンである。
CLRS-Textは、30の多様な、挑戦的なアルゴリズムタスクのためのトレースデータを手続き的に生成することができる。
このベンチマークでは、様々なLMをジェネラリストエグゼクタとして微調整し評価する。
論文 参考訳(メタデータ) (2024-06-06T16:29:25Z) - LoRA-Ensemble: Efficient Uncertainty Modelling for Self-attention Networks [52.46420522934253]
本稿では,自己注意ネットワークのためのパラメータ効率の高いディープアンサンブル手法であるLoRA-Ensembleを紹介する。
全メンバー間で重みを共有できる1つの事前学習型自己注意ネットワークを利用することで、注意投影のために、メンバー固有の低ランク行列を訓練する。
提案手法は明示的なアンサンブルよりも優れたキャリブレーションを示し,様々な予測タスクやデータセットに対して類似あるいは良好な精度を実現する。
論文 参考訳(メタデータ) (2024-05-23T11:10:32Z) - Sketch and shift: a robust decoder for compressive clustering [17.627195350266796]
圧縮学習は、大規模学習のメモリフットプリントを大幅に削減する、新たなアプローチである。
CL-OMPRよりも大幅に改善された代替デコーダを提案する。
提案アルゴリズムは,従来より10倍小さいMNISTデータセットのスケッチからクラスタリング情報を抽出することができる。
論文 参考訳(メタデータ) (2023-12-15T16:53:55Z) - Faster Approximation Algorithms for Parameterized Graph Clustering and
Edge Labeling [6.599344783327054]
グラフクラスタリングは、グラフの他の部分と疎結合なノードの集合を検出することを目的としている、ネットワーク分析における基本的なタスクである。
NPハードなパラメータ化クラスタリングフレームワークLambdaCCに対して,高速な近似アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-08T02:29:37Z) - Sparsity May Cry: Let Us Fail (Current) Sparse Neural Networks Together! [100.19080749267316]
Sparsity May Cry"ベンチマーク(SMC-Bench)は、慎重に計算された4つのタスクと10のデータセットのコレクションである。
SMC-Benchは、よりスケーラブルで一般化可能なスパースアルゴリズムの開発を奨励するように設計されている。
論文 参考訳(メタデータ) (2023-03-03T18:47:21Z) - Learning Hidden Markov Models Using Conditional Samples [72.20944611510198]
本稿では,隠れマルコフモデル(HMM)の学習における計算複雑性について述べる。
本稿では,HMMの条件分布からサンプルを問合せする対話型アクセスモデルを提案する。
具体的には、正確な条件付き確率に対するクエリアクセスが可能な設定において、HMMを学習するための効率的なアルゴリズムを得る。
論文 参考訳(メタデータ) (2023-02-28T16:53:41Z) - Towards Better Out-of-Distribution Generalization of Neural Algorithmic
Reasoning Tasks [51.8723187709964]
ニューラルネットワーク推論タスクのOOD一般化について検討する。
目標は、ディープニューラルネットワークを使用して入出力ペアからアルゴリズムを学ぶことである。
論文 参考訳(メタデータ) (2022-11-01T18:33:20Z) - Genie: A new, fast, and outlier-resistant hierarchical clustering
algorithm [3.7491936479803054]
我々はGenieと呼ばれる新しい階層的クラスタリングリンク基準を提案する。
我々のアルゴリズムは、2つのクラスタを、選択された経済不平等尺度が与えられたしきい値を超えないようにリンクする。
このアルゴリズムのリファレンス実装は、Rのためのオープンソースの'genie'パッケージに含まれている。
論文 参考訳(メタデータ) (2022-09-13T06:42:53Z) - SreaMRAK a Streaming Multi-Resolution Adaptive Kernel Algorithm [60.61943386819384]
既存のKRRの実装では、すべてのデータがメインメモリに格納される必要がある。
KRRのストリーミング版であるStreaMRAKを提案する。
本稿では,2つの合成問題と2重振り子の軌道予測について紹介する。
論文 参考訳(メタデータ) (2021-08-23T21:03:09Z) - Optimal Continual Learning has Perfect Memory and is NP-hard [19.629732320437856]
連続学習(CL)アルゴリズムは、連続的に観察された複数のタスクにまたがる予測や表現を漸進的に学習する。
本論文は、その理由を説明する理論的アプローチを開発する。
悲惨な忘れ物を避けるために,CLアルゴリズムが持つ計算特性を導出する。
論文 参考訳(メタデータ) (2020-06-09T11:20:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。