論文の概要: Multiway Storage Modification Machines
- arxiv url: http://arxiv.org/abs/2111.06757v1
- Date: Fri, 12 Nov 2021 15:06:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-15 17:39:40.031157
- Title: Multiway Storage Modification Machines
- Title(参考訳): マルチウェイストレージ改質機
- Authors: J.-M. Chauvet
- Abstract要約: MWSMM(Multiway Storage Modification Machine)の並列バージョンについて述べる。
トロンプ・ヴァン・エムデ・ボアスの代替のアソシエーションストレージ修正マシンと同様に、MWSMMはチューリングマシンが宇宙で認識するものを時間内に認識する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a parallel version of Sch\"onhage's Storage Modification Machine,
the Multiway Storage Modification Machine (MWSMM). Like the alternative
Association Storage Modification Machine of Tromp and van Emde Boas, MWSMMs
recognize in polynomial time what Turing Machines recognize in polynomial
space. Falling thus into the Second Machine Class, the MWSMM is a parallel
machine model conforming to the Parallel Computation Thesis. We illustrate
MWSMMs by a simple implementation of Wolfram's String Substitution System.
- Abstract(参考訳): 本稿では,Sch\ onhage's Storage Modification Machine, Multiway Storage Modification Machine (MWSMM) の並列バージョンを提案する。
トロンプとヴァン・エメド・ボアの代替アソシエーション記憶修正機と同様に、mwsmmは多項式時間でチューリングマシンが多項式空間で認識するものを認識する。
したがって、MWSMMは第2機械クラスに該当し、並列計算理論に準拠した並列機械モデルである。
本稿では,Wolfram の文字列置換システムの簡単な実装により MWSMM を説明する。
関連論文リスト
- Transformers to SSMs: Distilling Quadratic Knowledge to Subquadratic Models [92.36510016591782]
本稿では,事前学習したトランスフォーマーアーキテクチャを,状態空間モデル(SSM)などの代替アーキテクチャに蒸留する手法を提案する。
提案手法はMOHAWKと呼ばれ、3Bトークンと5Bトークンを用いたハイブリッドバージョン(Hybrid Phi-Mamba)を用いてPhi-1.5アーキテクチャに基づくMamba-2変異体を蒸留することができる。
Phi-Mambaは、スクラッチからモデルのトレーニングに使用されるトレーニングデータの1%未満を使用してはいるが、過去のオープンソース非トランスフォーマーモデルと比較して、大幅にパフォーマンスが向上している。
論文 参考訳(メタデータ) (2024-08-19T17:48:11Z) - Mini-Sequence Transformer: Optimizing Intermediate Memory for Long Sequences Training [78.93900796545523]
ミニシーケンス変換器(Mini-Sequence Transformer, MsT)は、非常に長いシーケンスを持つ高速かつ高精度なLLMトレーニング手法である。
MsTは入力シーケンスを分割し、中間メモリ使用量を減らすためにミニシーケンスを反復的に処理する。
huggingfaceライブラリと統合され、MsTはQwen、Mistral、Gemma-2の最大コンテキスト長を12-24倍に拡張した。
論文 参考訳(メタデータ) (2024-07-22T01:52:30Z) - MoEUT: Mixture-of-Experts Universal Transformers [75.96744719516813]
ユニバーサルトランスフォーマー(UT)は、合成一般化の学習において標準トランスフォーマーよりも有利である。
層共有は、同じ次元を持つ非共有モデルと比較してパラメータ数を大幅に削減する。
従来の作業では、言語モデリングのようなパラメータ数の支配的なタスクと競合する共有層トランスフォーマー設計の提案に成功しなかった。
論文 参考訳(メタデータ) (2024-05-25T03:24:32Z) - UniRAG: Universal Retrieval Augmentation for Multi-Modal Large Language Models [76.30799731147589]
そこで,UniRAGというプラグイン・アンド・プレイ技術を紹介した。
一般のエンティティを用いたMSCOCOデータセットによる評価結果から,GPT-4oやGemini-Proといったプロプライエタリモデルも,UniIRモデルのようなMMレトリバーが取得した関連情報を用いて入力プロンプトを拡張した場合,生成品質を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2024-05-16T17:58:45Z) - Parallel Decoding via Hidden Transfer for Lossless Large Language Model Acceleration [54.897493351694195]
本稿では,複数連続するトークンを1つのフォワードパスで同時に復号する,新しい並列復号法,すなわちthithidden Transferを提案する。
加速度測定では,Medusa や Self-Speculative decoding など,単モデル加速技術よりも優れています。
論文 参考訳(メタデータ) (2024-04-18T09:17:06Z) - Multithreaded parallelism for heterogeneous clusters of QPUs [0.0]
我々は、量子無関係な並列マシンスケジューラとカッターであるMILQを紹介する。
複数の量子デバイスにスケジュールされた一連の回路の実行時間を優先順位付けする。
その結果, ベースラインアプローチに比べて最大26%の改善が見られた。
論文 参考訳(メタデータ) (2023-11-29T09:54:04Z) - Support matrix machine: A review [0.0]
サポートマトリックスマシン(SMM)は、行列入力データを扱うのに適した新しい手法の1つである。
本稿では,SMM モデルの開発について,より詳細な分析を行う。
我々は、ロバスト、スパース、クラス不均衡、マルチクラス分類モデルなど、多くのSMM変種について論じる。
論文 参考訳(メタデータ) (2023-10-30T16:46:23Z) - Least Squares Maximum and Weighted Generalization-Memorization Machines [14.139758779594667]
最小二乗支援ベクトルマシン(LSSVM)のためのメモリ影響機構を導入することで、新しい記憶方法を提案する。
次に、最大メモリインパクトモデル(MIMM)と重み付けメモリモデル(WIMM)を提案する。
論文 参考訳(メタデータ) (2023-08-31T04:48:59Z) - Over-the-Air Split Machine Learning in Wireless MIMO Networks [56.27831295707334]
スプリット機械学習(ML)では、ニューラルネットワーク(NN)の異なるパーティションが異なる計算ノードによって実行される。
通信負担を軽減するため、OAC(Over-the-air calculation)は通信と同時に計算の全てまたは一部を効率的に実装することができる。
論文 参考訳(メタデータ) (2022-10-07T15:39:11Z) - Compiling Turing Machines into Storage Modification Machines [0.0]
Sch"onhage's Storage Modification Machines (SMM) がチューリングマシン (TM) をシミュレートできることはよく知られている。
本稿では,TMからSMMへの単純な変換を提案し,単純なTM-to-SMMコンパイラの基盤を設定する。
論文 参考訳(メタデータ) (2021-09-28T10:38:05Z) - Counterfactual Explanations for Machine Learning on Multivariate Time
Series Data [0.9274371635733836]
本稿では、教師付き機械学習フレームワークに対して、対実的説明を提供するための新しい説明可能性手法を提案する。
提案手法は,信頼性やロバスト性など,いくつかの異なるMLフレームワークやデータセット上での最先端の説明可能性手法よりも優れている。
論文 参考訳(メタデータ) (2020-08-25T02:04:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。