論文の概要: Technical Indicator Networks (TINs): An Interpretable Neural Architecture Modernizing Classic al Technical Analysis for Adaptive Algorithmic Trading
- arxiv url: http://arxiv.org/abs/2507.20202v1
- Date: Sun, 27 Jul 2025 09:47:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-29 16:23:57.264376
- Title: Technical Indicator Networks (TINs): An Interpretable Neural Architecture Modernizing Classic al Technical Analysis for Adaptive Algorithmic Trading
- Title(参考訳): Technical Indicator Networks (TINs): 適応的アルゴリズム取引のための古典的アルゴリズム解析を近代化した解釈可能なニューラルネットワーク
- Authors: Longfei Lu,
- Abstract要約: TIN(Technical Indicator Networks)は、従来のインジケータを複製してアップグレードする一般的なニューラルネットワークとして導入されている。
TINは、技術分析とアルゴリズム取引の基礎ロジックを新しい時代へと近代化し、現代のAIシステムの可能性を秘めた実証済み指標の遺産をブリッジする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This work proposes that a vast majority of classical technical indicators in financial analysis are, in essence, special cases of neural networks with fixed and interpretable weights. It is shown that nearly all such indicators, such as moving averages, momentum-based oscillators, volatility bands, and other commonly used technical constructs, can be reconstructed topologically as modular neural network components. Technical Indicator Networks (TINs) are introduced as a general neural architecture that replicates and structurally upgrades traditional indicators by supporting n-dimensional inputs such as price, volume, sentiment, and order book data. By encoding domain-specific knowledge into neural structures, TINs modernize the foundational logic of technical analysis and propel algorithmic trading into a new era, bridging the legacy of proven indicators with the potential of contemporary AI systems.
- Abstract(参考訳): この研究は、金融分析における古典的技術的指標の大部分が、本質的には、固定重みと解釈可能な重みを持つニューラルネットワークの特別な場合である、と示唆している。
移動平均、運動量に基づく発振器、ボラティリティバンド、その他の一般的な技術構造など、ほぼ全ての指標が、トポロジカルにモジュラーニューラルネットワークコンポーネントとして再構成可能であることが示されている。
TIN(Technical Indicator Networks)は、価格、ボリューム、感情、注文帳データなどのn次元入力をサポートすることで、従来の指標を複製し、構造的にアップグレードする一般的なニューラルネットワークとして導入されている。
ドメイン固有の知識をニューラルネットワーク構造にエンコードすることで、TINは技術分析の基礎ロジックを近代化し、アルゴリズムトレーディングを新しい時代のものにし、現代のAIシステムの可能性によって証明された指標の遺産をブリッジする。
関連論文リスト
- Quantum Spectral Reasoning: A Non-Neural Architecture for Interpretable Machine Learning [0.0]
本稿では,従来のニューラルネットワークのパラダイムから外れた,新しい機械学習アーキテクチャを提案する。
我々は、量子スペクトル法、特にPade近似法とLanczosアルゴリズムを用いて、解釈可能な信号解析とシンボリック推論を行う。
その結果,このスペクトル記号型アーキテクチャは,解釈可能性とデータ効率を保ちながら,競合精度を達成できることがわかった。
論文 参考訳(メタデータ) (2025-08-05T07:16:45Z) - A Quarter of a Century of Neuromorphic Architectures on FPGAs -- an Overview [0.0]
ニューロモルフィックコンピューティングはコンピュータ科学の新しい分野であり、生物学的脳の計算と記憶の原理を用いて情報を処理する新しい方法を作成する。
FPGA(Field Programmable Gate Arrays)は、ハードウェアニューロモルフィックアーキテクチャ(NMA)を簡単に設計できる固有の柔軟性のため、しばしば選択される。
本稿では,FPGA上に実装されたディジタルNMAの概要について述べる。
論文 参考訳(メタデータ) (2025-02-23T15:25:25Z) - Generalized Factor Neural Network Model for High-dimensional Regression [50.554377879576066]
複素・非線形・雑音に隠れた潜在低次元構造を持つ高次元データセットをモデル化する課題に取り組む。
我々のアプローチは、非パラメトリック回帰、因子モデル、高次元回帰のためのニューラルネットワークの概念のシームレスな統合を可能にする。
論文 参考訳(メタデータ) (2025-02-16T23:13:55Z) - Unlocking the Potential of Generative AI through Neuro-Symbolic Architectures: Benefits and Limitations [0.7499722271664147]
ニューロシンボリック人工知能(NSAI)は人工知能(AI)における変革的アプローチである
NSAIは、大規模および非構造化データを扱うディープラーニングの能力と、シンボリックメソッドの構造的推論を組み合わせる。
本稿では、NSAIアーキテクチャを体系的に研究し、ニューラルネットワークとシンボリックコンポーネントの統合に対する独自のアプローチを強調した。
論文 参考訳(メタデータ) (2025-02-16T21:06:33Z) - Deconstructing Recurrence, Attention, and Gating: Investigating the transferability of Transformers and Gated Recurrent Neural Networks in forecasting of dynamical systems [0.0]
我々は、RNNにおけるゲーティングと再発、トランスフォーマーにおける注意機構など、最も強力なニューラルネットワークアーキテクチャの主要なアーキテクチャコンポーネントを分解する。
重要な発見は、ニューラルゲーティングとアテンションは、ほとんどのタスクにおいて標準RNNの正確性を改善する一方で、トランスフォーマーにおける再発の概念の追加は有害である。
論文 参考訳(メタデータ) (2024-10-03T16:41:51Z) - Mechanistic Neural Networks for Scientific Machine Learning [58.99592521721158]
我々は、科学における機械学習応用のためのニューラルネットワーク設計であるメカニスティックニューラルネットワークを提案する。
新しいメカニスティックブロックを標準アーキテクチャに組み込んで、微分方程式を表現として明示的に学習する。
我々のアプローチの中心は、線形プログラムを解くために線形ODEを解く技術に着想を得た、新しい線形計画解法(NeuRLP)である。
論文 参考訳(メタデータ) (2024-02-20T15:23:24Z) - Contextualizing MLP-Mixers Spatiotemporally for Urban Data Forecast at Scale [54.15522908057831]
本稿では,STTD予測を大規模に行うためのコンピュータ・ミクサーの適応版を提案する。
我々の結果は、この単純な効率の良いソリューションが、いくつかのトラフィックベンチマークでテストした場合、SOTAベースラインに匹敵する可能性があることを驚くほど示している。
本研究は, 実世界のSTTD予測において, 簡便な有効モデルの探索に寄与する。
論文 参考訳(メタデータ) (2023-07-04T05:19:19Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Persistence-based operators in machine learning [62.997667081978825]
永続性に基づくニューラルネットワークレイヤのクラスを導入します。
永続化ベースのレイヤにより、ユーザは、データによって尊重される対称性に関する知識を容易に注入でき、学習可能なウェイトを備え、最先端のニューラルネットワークアーキテクチャで構成できる。
論文 参考訳(メタデータ) (2022-12-28T18:03:41Z) - Reachability Analysis of a General Class of Neural Ordinary Differential
Equations [7.774796410415387]
連続的なディープラーニングモデル(Neural Ordinary Differential Equations (Neural ODEs)と呼ばれる)は、ここ数年でかなりの注目を集めている。
その衝撃にもかかわらず、これらのシステムには公式な分析技術が欠如している。
我々は,それらの行動の形式的分析を可能にする,新しい到達可能性フレームワークを導入する。
論文 参考訳(メタデータ) (2022-07-13T22:05:52Z) - Model-Based Deep Learning [155.063817656602]
信号処理、通信、制御は伝統的に古典的な統計モデリング技術に依存している。
ディープニューラルネットワーク(DNN)は、データから操作を学ぶ汎用アーキテクチャを使用し、優れたパフォーマンスを示す。
私たちは、原理数学モデルとデータ駆動システムを組み合わせて両方のアプローチの利点を享受するハイブリッド技術に興味があります。
論文 参考訳(メタデータ) (2020-12-15T16:29:49Z) - Stability of Algebraic Neural Networks to Small Perturbations [179.55535781816343]
Algebraic Neural Network (AlgNN) は、代数的信号モデルと関連する各層のカスケードで構成されている。
畳み込みという形式的な概念を用いるアーキテクチャは、シフト演算子の特定の選択を超えて、いかに安定であるかを示す。
論文 参考訳(メタデータ) (2020-10-22T09:10:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。