論文の概要: Investigating Market Strength Prediction with CNNs on Candlestick Chart Images
- arxiv url: http://arxiv.org/abs/2501.12239v1
- Date: Tue, 21 Jan 2025 15:59:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-22 14:22:12.942392
- Title: Investigating Market Strength Prediction with CNNs on Candlestick Chart Images
- Title(参考訳): キャンドルスティックチャート画像におけるCNNによる市場強度予測の検討
- Authors: Thanh Nam Duong, Trung Kien Hoang, Quoc Khanh Duong, Quoc Dat Dinh, Duc Hoan Le, Huy Tuan Nguyen, Xuan Bach Nguyen, Quy Ban Tran,
- Abstract要約: 時系列データのない生のろうそくの視覚情報を用いた効率的なコンピュータビジョンベースモデルを構築した。
YOLOv8で検出されたろうそくのパターンを取り入れた影響を特に分析した。
重要な知見は,ロウソクスティックパターンが画像データのみよりもモデル性能を向上しないことを示している。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: This paper investigates predicting market strength solely from candlestick chart images to assist investment decisions. The core research problem is developing an effective computer vision-based model using raw candlestick visuals without time-series data. We specifically analyze the impact of incorporating candlestick patterns that were detected by YOLOv8. The study implements two approaches: pure CNN on chart images and a Decomposer architecture detecting patterns. Experiments utilize diverse financial datasets spanning stocks, cryptocurrencies, and forex assets. Key findings demonstrate candlestick patterns do not improve model performance over only image data in our research. The significance is illuminating limitations in candlestick image signals. Performance peaked at approximately 0.7 accuracy, below more complex time-series models. Outcomes reveal challenges in distilling sufficient predictive power from visual shapes alone, motivating the incorporation of other data modalities. This research clarifies how purely image-based models can inform trading while confirming patterns add little value over raw charts. Our content is endeavored to be delineated into distinct sections, each autonomously furnishing a unique contribution while maintaining cohesive linkage. Note that, the examples discussed herein are not limited to the scope, applicability, or knowledge outlined in the paper.
- Abstract(参考訳): 本稿では、投資決定を支援するために、ロウソクスティックチャート画像のみから市場強さを予測する。
中心となる研究課題は、時系列データのない生のろうそく視覚を用いた効率的なコンピュータビジョンベースモデルを開発することである。
YOLOv8で検出されたろうそくのパターンを取り入れた影響を特に分析した。
この研究では、チャート画像上の純粋なCNNと、パターンを検出するDecomposerアーキテクチャの2つのアプローチを実装した。
実験では、株式、暗号通貨、フォレックス資産にまたがる多様な金融データセットを利用する。
重要な知見は,ロウソクスティックパターンが画像データのみよりもモデル性能を向上しないことを示している。
その意義は、キャンドルスティック画像信号の限界を照らすことである。
性能はより複雑な時系列モデルよりも約0.7精度でピークに達した。
成果は、視覚的な形状だけで十分な予測力を蒸留する上での課題を明らかにし、他のデータモダリティの組み入れを動機付けている。
この研究は、純粋に画像ベースのモデルがトレーディングを通知すると同時に、パターンが生のチャートにはほとんど価値を与えないことを示す。
私たちのコンテンツは、それぞれが結合性を維持しながら、独自の貢献を自律的に行う、別々のセクションにデライン化されるように努力されています。
ここで論じられる例は、論文で概説されている範囲、適用性、知識に限ったものではない。
関連論文リスト
- Assessing Graphical Perception of Image Embedding Models using Channel Effectiveness [20.269583912221734]
画像埋め込みモデルの視覚的知覚を評価するための新しい評価フレームワークを提案する。
チャート理解のために,様々な視覚チャネルの精度と識別可能性という,チャネルの有効性の2つの主な側面について検討する。
CLIPモデルを用いた実験では、チャンネルの精度が人間と異なることが分かり、長さ、傾き、曲率などのチャンネルで独自の識別性を示す。
論文 参考訳(メタデータ) (2024-07-30T14:22:13Z) - Text-to-Image Diffusion Models are Great Sketch-Photo Matchmakers [120.49126407479717]
本稿では,ゼロショットスケッチに基づく画像検索(ZS-SBIR)のためのテキスト・画像拡散モデルについて検討する。
スケッチと写真の間のギャップをシームレスに埋めるテキストと画像の拡散モデルの能力。
論文 参考訳(メタデータ) (2024-03-12T00:02:03Z) - Intrinsic Image Diffusion for Indoor Single-view Material Estimation [55.276815106443976]
室内シーンの外観分解のための生成モデルIntrinsic Image Diffusionを提案する。
1つの入力ビューから、アルベド、粗さ、および金属地図として表される複数の材料説明をサンプリングする。
提案手法は,PSNRで1.5dB$,アルベド予測で45%のFIDスコアを達成し,よりシャープで,より一貫性があり,より詳細な資料を生成する。
論文 参考訳(メタデータ) (2023-12-19T15:56:19Z) - Blind Dates: Examining the Expression of Temporality in Historical
Photographs [57.07335632641355]
マルチモーダル言語とビジョンモデルであるCLIPのオープンソース実装であるOpenCLIPを用いて、画像の日付を調査する。
我々は1950年から1999年までの39,866枚のグレースケールの歴史的プレス写真を含むtextitDe Boer Scene Detectionデータセットを使用している。
解析の結果、バス、車、猫、犬、そして人々が写っている画像はより正確に年代付けされており、時間的マーカーの存在が示唆されている。
論文 参考訳(メタデータ) (2023-10-10T13:51:24Z) - Parents and Children: Distinguishing Multimodal DeepFakes from Natural Images [60.34381768479834]
近年の拡散モデルの発展により、自然言語のテキストプロンプトから現実的なディープフェイクの生成が可能になった。
我々は、最先端拡散モデルにより生成されたディープフェイク検出に関する体系的研究を開拓した。
論文 参考訳(メタデータ) (2023-04-02T10:25:09Z) - Through a fair looking-glass: mitigating bias in image datasets [1.0323063834827415]
目的変数間の統計的依存を最小化し,画像データセットを非バイアス化するための高速かつ効果的なモデルを提案する。
提案手法をCelebAデータセット上で評価し、その結果を最先端のデバイアス法と比較し、そのモデルが有望なフェアネスと精度の組み合わせを達成することを示す。
論文 参考訳(メタデータ) (2022-09-18T20:28:36Z) - A Graph-Enhanced Click Model for Web Search [67.27218481132185]
ウェブ検索のための新しいグラフ強調クリックモデル(GraphCM)を提案する。
セッション内情報とセッション間情報の両方を、スパーシリティ問題とコールドスタート問題に活用する。
論文 参考訳(メタデータ) (2022-06-17T08:32:43Z) - Vision Models Are More Robust And Fair When Pretrained On Uncurated
Images Without Supervision [38.22842778742829]
差別的な自己教師型学習は、インターネット画像の任意のランダムなグループでのトレーニングモデルを可能にする。
データ前処理や事前の仮定なしで、何十億ものランダムなイメージでモデルをトレーニングします。
フェアネス、分布シフト、地理的多様性、微粒化認識、画像コピー検出、および多くの画像分類データセットを含む50以上のベンチマークにおいて、我々のモデル性能を広範囲に研究し、検証した。
論文 参考訳(メタデータ) (2022-02-16T22:26:47Z) - GraphAnoGAN: Detecting Anomalous Snapshots from Attributed Graphs [36.00861758441135]
異常なスナップショットランキングフレームワークであるGraphAnoGANを提案する。
2つのコアコンポーネント - 生成モデルと識別モデル - で構成されている。
4つの実世界のネットワークでの実験では、GraphAnoGANは6つのベースラインをはるかに上回っている。
論文 参考訳(メタデータ) (2021-06-29T15:35:37Z) - Model-Agnostic Graph Regularization for Few-Shot Learning [60.64531995451357]
グラフ組み込み数ショット学習に関する包括的な研究を紹介します。
本稿では,ラベル間のグラフ情報の組み込みによる影響をより深く理解できるグラフ正規化手法を提案する。
提案手法は,Mini-ImageNetで最大2%,ImageNet-FSで6.7%の性能向上を実現する。
論文 参考訳(メタデータ) (2021-02-14T05:28:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。