論文の概要: Learning Interpretable Differentiable Logic Networks for Time-Series Classification
- arxiv url: http://arxiv.org/abs/2508.17512v1
- Date: Sun, 24 Aug 2025 20:27:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.561776
- Title: Learning Interpretable Differentiable Logic Networks for Time-Series Classification
- Title(参考訳): 時系列分類のための解釈可能な微分可能論理ネットワークの学習
- Authors: Chang Yue, Niraj K. Jha,
- Abstract要約: 微分可能論理ネットワーク(DLN)を初めてTSCの領域に適用する。
我々はCatch22とTSFreshに依存した特徴ベース表現を採用し、逐次時系列をDLN分類に適したベクトル化形式に変換する。
その結果、DLNの分類は、この新しい領域における中核的な強みを保っていることが確認された。
- 参考スコア(独自算出の注目度): 6.067746281409029
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Differentiable logic networks (DLNs) have shown promising results in tabular domains by combining accuracy, interpretability, and computational efficiency. In this work, we apply DLNs to the domain of TSC for the first time, focusing on univariate datasets. To enable DLN application in this context, we adopt feature-based representations relying on Catch22 and TSFresh, converting sequential time series into vectorized forms suitable for DLN classification. Unlike prior DLN studies that fix the training configuration and vary various settings in isolation via ablation, we integrate all such configurations into the hyperparameter search space, enabling the search process to select jointly optimal settings. We then analyze the distribution of selected configurations to better understand DLN training dynamics. We evaluate our approach on 51 publicly available univariate TSC benchmarks. The results confirm that classification DLNs maintain their core strengths in this new domain: they deliver competitive accuracy, retain low inference cost, and provide transparent, interpretable decision logic, thus aligning well with previous DLN findings in the realm of tabular classification and regression tasks.
- Abstract(参考訳): 微分可能論理ネットワーク(DLN)は、精度、解釈可能性、計算効率を組み合わせることで、表領域における有望な結果を示している。
本研究では,TLCの領域にDLNを初めて適用し,一変量データセットに着目した。
この文脈でDLNアプリケーションを実現するために、我々はCatch22とTSFreshをベースとした特徴ベースの表現を採用し、逐次時系列をDLN分類に適したベクトル化形式に変換する。
従来のDLNによるトレーニング設定の修正やアブレーションによる各種設定の分離とは異なり、これらの設定はすべてハイパーパラメータ検索空間に統合され、検索プロセスは共同で最適な設定を選択できる。
次に、選択した構成の分布を分析し、DLNトレーニングダイナミクスをよりよく理解する。
51種類の単変量TSCベンチマークについて検討した。
その結果, DLN の分類は, 競争精度の確保, 推論コストの低減, 透過的かつ解釈可能な決定論理の提供, 表層分類や回帰タスクの領域における従来のDLN の結果とよく一致していることが確認された。
関連論文リスト
- Learning Interpretable Differentiable Logic Networks for Tabular Regression [3.8064485653035987]
微分論理ネットワーク(DLN)は解釈可能な推論を提供し、推論コストを大幅に削減する。
我々はDLNフレームワークを監督的回帰に拡張し、特に、最終的な出力層を再設計し、継続的な目標をサポートし、元の2段階トレーニング手順を1つの異なる段階に統一する。
以上の結果から,DLNは回帰タスク,特にモデルの透明性と計算効率が重要である場合において,実行可能で費用対効果の高い代替手段であることが示唆された。
論文 参考訳(メタデータ) (2025-05-29T16:24:18Z) - Discover Your Neighbors: Advanced Stable Test-Time Adaptation in Dynamic World [8.332531696256666]
Discover Your Neighbours (DYN)は、動的テスト時間適応(TTA)に特化した最初の後方自由アプローチである。
我々のDYNは階層型インスタンス統計クラスタリング(LISC)とクラスタ対応バッチ正規化(CABN)で構成されています。
DYNのロバスト性と有効性を評価し、動的データストリームパターン下での維持性能を示す実験結果を得た。
論文 参考訳(メタデータ) (2024-06-08T09:22:32Z) - Switchable Decision: Dynamic Neural Generation Networks [98.61113699324429]
本稿では,各データインスタンスのリソースを動的に割り当てることで,推論を高速化するスイッチブルな決定を提案する。
提案手法は, 同一の精度を維持しながら, 推論時のコスト低減に有効である。
論文 参考訳(メタデータ) (2024-05-07T17:44:54Z) - Rethinking Clustered Federated Learning in NOMA Enhanced Wireless
Networks [60.09912912343705]
本研究では,新しいクラスタ化フェデレーション学習(CFL)アプローチと,非独立かつ同一に分散した(非IID)データセットを統合することのメリットについて検討する。
データ分布における非IIDの度合いを測定する一般化ギャップの詳細な理論的解析について述べる。
非IID条件によって引き起こされる課題に対処する解決策は、特性の分析によって提案される。
論文 参考訳(メタデータ) (2024-03-05T17:49:09Z) - On the Local Cache Update Rules in Streaming Federated Learning [7.04699351201771]
ストリーミング・フェデレーション・ラーニング(SFL)の新興分野に対処する。
SFLでは、データはストリーミングされ、その分布は時間とともに変化し、ローカルなトレーニングデータセットと長期的な分散との間に相違が生じます。
キャッシュ容量の制限を考慮して,各クライアントのローカルキャッシュを更新するローカルキャッシュ更新ルールを3つ提案する。
論文 参考訳(メタデータ) (2023-03-28T22:38:48Z) - Explaining Cross-Domain Recognition with Interpretable Deep Classifier [100.63114424262234]
解釈可能なDeep(IDC)は、ターゲットサンプルの最も近いソースサンプルを、分類器が決定を下す証拠として学習する。
我々のIDCは、精度の劣化がほとんどなく、最適なリジェクションオプションの分類を効果的に調整する、より説明可能なモデルに導かれる。
論文 参考訳(メタデータ) (2022-11-15T15:58:56Z) - Self-Ensembling GAN for Cross-Domain Semantic Segmentation [107.27377745720243]
本稿では,セマンティックセグメンテーションのためのクロスドメインデータを利用した自己理解型生成逆数ネットワーク(SE-GAN)を提案する。
SE-GANでは、教師ネットワークと学生ネットワークは、意味分節マップを生成するための自己組織化モデルを構成する。
その単純さにもかかわらず、SE-GANは敵の訓練性能を大幅に向上させ、モデルの安定性を高めることができる。
論文 参考訳(メタデータ) (2021-12-15T09:50:25Z) - Semi-supervised Domain Adaptive Structure Learning [72.01544419893628]
半教師付きドメイン適応 (SSDA) は,1) アノテーションの低いデータに過度に適合する手法と,2) ドメイン間の分散シフトの両方を克服しなければならない課題である。
SSLとDAの協調を正規化するための適応型構造学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-12T06:11:16Z) - Multi-Sample Online Learning for Probabilistic Spiking Neural Networks [43.8805663900608]
スパイキングニューラルネットワーク(SNN)は、推論と学習のための生物学的脳の効率の一部をキャプチャする。
本稿では,一般化予測最大化(GEM)に基づくオンライン学習ルールを提案する。
標準ニューロモルフィックデータセットにおける構造化された出力記憶と分類実験の結果,ログの類似性,精度,キャリブレーションの点で大きな改善が見られた。
論文 参考訳(メタデータ) (2020-07-23T10:03:58Z) - Continual Learning in Recurrent Neural Networks [67.05499844830231]
リカレントニューラルネットワーク(RNN)を用いた逐次データ処理における連続学習手法の有効性を評価する。
RNNに弾性重み強化などの重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重
そこで本研究では,重み付け手法の性能が処理シーケンスの長さに直接的な影響を受けず,むしろ高動作メモリ要求の影響を受けていることを示す。
論文 参考訳(メタデータ) (2020-06-22T10:05:12Z) - Continual Learning with Gated Incremental Memories for sequential data
processing [14.657656286730736]
従来の知識を忘れずに動的で非定常的な環境で学習する能力、あるいは継続学習(CL)は、適応型ソリューションのスケーラブルで信頼性の高いデプロイを可能にする重要な手段である。
本研究では,従来の知識を忘れることなく,入力分布における概念ドリフトに対処できるCLのためのリカレントニューラルネットワーク(RNN)モデルを提案する。
論文 参考訳(メタデータ) (2020-04-08T16:00:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。