論文の概要: Learning Interpretable Rules from Neural Networks: Neurosymbolic AI for Radar Hand Gesture Recognition
- arxiv url: http://arxiv.org/abs/2506.22443v1
- Date: Wed, 11 Jun 2025 11:30:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-07 02:47:44.342894
- Title: Learning Interpretable Rules from Neural Networks: Neurosymbolic AI for Radar Hand Gesture Recognition
- Title(参考訳): ニューラルネットワークからの解釈可能なルールの学習:レーダーハンドジェスチャ認識のためのニューロシンボリックAI
- Authors: Sarah Seifi, Tobias Sukianto, Cecilia Carbonelli, Lorenzo Servadei, Robert Wille,
- Abstract要約: ルールベースのモデルは解釈可能性を提供するが、複雑なデータには苦労する。
本稿では,解釈可能なルールリストを学習するRL-Netというニューラルネットワークについて検討する。
我々は、完全に透過的なルールベースシステム(MIRA)と説明可能なブラックボックスモデル(XentricAI)に対してRL-Netをベンチマークする。
以上の結果から,RL-Netは高い性能(93.03% F1)を維持しつつ,ルールの複雑さを著しく低減し,良好なトレードオフを実現していることがわかった。
- 参考スコア(独自算出の注目度): 2.99664686845172
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Rule-based models offer interpretability but struggle with complex data, while deep neural networks excel in performance yet lack transparency. This work investigates a neuro-symbolic rule learning neural network named RL-Net that learns interpretable rule lists through neural optimization, applied for the first time to radar-based hand gesture recognition (HGR). We benchmark RL-Net against a fully transparent rule-based system (MIRA) and an explainable black-box model (XentricAI), evaluating accuracy, interpretability, and user adaptability via transfer learning. Our results show that RL-Net achieves a favorable trade-off, maintaining strong performance (93.03% F1) while significantly reducing rule complexity. We identify optimization challenges specific to rule pruning and hierarchy bias and propose stability-enhancing modifications. Compared to MIRA and XentricAI, RL-Net emerges as a practical middle ground between transparency and performance. This study highlights the real-world feasibility of neuro-symbolic models for interpretable HGR and offers insights for extending explainable AI to edge-deployable sensing systems.
- Abstract(参考訳): ルールベースのモデルは解釈可能性を提供するが、複雑なデータには苦労する。
本研究では,レーダに基づく手振り認識(HGR)に初めて適用されたニューラルネットワークRL-Netについて検討した。
我々は,完全に透過的なルールベースシステム (MIRA) と説明可能なブラックボックスモデル (XentricAI) に対してRL-Netをベンチマークし,伝達学習による精度,解釈可能性,ユーザ適応性を評価する。
以上の結果から,RL-Netは高い性能(93.03% F1)を維持しつつ,ルールの複雑さを著しく低減し,良好なトレードオフを実現していることがわかった。
ルールプルーニングや階層バイアスに特有な最適化課題を特定し,安定性向上のための修正を提案する。
MIRAやXentricAIと比較すると、RL-Netは透明性とパフォーマンスの中間点として現れます。
本研究では、解釈可能なHGRのためのニューロシンボリックモデルの現実的な実現可能性を強調し、説明可能なAIをエッジデプロイ可能なセンシングシステムに拡張するための洞察を提供する。
関連論文リスト
- High-order Regularization for Machine Learning and Learning-based Control [4.5375744653674275]
本稿では,機械学習のための新しい正規化手法を提案する。
提案手法は近似アルゴリズムの証明可能な収束を保証する。
ニューラルネットワークの一般化性は、適切な正規化行列で最大化できることを示す。
論文 参考訳(メタデータ) (2025-05-13T00:00:23Z) - Neural network interpretability with layer-wise relevance propagation: novel techniques for neuron selection and visualization [0.49478969093606673]
本稿では,選択したニューロンのパーシングを改善する新しいアプローチを提案する。
Visual Geometry Group 16 (VGG16) アーキテクチャをケーススタディとして用いたLRP後方伝播
本手法は、コンピュータビジョンアプリケーションのための、より透明な人工知能(AI)システムの開発を支援する。
論文 参考訳(メタデータ) (2024-12-07T15:49:14Z) - DLBacktrace: A Model Agnostic Explainability for any Deep Learning Models [1.747623282473278]
深層学習モデル決定に対する明確な洞察を提供するために設計された,モデルに依存しない手法であるDLBacktraceを紹介する。
本稿では,DLBacktraceの概要を概説し,その性能を既存の解釈可能性手法と比較する。
その結果,DLBacktraceは多種多様なタスクにおけるモデル行動の理解を効果的に促進することを示した。
論文 参考訳(メタデータ) (2024-11-19T16:54:30Z) - ReLUs Are Sufficient for Learning Implicit Neural Representations [17.786058035763254]
暗黙的神経表現学習におけるReLUアクティベーション関数の使用について再考する。
2次B-スプラインウェーブレットにインスパイアされ、ディープニューラルネットワーク(DNN)の各層にReLUニューロンに一連の簡単な制約を組み込む。
我々は、一般的な信念とは対照的に、ReLUニューロンのみからなるDNNに基づいて最先端のINRを学習できることを実証した。
論文 参考訳(メタデータ) (2024-06-04T17:51:08Z) - An Interpretable Power System Transient Stability Assessment Method with Expert Guiding Neural-Regression-Tree [12.964139269555277]
本稿では,TSA-ENRT(Neural-Regression-Tree)をエキスパートに導いた電力系統の過渡安定度評価手法を提案する。
TSA-ENRTは、非線形回帰木を導く専門家を用いてニューラルネットワーク予測を近似し、ニューラルネットワークはツリーモデルによって生成された解釈規則によって説明できる。
広範囲にわたる実験は、提案されたTSA-ENRTによって生成された解釈規則は、ニューラルネットワークの予測と非常に一致しており、人間の専門家の認知とより一致していることを示している。
論文 参考訳(メタデータ) (2024-04-03T08:22:41Z) - ConCerNet: A Contrastive Learning Based Framework for Automated
Conservation Law Discovery and Trustworthy Dynamical System Prediction [82.81767856234956]
本稿では,DNNに基づく動的モデリングの信頼性を向上させるために,ConCerNetという新しい学習フレームワークを提案する。
本手法は, 座標誤差と保存量の両方において, ベースラインニューラルネットワークよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-02-11T21:07:30Z) - A Lightweight, Efficient and Explainable-by-Design Convolutional Neural
Network for Internet Traffic Classification [9.365794791156972]
本稿では、インターネットトラフィック分類のための新しい軽量・効率的・eXplainable-by-design畳み込みニューラルネットワーク(LEXNet)を提案する。
LEXNetは(軽量で効率の良い目的のために)新しい残留ブロックと(説明可能性のために)プロトタイプ層に依存している。
商用グレードのデータセットに基づいて、LEXNetは最先端のニューラルネットワークと同じ精度を維持することに成功した。
論文 参考訳(メタデータ) (2022-02-11T10:21:34Z) - Why Lottery Ticket Wins? A Theoretical Perspective of Sample Complexity
on Pruned Neural Networks [79.74580058178594]
目的関数の幾何学的構造を解析することにより、刈り取られたニューラルネットワークを訓練する性能を解析する。
本稿では,ニューラルネットワークモデルがプルーニングされるにつれて,一般化が保証された望ましいモデル近傍の凸領域が大きくなることを示す。
論文 参考訳(メタデータ) (2021-10-12T01:11:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。