論文の概要: Logistic-Gated Operators Enable Auditable Unit-Aware Thresholds in Symbolic Regression
- arxiv url: http://arxiv.org/abs/2510.05178v1
- Date: Sun, 05 Oct 2025 16:04:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-08 17:57:07.890226
- Title: Logistic-Gated Operators Enable Auditable Unit-Aware Thresholds in Symbolic Regression
- Title(参考訳): メタボリック回帰における可聴単位認識閾値を可能にするロジスティックゲーテッド演算子
- Authors: Ou Deng, Ruichen Cong, Jianting Xu, Shoji Nishimura, Atsushi Ogihara, Qun Jin,
- Abstract要約: ロジスティックゲート演算子(LGO)は、学習可能な位置と急勾配を持つ可変ゲートである。
主にスムーズな作業では、ゲートは刈り取られ、パシモニーを保存する。
結果は、明確な単位認識しきい値を持つコンパクトな記号方程式であり、臨床アンカーに対して監査することができる。
- 参考スコア(独自算出の注目度): 3.2657452368624678
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Symbolic regression promises readable equations but struggles to encode unit-aware thresholds and conditional logic. We propose logistic-gated operators (LGO) -- differentiable gates with learnable location and steepness -- embedded as typed primitives and mapped back to physical units for audit. Across two primary health datasets (ICU, NHANES), the hard-gate variant recovers clinically plausible cut-points: 71% (5/7) of assessed thresholds fall within 10% of guideline anchors and 100% within 20%, while using far fewer gates than the soft variant (ICU median 4.0 vs 10.0; NHANES 5.0 vs 12.5), and remaining within the competitive accuracy envelope of strong SR baselines. On predominantly smooth tasks, gates are pruned, preserving parsimony. The result is compact symbolic equations with explicit, unit-aware thresholds that can be audited against clinical anchors -- turning interpretability from a post-hoc explanation into a modeling constraint and equipping symbolic regression with a practical calculus for regime switching and governance-ready deployment.
- Abstract(参考訳): 記号回帰は可読方程式を約束するが、単位認識しきい値と条件論理を符号化するのに苦労する。
入力プリミティブとして組み込み、監査のために物理ユニットにマッピングされるロジスティックゲート演算子(LGO)を提案する。
評価された閾値の71% (5/7) がガイドラインアンカーの10%以内、100% 20% はソフトバリアント(ICUの中央値4.0対10.0; NHANES 5.0対12.5)よりもはるかに少ないゲートを使用し、強力なSRベースラインの競争精度の限界に留まっている。
主にスムーズな作業では、ゲートは刈り取られ、パシモニーを保存する。
その結果は、クリニカルアンカーに対して監査可能な明示的で単位対応のしきい値を持つコンパクトなシンボリック方程式であり、ポストホックな説明から解釈可能性(interpretability)をモデリング制約に転換し、シボリックレグレッションをシボレートスイッチングとガバナンス対応のデプロイのための実用的な計算値に設定する。
関連論文リスト
- Polynomial Surrogate Training for Differentiable Ternary Logic Gate Networks [3.2249474972573555]
学習可能な9つの係数を持つ3次ニューロンを次数$(2,2)$で表すPST(Polynomial Surrogate Training)を導入する。
PST はバイナリ DLGN よりも高速に$2-$3times を訓練し、機能的に多様である真の三次ゲートを発見する。
論文 参考訳(メタデータ) (2026-02-27T20:37:17Z) - CORE: Context-Robust Remasking for Diffusion Language Models [51.59514489363897]
我々は、推論時リビジョンのためのトレーニング不要フレームワークであるContext-Robust Remasking (CORE)を提案する。
静的トークンの確率を信頼するのではなく、COREは、ターゲットとなるマスク付きコンテキストの摂動に対する感受性を示すことによって、コンテキスト不安定なトークンを識別する。
LLaDA-8B-Baseでは、COREは推論とコードベンチマークの間で一貫した改善を行い、計算に適合したベースラインを上回り、MBPPを最大9.2%改善した。
論文 参考訳(メタデータ) (2026-02-04T00:12:30Z) - Explainability Methods for Hardware Trojan Detection: A Systematic Comparison [0.0]
この研究は、Trust-Hubベンチマークでゲートレベル検出の3つの説明可能性カテゴリを比較した。
特性に基づく分析は、「出力近くの高ファンイン複雑性は潜在的なトリガーを示す」といった回路概念を通して説明を提供する。
事例に基づく推論は、予測とトロイの木馬の訓練の間の97.4%の対応を達成し、前例に基づく正当化を提供する。
論文 参考訳(メタデータ) (2026-01-26T17:13:00Z) - Scaling the Scaling Logic: Agentic Meta-Synthesis of Logic Reasoning [18.75349680577575]
SSLogicは、コントロール可能な困難を伴う継続的家族進化のためのフレームワークである。
SSLogicに進化したデータのトレーニングは、一致したステップでシードベースラインに対して一貫した利得を得る。
論文 参考訳(メタデータ) (2026-01-23T13:26:01Z) - How Does Prefix Matter in Reasoning Model Tuning? [57.69882799751655]
推論(数学)、コーディング、安全性、事実性の3つのコアモデル機能にまたがる3つのR1シリーズモデルを微調整します。
その結果,プレフィックス条件付きSFTでは安全性と推論性能が向上し,Safe@1の精度は最大で6%向上した。
論文 参考訳(メタデータ) (2026-01-04T18:04:23Z) - SCI: An Equilibrium for Signal Intelligence [0.0]
本稿では,解釈可能性の制御状態としてモデル化する制御理論フレームワークであるSCIを提案する。
SCIは解釈誤差DeltaSPを定式化し、[0,1]のSP(t)を目標に向かってアクティブに駆動する。
論文 参考訳(メタデータ) (2025-11-15T14:48:17Z) - Efficient Thought Space Exploration through Strategic Intervention [54.35208611253168]
本稿では,この知見を2つの相乗的コンポーネントを通して操作するHint-Practice Reasoning(HPR)フレームワークを提案する。
フレームワークの中核となる革新は、動的に介入点を識別する分散不整合低減(DIR)である。
算術的および常識的推論ベンチマークによる実験は、HPRの最先端の効率-精度トレードオフを実証している。
論文 参考訳(メタデータ) (2025-11-13T07:26:01Z) - What Layers When: Learning to Skip Compute in LLMs with Residual Gates [66.23658560048241]
GateSkipは、デコーダのみのLMにおけるトークンワイド層スキップを可能にする残差ストリームゲーティング機構である。
各Attention/MLPブランチは、残ストリームに再入力する前に、ブランチの出力を凝縮するシグモイドリニアゲートを備えている。
論文 参考訳(メタデータ) (2025-10-13T16:31:50Z) - DiSC-AMC: Token- and Parameter-Efficient Discretized Statistics In-Context Automatic Modulation Classification [19.190236060870184]
大規模言語モデル(LLM)は、微調整なしで、オープンセットで自動変調分類(AMC)を実行することができる。
文脈自動変調分類(DiSC-AMC)における離散統計量について述べる。
DiSC-AMCは、高次の統計と累積をコンパクトなシンボルトークンに識別するトークンおよびパラメータ効率の変種である。
論文 参考訳(メタデータ) (2025-09-30T22:20:57Z) - Eigen-1: Adaptive Multi-Agent Refinement with Monitor-Based RAG for Scientific Reasoning [53.45095336430027]
暗黙的な検索と構造化された協調を組み合わせた統合フレームワークを開発する。
Humanity's Last Exam (HLE) Bio/Chem Goldでは,48.3%の精度を実現している。
SuperGPQAとTRQAの結果はドメイン間の堅牢性を確認した。
論文 参考訳(メタデータ) (2025-09-25T14:05:55Z) - Inducing Faithfulness in Structured Reasoning via Counterfactual Sensitivity [6.908972852063454]
大規模言語モデルは、欠陥や無関係な推論トレースに依存しながら、正しい答えを生成することが多い。
本稿では,新しい学習目標であるtextbfCounterfactual Sensitivity Regularization (CSR)を紹介する。
CSRは、標準的な微調整とプロセスの監督に対する忠実度を最大70パーセント向上させる。
論文 参考訳(メタデータ) (2025-09-01T15:18:46Z) - NDCG-Consistent Softmax Approximation with Accelerated Convergence [67.10365329542365]
本稿では,ランキングの指標と直接一致した新たな損失定式化を提案する。
提案したRG損失を高効率な Alternating Least Squares (ALS) 最適化手法と統合する。
実世界のデータセットに対する実証的な評価は、我々のアプローチが同等または上位のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2025-06-11T06:59:17Z) - SEAL: Steerable Reasoning Calibration of Large Language Models for Free [58.190800043449336]
大規模言語モデル(LLM)は、拡張チェーン・オブ・ソート(CoT)推論機構を通じて複雑な推論タスクに魅力的な機能を示した。
最近の研究では、CoT推論トレースにかなりの冗長性が示されており、これはモデル性能に悪影響を及ぼす。
我々は,CoTプロセスをシームレスに校正し,高い効率性を示しながら精度を向上する,トレーニング不要なアプローチであるSEALを紹介した。
論文 参考訳(メタデータ) (2025-04-07T02:42:07Z) - (G)I-DLE: Generative Inference via Distribution-preserving Logit Exclusion with KL Divergence Minimization for Constrained Decoding [0.0]
(G)I-DLEは、KLの発散を利用して自己回帰言語モデルの固有条件確率分布を保存する制約付き復号法である。
我々はK2-Evalデータセット上で,韓国語の流布度を評価するために,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2025-03-23T12:37:14Z) - Lazy Layers to Make Fine-Tuned Diffusion Models More Traceable [70.77600345240867]
新たな任意の任意配置(AIAO)戦略は、微調整による除去に耐性を持たせる。
拡散モデルの入力/出力空間のバックドアを設計する既存の手法とは異なり,本手法では,サンプルサブパスの特徴空間にバックドアを埋め込む方法を提案する。
MS-COCO,AFHQ,LSUN,CUB-200,DreamBoothの各データセットに関する実証研究により,AIAOの堅牢性が確認された。
論文 参考訳(メタデータ) (2024-05-01T12:03:39Z) - Learning Label Encodings for Deep Regression [10.02230163797581]
深い回帰ネットワークは、与えられた入力に対して連続的な値を予測する問題の解決に広く利用されている。
回帰のためのラベル符号化の空間は大きい。
本稿では、ネットワーク全体とそのラベルエンコーディングのエンドツーエンドトレーニングのための正規化ラベル学習(RLEL)を提案する。
論文 参考訳(メタデータ) (2023-03-04T00:11:34Z) - Label Encoding for Regression Networks [9.386028796990399]
回帰へのバイナリ分類の適用を一般化するバイナリ符号化ラベル(BEL)を導入する。
BELはいくつかの回帰ベンチマークで最先端の精度を達成する。
論文 参考訳(メタデータ) (2022-12-04T21:23:36Z) - Intermediate Loss Regularization for CTC-based Speech Recognition [58.33721897180646]
本稿では,コネクショニスト時間分類(CTC)の目的に基づいて,自動音声認識(ASR)のための簡易かつ効率的な補助的損失関数を提案する。
提案手法は,WSJコーパスの単語誤り率(WER)9.9%,AISHELL-1コーパスの文字誤り率(CER)5.2%である。
論文 参考訳(メタデータ) (2021-02-05T15:01:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。