論文の概要: Logistic-Gated Operators Enable Auditable Unit-Aware Thresholds in Symbolic Regression
- arxiv url: http://arxiv.org/abs/2510.05178v1
- Date: Sun, 05 Oct 2025 16:04:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-08 17:57:07.890226
- Title: Logistic-Gated Operators Enable Auditable Unit-Aware Thresholds in Symbolic Regression
- Title(参考訳): メタボリック回帰における可聴単位認識閾値を可能にするロジスティックゲーテッド演算子
- Authors: Ou Deng, Ruichen Cong, Jianting Xu, Shoji Nishimura, Atsushi Ogihara, Qun Jin,
- Abstract要約: ロジスティックゲート演算子(LGO)は、学習可能な位置と急勾配を持つ可変ゲートである。
主にスムーズな作業では、ゲートは刈り取られ、パシモニーを保存する。
結果は、明確な単位認識しきい値を持つコンパクトな記号方程式であり、臨床アンカーに対して監査することができる。
- 参考スコア(独自算出の注目度): 3.2657452368624678
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Symbolic regression promises readable equations but struggles to encode unit-aware thresholds and conditional logic. We propose logistic-gated operators (LGO) -- differentiable gates with learnable location and steepness -- embedded as typed primitives and mapped back to physical units for audit. Across two primary health datasets (ICU, NHANES), the hard-gate variant recovers clinically plausible cut-points: 71% (5/7) of assessed thresholds fall within 10% of guideline anchors and 100% within 20%, while using far fewer gates than the soft variant (ICU median 4.0 vs 10.0; NHANES 5.0 vs 12.5), and remaining within the competitive accuracy envelope of strong SR baselines. On predominantly smooth tasks, gates are pruned, preserving parsimony. The result is compact symbolic equations with explicit, unit-aware thresholds that can be audited against clinical anchors -- turning interpretability from a post-hoc explanation into a modeling constraint and equipping symbolic regression with a practical calculus for regime switching and governance-ready deployment.
- Abstract(参考訳): 記号回帰は可読方程式を約束するが、単位認識しきい値と条件論理を符号化するのに苦労する。
入力プリミティブとして組み込み、監査のために物理ユニットにマッピングされるロジスティックゲート演算子(LGO)を提案する。
評価された閾値の71% (5/7) がガイドラインアンカーの10%以内、100% 20% はソフトバリアント(ICUの中央値4.0対10.0; NHANES 5.0対12.5)よりもはるかに少ないゲートを使用し、強力なSRベースラインの競争精度の限界に留まっている。
主にスムーズな作業では、ゲートは刈り取られ、パシモニーを保存する。
その結果は、クリニカルアンカーに対して監査可能な明示的で単位対応のしきい値を持つコンパクトなシンボリック方程式であり、ポストホックな説明から解釈可能性(interpretability)をモデリング制約に転換し、シボリックレグレッションをシボレートスイッチングとガバナンス対応のデプロイのための実用的な計算値に設定する。
関連論文リスト
- DiSC-AMC: Token- and Parameter-Efficient Discretized Statistics In-Context Automatic Modulation Classification [19.190236060870184]
大規模言語モデル(LLM)は、微調整なしで、オープンセットで自動変調分類(AMC)を実行することができる。
文脈自動変調分類(DiSC-AMC)における離散統計量について述べる。
DiSC-AMCは、高次の統計と累積をコンパクトなシンボルトークンに識別するトークンおよびパラメータ効率の変種である。
論文 参考訳(メタデータ) (2025-09-30T22:20:57Z) - Eigen-1: Adaptive Multi-Agent Refinement with Monitor-Based RAG for Scientific Reasoning [53.45095336430027]
暗黙的な検索と構造化された協調を組み合わせた統合フレームワークを開発する。
Humanity's Last Exam (HLE) Bio/Chem Goldでは,48.3%の精度を実現している。
SuperGPQAとTRQAの結果はドメイン間の堅牢性を確認した。
論文 参考訳(メタデータ) (2025-09-25T14:05:55Z) - Inducing Faithfulness in Structured Reasoning via Counterfactual Sensitivity [6.908972852063454]
大規模言語モデルは、欠陥や無関係な推論トレースに依存しながら、正しい答えを生成することが多い。
本稿では,新しい学習目標であるtextbfCounterfactual Sensitivity Regularization (CSR)を紹介する。
CSRは、標準的な微調整とプロセスの監督に対する忠実度を最大70パーセント向上させる。
論文 参考訳(メタデータ) (2025-09-01T15:18:46Z) - NDCG-Consistent Softmax Approximation with Accelerated Convergence [67.10365329542365]
本稿では,ランキングの指標と直接一致した新たな損失定式化を提案する。
提案したRG損失を高効率な Alternating Least Squares (ALS) 最適化手法と統合する。
実世界のデータセットに対する実証的な評価は、我々のアプローチが同等または上位のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2025-06-11T06:59:17Z) - SEAL: Steerable Reasoning Calibration of Large Language Models for Free [58.190800043449336]
大規模言語モデル(LLM)は、拡張チェーン・オブ・ソート(CoT)推論機構を通じて複雑な推論タスクに魅力的な機能を示した。
最近の研究では、CoT推論トレースにかなりの冗長性が示されており、これはモデル性能に悪影響を及ぼす。
我々は,CoTプロセスをシームレスに校正し,高い効率性を示しながら精度を向上する,トレーニング不要なアプローチであるSEALを紹介した。
論文 参考訳(メタデータ) (2025-04-07T02:42:07Z) - (G)I-DLE: Generative Inference via Distribution-preserving Logit Exclusion with KL Divergence Minimization for Constrained Decoding [0.0]
(G)I-DLEは、KLの発散を利用して自己回帰言語モデルの固有条件確率分布を保存する制約付き復号法である。
我々はK2-Evalデータセット上で,韓国語の流布度を評価するために,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2025-03-23T12:37:14Z) - Lazy Layers to Make Fine-Tuned Diffusion Models More Traceable [70.77600345240867]
新たな任意の任意配置(AIAO)戦略は、微調整による除去に耐性を持たせる。
拡散モデルの入力/出力空間のバックドアを設計する既存の手法とは異なり,本手法では,サンプルサブパスの特徴空間にバックドアを埋め込む方法を提案する。
MS-COCO,AFHQ,LSUN,CUB-200,DreamBoothの各データセットに関する実証研究により,AIAOの堅牢性が確認された。
論文 参考訳(メタデータ) (2024-05-01T12:03:39Z) - Learning Label Encodings for Deep Regression [10.02230163797581]
深い回帰ネットワークは、与えられた入力に対して連続的な値を予測する問題の解決に広く利用されている。
回帰のためのラベル符号化の空間は大きい。
本稿では、ネットワーク全体とそのラベルエンコーディングのエンドツーエンドトレーニングのための正規化ラベル学習(RLEL)を提案する。
論文 参考訳(メタデータ) (2023-03-04T00:11:34Z) - Label Encoding for Regression Networks [9.386028796990399]
回帰へのバイナリ分類の適用を一般化するバイナリ符号化ラベル(BEL)を導入する。
BELはいくつかの回帰ベンチマークで最先端の精度を達成する。
論文 参考訳(メタデータ) (2022-12-04T21:23:36Z) - Intermediate Loss Regularization for CTC-based Speech Recognition [58.33721897180646]
本稿では,コネクショニスト時間分類(CTC)の目的に基づいて,自動音声認識(ASR)のための簡易かつ効率的な補助的損失関数を提案する。
提案手法は,WSJコーパスの単語誤り率(WER)9.9%,AISHELL-1コーパスの文字誤り率(CER)5.2%である。
論文 参考訳(メタデータ) (2021-02-05T15:01:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。