論文の概要: Lattice: A Confidence-Gated Hybrid System for Uncertainty-Aware Sequential Prediction with Behavioral Archetypes
- arxiv url: http://arxiv.org/abs/2601.15423v1
- Date: Wed, 21 Jan 2026 19:37:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-23 21:37:20.400137
- Title: Lattice: A Confidence-Gated Hybrid System for Uncertainty-Aware Sequential Prediction with Behavioral Archetypes
- Title(参考訳): Lattice: 行動アーチタイプによる不確実性を考慮したシークエンシャル予測のための信頼性保証ハイブリッドシステム
- Authors: Lorian Bannis,
- Abstract要約: 本稿では,二項信頼ゲーティングを用いた学習行動構造を条件付きで活性化する逐次予測システムLatticeを紹介する。
我々はLSTMとトランスフォーマーバックボーンを用いて、レコメンデーションシステム(MovieLens)、科学時系列(LIGO)、金融市場についてLatticeを検証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce Lattice, a hybrid sequential prediction system that conditionally activates learned behavioral structure using binary confidence gating. The system clusters behavior windows into behavioral archetypes and uses binary confidence gating to activate archetype-based scoring only when confidence exceeds a threshold, falling back to baseline predictions when uncertain. We validate Lattice on recommendation systems (MovieLens), scientific time-series (LIGO), and financial markets, using LSTM and transformer backbones. On MovieLens with LSTM, Lattice achieves +31.9% improvement over LSTM baseline in HR@10 (p < 3.29 x 10^-25, 30 seeds), outperforming transformer baselines by 109.4% over SASRec and 218.6% over BERT4Rec. On LIGO and financial data, the system correctly refuses archetype activation when distribution shift occurs - a successful outcome demonstrating confidence gating prevents false activation. On transformer backbones, Lattice provides 0.0% improvement (neutral, no degradation), gracefully deferring when structure is already present. This bidirectional validation - activating when patterns apply, refusing when they don't, and deferring when redundant - supports confidence gating as a promising architectural principle for managing epistemic uncertainty in safety-critical applications.
- Abstract(参考訳): 本稿では,二項信頼ゲーティングを用いた学習行動構造を条件付きで活性化するハイブリッド逐次予測システムLatticeを紹介する。
システムは行動ウィンドウを行動アーチタイプに集約し、二進的信頼ゲーティングを使用して、信頼度がしきい値を超えた場合にのみアーチタイプベースのスコアを活性化し、不確実な場合にはベースライン予測にフォールバックする。
我々はLSTMとトランスフォーマーバックボーンを用いて、レコメンデーションシステム(MovieLens)、科学時系列(LIGO)、金融市場についてLatticeを検証する。
LSTMを持つMovieLensでは、HR@10(p < 3.29 x 10^-25, 30 種)のLSTMベースラインよりも+31.9%向上し、SASRecより109.4%、BERT4Recより218.6%向上した。
LIGOおよび財務データでは、分布シフトが発生したときの古型活性化を正しく拒否する。
変圧器のバックボーンでは、Latticeは0.0%の改善(中性、劣化なし)を提供し、構造がすでに存在するときに優雅に遅延する。
この双方向検証 — パターンが適用された場合のアクティベート、適用しなかった場合の拒否、冗長な場合の遅延 — は、安全クリティカルなアプリケーションにおける疫学的な不確実性を管理するための有望なアーキテクチャ原則として、信頼性ゲーティングを支持します。
関連論文リスト
- Trajectory Guard -- A Lightweight, Sequence-Aware Model for Real-Time Anomaly Detection in Agentic AI [0.0]
トラジェクトリガードはシームズ・リカレント・オートエンコーダであり、コントラスト学習によるタスク・トラジェクトリアライメントと、再構成によるシーケンシャル・アライメントを共同で学習するハイブリッド・ロス機能を備えている。
32ミリ秒のレイテンシで、当社のアプローチは LLM Judge のベースラインよりも17-27倍高速で動作し、実運用環境におけるリアルタイムの安全性検証を可能にします。
論文 参考訳(メタデータ) (2026-01-02T00:27:11Z) - Confidence-Based Response Abstinence: Improving LLM Trustworthiness via Activation-Based Uncertainty Estimation [7.3923284353934875]
本稿では,大規模言語モデル(LLM)出力の正しさと密接に一致したRAGシステムにおける信頼度推定手法を提案する。
提案手法は、生のフィードフォワードネットワーク(FFN)を自己回帰信号として活用することにより、事前の不確実性定量化手法を拡張した。
我々の結果は、アクティベーションに基づく信頼度モデリングが、信頼性の高いRAGデプロイメントへのスケーラブルでアーキテクチャを意識したパスを提供することを示した。
論文 参考訳(メタデータ) (2025-10-15T16:55:56Z) - Mind the Generation Process: Fine-Grained Confidence Estimation During LLM Generation [63.49409574310576]
大規模言語モデル(LLM)は自信過剰を示し、信頼度の高いスコアを誤った予測に割り当てる。
本研究では,テキスト生成中に高精度できめ細かな信頼スコアを提供する信頼度推定手法であるFineCEを紹介する。
論文で使用されたコードとすべてのベースラインはGitHubで公開されている。
論文 参考訳(メタデータ) (2025-08-16T13:29:35Z) - User-Based Sequential Modeling with Transformer Encoders for Insider Threat Detection [0.005755004576310333]
インサイダー脅威検出は、悪意のあるアクターの認定状態のために、ユニークな課題を提示する。
既存の機械学習メソッドは、ユーザアクティビティを独立したイベントとして扱うため、ユーザの振る舞いにおけるシーケンシャルな依存関係を活用できない。
本稿では,ユーザベースシーケンス法(UBS)手法を提案し,CERTインサイダー脅威データセットを深い逐次モデリングに適した構造化時間列に変換する。
論文 参考訳(メタデータ) (2025-06-30T00:47:31Z) - Lazy Layers to Make Fine-Tuned Diffusion Models More Traceable [70.77600345240867]
新たな任意の任意配置(AIAO)戦略は、微調整による除去に耐性を持たせる。
拡散モデルの入力/出力空間のバックドアを設計する既存の手法とは異なり,本手法では,サンプルサブパスの特徴空間にバックドアを埋め込む方法を提案する。
MS-COCO,AFHQ,LSUN,CUB-200,DreamBoothの各データセットに関する実証研究により,AIAOの堅牢性が確認された。
論文 参考訳(メタデータ) (2024-05-01T12:03:39Z) - When Does Confidence-Based Cascade Deferral Suffice? [69.28314307469381]
カスケードは、推論コストをサンプル毎に適応的に変化させる古典的な戦略である。
deferralルールは、シーケンス内の次の分類子を呼び出すか、または予測を終了するかを決定する。
カスケードの構造に執着しているにもかかわらず、信頼に基づく推論は実際は極めてうまく機能することが多い。
論文 参考訳(メタデータ) (2023-07-06T04:13:57Z) - G$^2$uardFL: Safeguarding Federated Learning Against Backdoor Attacks
through Attributed Client Graph Clustering [116.4277292854053]
Federated Learning (FL)は、データ共有なしで協調的なモデルトレーニングを提供する。
FLはバックドア攻撃に弱いため、有害なモデル重みがシステムの整合性を損なう。
本稿では、悪意のあるクライアントの識別を属性グラフクラスタリング問題として再解釈する保護フレームワークであるG$2$uardFLを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:15:04Z) - Binary Classification from Positive Data with Skewed Confidence [85.18941440826309]
肯定的信頼度(Pconf)分類は、有望な弱教師付き学習法である。
実際には、信頼はアノテーションプロセスで生じるバイアスによって歪められることがある。
本稿では、スキュード信頼度のパラメータ化モデルを導入し、ハイパーパラメータを選択する方法を提案する。
論文 参考訳(メタデータ) (2020-01-29T00:04:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。