論文の概要: Verifiable Deep Quantitative Group Testing
- arxiv url: http://arxiv.org/abs/2512.07279v1
- Date: Mon, 08 Dec 2025 08:18:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.781654
- Title: Verifiable Deep Quantitative Group Testing
- Title(参考訳): 検証可能な深部定量化グループテスト
- Authors: Shreyas Jayant Grampurohit, Satish Mulleti, Ajit Rajwade,
- Abstract要約: 本稿では,定量的グループテスト問題を解決するニューラルネットワークベースのフレームワークを提案する。
QGT では、M ll N$ のプールテストのみを使用して、$N$ の候補のうち、欠陥項目の小さなサブセットを特定することが目的である。
多層パーセプトロンを用いてノイズ測定ベクトルを2値の欠陥指標にマッピングし,スパースで有界な摂動の下でも高精度で頑健な回復を実現する。
- 参考スコア(独自算出の注目度): 15.907713924236518
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a neural network-based framework for solving the quantitative group testing (QGT) problem that achieves both high decoding accuracy and structural verifiability. In QGT, the objective is to identify a small subset of defective items among $N$ candidates using only $M \ll N$ pooled tests, each reporting the number of defectives in the tested subset. We train a multi-layer perceptron to map noisy measurement vectors to binary defect indicators, achieving accurate and robust recovery even under sparse, bounded perturbations. Beyond accuracy, we show that the trained network implicitly learns the underlying pooling structure that links items to tests, allowing this structure to be recovered directly from the network's Jacobian. This indicates that the model does not merely memorize training patterns but internalizes the true combinatorial relationships governing QGT. Our findings reveal that standard feedforward architectures can learn verifiable inverse mappings in structured combinatorial recovery problems.
- Abstract(参考訳): 本稿では、高い復号精度と構造的妥当性の両方を達成する定量的グループテスト(QGT)問題を解決するニューラルネットワークベースのフレームワークを提案する。
QGTの目標は、$M \ll N$ プールテストのみを使用して、$N$ 候補者の欠陥項目の小さなサブセットを識別することであり、それぞれがテストされたサブセット内の欠陥項目数を報告している。
多層パーセプトロンを用いてノイズ測定ベクトルを2値の欠陥指標にマッピングし,スパースで有界な摂動の下でも高精度で頑健な回復を実現する。
精度を超えて、トレーニングされたネットワークは、テストにアイテムをリンクする基盤となるプーリング構造を暗黙的に学習し、ネットワークのJacobianから直接この構造を復元できることを示す。
このことは、モデルが単にトレーニングパターンを記憶するだけでなく、QGTを統括する真の組合せ関係を内部化することを示している。
この結果から, 標準フィードフォワードアーキテクチャは, 構造的組合せ回復問題において, 検証可能な逆写像を学習できることがわかった。
関連論文リスト
- When Simple Model Just Works: Is Network Traffic Classification in Crisis? [0.0]
パケットシーケンスメタデータを用いた単純なk-NNベースラインは、より複雑な手法より優れていることを示す。
我々は、NLPやコンピュータビジョンのようなドメインに適応した標準的な機械学習の実践は、ネットワークトラフィックの分類に不適であると主張している。
論文 参考訳(メタデータ) (2025-06-10T10:11:05Z) - SINDER: Repairing the Singular Defects of DINOv2 [61.98878352956125]
大規模なデータセットでトレーニングされたビジョントランスフォーマーモデルは、抽出したパッチトークンにアーティファクトを表示することが多い。
本稿では,小さなデータセットのみを用いて構造欠陥を補正するスムーズなスムーズな正規化を提案する。
論文 参考訳(メタデータ) (2024-07-23T20:34:23Z) - FRGNN: Mitigating the Impact of Distribution Shift on Graph Neural
Networks via Test-Time Feature Reconstruction [13.21683198528012]
分散シフトはグラフニューラルネットワーク(GNN)のテスト性能に悪影響を及ぼす可能性がある
特徴再構成を行うための汎用フレームワークFR-GNNを提案する。
特に、再構成されたノード機能は、よく訓練されたモデルをテストするために直接利用することができる。
論文 参考訳(メタデータ) (2023-08-18T02:34:37Z) - The Sample Complexity of One-Hidden-Layer Neural Networks [57.6421258363243]
本研究では,スカラー値を持つ一層ネットワークのクラスとユークリッドノルムで有界な入力について検討する。
隠蔽層重み行列のスペクトルノルムの制御は、一様収束を保証するには不十分であることを示す。
スペクトルノルム制御が十分であることを示す2つの重要な設定を解析する。
論文 参考訳(メタデータ) (2022-02-13T07:12:02Z) - Robust lEarned Shrinkage-Thresholding (REST): Robust unrolling for
sparse recover [87.28082715343896]
我々は、モデルミス特定を前進させるのに堅牢な逆問題を解決するためのディープニューラルネットワークについて検討する。
我々は,アルゴリズムの展開手法を根底にある回復問題のロバストバージョンに適用することにより,新しい堅牢なディープニューラルネットワークアーキテクチャを設計する。
提案したRESTネットワークは,圧縮センシングとレーダイメージングの両問題において,最先端のモデルベースおよびデータ駆動アルゴリズムを上回る性能を示す。
論文 参考訳(メタデータ) (2021-10-20T06:15:45Z) - Assessing Generalization of SGD via Disagreement [71.17788927037081]
実験により、同一のトレーニングセット上で同じアーキテクチャをトレーニングするだけで、異なるグラディエント・ディフレクション(SGD)を実行することで、ディープネットワークのテストエラーを推定できることを実証的に示す。
この発見は、ラベルのないテストデータを使ってテストエラーを直接予測する単純な経験的尺度を提供するだけでなく、一般化とキャリブレーションの間に新たな概念的接続を確立する。
論文 参考訳(メタデータ) (2021-06-25T17:53:09Z) - Anomaly Detection on Attributed Networks via Contrastive Self-Supervised
Learning [50.24174211654775]
本論文では,アトリビュートネットワーク上の異常検出のためのコントラスト型自己監視学習フレームワークを提案する。
このフレームワークは、新しいタイプのコントラストインスタンスペアをサンプリングすることで、ネットワークデータからのローカル情報を完全に活用します。
高次元特性と局所構造から情報埋め込みを学習するグラフニューラルネットワークに基づくコントラスト学習モデルを提案する。
論文 参考訳(メタデータ) (2021-02-27T03:17:20Z) - Analyzing Overfitting under Class Imbalance in Neural Networks for Image
Segmentation [19.259574003403998]
画像分割では、ニューラルネットワークは小さな構造物の前景サンプルに過剰に適合する可能性がある。
本研究では,ネットワークの動作を検査することにより,クラス不均衡下でのオーバーフィッティング問題に対する新たな知見を提供する。
論文 参考訳(メタデータ) (2021-02-20T14:57:58Z) - Understanding Classifier Mistakes with Generative Models [88.20470690631372]
ディープニューラルネットワークは教師付き学習タスクに有効であるが、脆弱であることが示されている。
本稿では、生成モデルを利用して、分類器が一般化に失敗するインスタンスを特定し、特徴付ける。
我々のアプローチは、トレーニングセットのクラスラベルに依存しないため、半教師付きでトレーニングされたモデルに適用できる。
論文 参考訳(メタデータ) (2020-10-05T22:13:21Z) - Detecting Misclassification Errors in Neural Networks with a Gaussian
Process Model [20.948038514886377]
本稿では,誤分類誤りを検出するための定量的な尺度を新たに作成する枠組みを提案する。
このフレームワークREDは、ベース分類器の上にエラー検出器を構築し、ガウス過程を用いて検出スコアの不確かさを推定する。
論文 参考訳(メタデータ) (2020-10-05T15:01:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。