論文の概要: Calibrating AI Models for Wireless Communications via Conformal
Prediction
- arxiv url: http://arxiv.org/abs/2212.07775v1
- Date: Thu, 15 Dec 2022 12:52:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-16 18:03:41.150613
- Title: Calibrating AI Models for Wireless Communications via Conformal
Prediction
- Title(参考訳): 等角予測による無線通信用AIモデルの校正
- Authors: Kfir M. Cohen, Sangwoo Park, Osvaldo Simeone, Shlomo Shamai (Shitz)
- Abstract要約: コンフォーマル予測は,通信システムにおけるAIの設計に初めて適用される。
本稿では,形式的校正保証付き決定を生成するAIモデルを得るための一般フレームワークとしての共形予測の適用について検討する。
- 参考スコア(独自算出の注目度): 55.47458839587949
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When used in complex engineered systems, such as communication networks,
artificial intelligence (AI) models should be not only as accurate as possible,
but also well calibrated. A well-calibrated AI model is one that can reliably
quantify the uncertainty of its decisions, assigning high confidence levels to
decisions that are likely to be correct and low confidence levels to decisions
that are likely to be erroneous. This paper investigates the application of
conformal prediction as a general framework to obtain AI models that produce
decisions with formal calibration guarantees. Conformal prediction transforms
probabilistic predictors into set predictors that are guaranteed to contain the
correct answer with a probability chosen by the designer. Such formal
calibration guarantees hold irrespective of the true, unknown, distribution
underlying the generation of the variables of interest, and can be defined in
terms of ensemble or time-averaged probabilities. In this paper, conformal
prediction is applied for the first time to the design of AI for communication
systems in conjunction to both frequentist and Bayesian learning, focusing on
demodulation, modulation classification, and channel prediction.
- Abstract(参考訳): 通信ネットワークなどの複雑なエンジニアリングシステムで使用される場合、人工知能(AI)モデルは可能な限り正確であるだけでなく、十分に校正されるべきである。
十分に校正されたAIモデルは、その決定の不確実性を確実に定量化し、正しい可能性が高い決定に高い信頼レベルを割り当て、誤った可能性がある決定に低い信頼レベルを割り当てる。
本稿では,形式的校正保証付き決定を生成するAIモデルを得るための一般フレームワークとしての共形予測の適用について検討する。
コンフォーマル予測は、確率予測器を設計者が選択した確率で正しい答えを含むことが保証されるセット予測器に変換する。
このような形式的キャリブレーションの保証は、興味のある変数の生成の根底にある真の、未知の分布を保持し、アンサンブルや時間平均確率の観点で定義することができる。
本稿では,通信システム用AIの設計と,復調,変調分類,チャネル予測に焦点をあてた頻繁な学習とベイズ学習の両方に,初めて共形予測を適用した。
関連論文リスト
- Beyond Calibration: Assessing the Probabilistic Fit of Neural Regressors via Conditional Congruence [2.2359781747539396]
ディープネットワークは、しばしば過剰な自信と不一致な予測分布に悩まされる。
本稿では,条件付きカーネルの平均埋め込みを用いて,学習した予測分布とデータセットにおける経験的条件分布との距離を推定する,条件付きコングルーエンス誤差(CCE)について紹介する。
本研究では,1)データ生成プロセスが知られている場合の分布間の不一致を正確に定量化し,2)実世界の高次元画像回帰タスクに効果的にスケールし,3)未知のインスタンス上でのモデルの信頼性を評価することができることを示す。
論文 参考訳(メタデータ) (2024-05-20T23:30:07Z) - Onboard Out-of-Calibration Detection of Deep Learning Models using Conformal Prediction [4.856998175951948]
本研究では,共形予測アルゴリズムが深層学習モデルの不確かさと関係があることを示し,この関係が深層学習モデルが校正外であるかどうかを検出するのに有効であることを示す。
モデル不確かさと共形予測セットの平均サイズに関連する校正外検出手順を示す。
論文 参考訳(メタデータ) (2024-05-04T11:05:52Z) - When Does Confidence-Based Cascade Deferral Suffice? [69.28314307469381]
カスケードは、推論コストをサンプル毎に適応的に変化させる古典的な戦略である。
deferralルールは、シーケンス内の次の分類子を呼び出すか、または予測を終了するかを決定する。
カスケードの構造に執着しているにもかかわらず、信頼に基づく推論は実際は極めてうまく機能することが多い。
論文 参考訳(メタデータ) (2023-07-06T04:13:57Z) - Calibration-Aware Bayesian Learning [37.82259435084825]
本稿では、キャリブレーション対応ベイズニューラルネットワーク(CA-BNN)と呼ばれる統合フレームワークを提案する。
ベイズ学習のように変分分布を最適化しながら、データ依存あるいはデータ非依存の正則化をそれぞれ適用する。
予測キャリブレーション誤差(ECE)と信頼性図を用いて,提案手法の利点を検証した。
論文 参考訳(メタデータ) (2023-05-12T14:19:15Z) - Calibrated Selective Classification [34.08454890436067]
そこで我々は,「不確か」な不確実性のある例を拒否する手法を提案する。
本稿では,選択的校正モデル学習のためのフレームワークを提案する。そこでは,任意のベースモデルの選択的校正誤差を改善するために,個別のセレクタネットワークを訓練する。
われわれは,複数画像分類と肺癌リスク評価におけるアプローチの実証的効果を実証した。
論文 参考訳(メタデータ) (2022-08-25T13:31:09Z) - Modular Conformal Calibration [80.33410096908872]
回帰における再校正のためのアルゴリズムを多種多様なクラスで導入する。
このフレームワークは、任意の回帰モデルをキャリブレーションされた確率モデルに変換することを可能にする。
我々は17の回帰データセットに対するMCCの実証的研究を行った。
論文 参考訳(メタデータ) (2022-06-23T03:25:23Z) - Calibrating Predictions to Decisions: A Novel Approach to Multi-Class
Calibration [118.26862029820447]
我々は、下流の意思決定者に対して、予測された分布と真の分布を区別不能にする必要がある新しい概念、即時校正を導入します。
決定キャリブレーションは、皮膚病変の判定と、現代のニューラルネットワークを用いたImageNet分類を改善する。
論文 参考訳(メタデータ) (2021-07-12T20:17:28Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z) - Private Prediction Sets [72.75711776601973]
機械学習システムは、個人のプライバシーの確実な定量化と保護を必要とする。
これら2つのデシラタを共同で扱う枠組みを提案する。
本手法を大規模コンピュータビジョンデータセット上で評価する。
論文 参考訳(メタデータ) (2021-02-11T18:59:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。