論文の概要: Weakly-Supervised Residual Evidential Learning for Multi-Instance Uncertainty Estimation
- arxiv url: http://arxiv.org/abs/2405.04405v2
- Date: Thu, 9 May 2024 08:51:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-10 12:23:27.589691
- Title: Weakly-Supervised Residual Evidential Learning for Multi-Instance Uncertainty Estimation
- Title(参考訳): マルチインスタンス不確実性推定のための弱教師付き残差情報学習
- Authors: Pei Liu, Luping Ji,
- Abstract要約: 本稿では,Multi-Instance UE (MIUE) の弱教師付き問題に対処する。
新しいベースライン方式であるMulti-Instance Residual Evidential Learning (MIREL)を提案する。
バッグの高次予測分布とMIUEのインスタンスレベルを共同でモデル化するために,MIRELを提案する。
- 参考スコア(独自算出の注目度): 5.767281919406463
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Uncertainty estimation (UE), as an effective means of quantifying predictive uncertainty, is crucial for safe and reliable decision-making, especially in high-risk scenarios. Existing UE schemes usually assume that there are completely-labeled samples to support fully-supervised learning. In practice, however, many UE tasks often have no sufficiently-labeled data to use, such as the Multiple Instance Learning (MIL) with only weak instance annotations. To bridge this gap, this paper, for the first time, addresses the weakly-supervised issue of Multi-Instance UE (MIUE) and proposes a new baseline scheme, Multi-Instance Residual Evidential Learning (MIREL). Particularly, at the fine-grained instance UE with only weak supervision, we derive a multi-instance residual operator through the Fundamental Theorem of Symmetric Functions. On this operator derivation, we further propose MIREL to jointly model the high-order predictive distribution at bag and instance levels for MIUE. Extensive experiments empirically demonstrate that our MIREL not only could often make existing MIL networks perform better in MIUE, but also could surpass representative UE methods by large margins, especially in instance-level UE tasks. Our source code is available at https://github.com/liupei101/MIREL.
- Abstract(参考訳): 不確実性推定(UE)は、予測の不確実性を定量化する有効な手段であり、特にリスクの高いシナリオにおいて、安全で信頼性の高い意思決定に不可欠である。
既存のUEスキームは通常、完全に教師付き学習をサポートするために完全にラベル付けされたサンプルが存在すると仮定する。
しかし実際には、多くのUEタスクは、弱いインスタンスアノテーションしか持たないMIL(Multiple Instance Learning)のような十分なラベル付きデータを持っていないことが多い。
このギャップを埋めるために,本論文は,Multi-Instance UE(MIUE)の弱教師付き問題に初めて対処し,新しいベースラインスキームであるMulti-Instance Residual Evidential Learning(MIREL)を提案する。
特に、弱監督しか持たない微細なインスタンス UE において、シンメトリ関数の基本定理を通した多重インスタンス残差作用素を導出する。
この演算子の導出により,MIRELはバッグの高次予測分布とMIUEのインスタンスレベルを共同でモデル化する。
大規模な実験により、MIUEにおいて既存のMILネットワークの性能を向上するだけでなく、特にインスタンスレベルのUEタスクにおいて、UEメソッドを大きなマージンで上回ることが実証された。
ソースコードはhttps://github.com/liupei101/MIRELで公開されています。
関連論文リスト
- Do Not Design, Learn: A Trainable Scoring Function for Uncertainty Estimation in Generative LLMs [25.609536415522854]
生成型大規模言語モデル(LLM)における不確実性推定(UE)のための学習可能な応答スコア機能(LARS)
トークンと確率の間の複雑な依存関係をキャプチャするために,教師付きデータを活用するスコアリング関数LARSを提案する。
複数のデータセットにまたがる実験により,LARSは様々な確率に基づくUE法を考慮し,既存のスコアリング関数を著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2024-06-17T07:30:40Z) - Uncertainty Aware Learning for Language Model Alignment [97.36361196793929]
異なるタスクシナリオのモデルアライメントを改善するために,不確実性認識学習(UAL)を提案する。
トレーニングのラベルの平滑化値を個々のサンプルの不確実性に応じて適応的に設定する。
広く使われているベンチマーク実験では、我々のUALは標準教師あり微調整よりも著しく優れています。
論文 参考訳(メタデータ) (2024-06-07T11:37:45Z) - Cycles of Thought: Measuring LLM Confidence through Stable Explanations [53.15438489398938]
大規模言語モデル(LLM)は、様々なベンチマークで人間レベルの精度に到達し、さらに超えることができるが、不正確な応答における過度な自信は、依然として十分に文書化された障害モードである。
本稿では,LLMの不確実性を測定するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-05T16:35:30Z) - What Makes Multimodal In-Context Learning Work? [58.48612721156335]
本稿では,M-ICL(Multimodal ICL)を大規模マルチモーダルモデルで検討するための枠組みを提案する。
M-ICLは主にテキスト駆動機構に依存しており、画像のモダリティからはほとんど影響を受けない。
我々は、M-ICLのいくつかのバイアスと限界を特定し、デプロイメント前に考慮することを保証している。
論文 参考訳(メタデータ) (2024-04-24T08:50:45Z) - Unveiling the Misuse Potential of Base Large Language Models via In-Context Learning [61.2224355547598]
大規模言語モデル(LLM)のオープンソース化は、アプリケーション開発、イノベーション、科学的進歩を加速させる。
我々の調査は、この信念に対する重大な監視を露呈している。
我々の研究は、慎重に設計されたデモを配置することにより、ベースLSMが悪意のある命令を効果的に解釈し実行できることを実証する。
論文 参考訳(メタデータ) (2024-04-16T13:22:54Z) - f-FERM: A Scalable Framework for Robust Fair Empirical Risk Minimization [9.591164070876689]
本稿では、f-divergence measures(f-FERM)に基づく公正な経験的リスクに対する統一的な最適化フレームワークを提案する。
さらに,f-FERMによるほぼ全てのバッチサイズに対するフェアネス・精度トレードオフの優位性を実証した。
我々の拡張は、不確実集合として$L_p$ノルムの下で f-FERM の目的を分布的に頑健に最適化する手法に基づいている。
論文 参考訳(メタデータ) (2023-12-06T03:14:16Z) - LM-Polygraph: Uncertainty Estimation for Language Models [71.21409522341482]
不確実性推定(UE)手法は、大規模言語モデル(LLM)の安全性、責任性、効果的な利用のための1つの経路である。
テキスト生成タスクにおけるLLMの最先端UEメソッドのバッテリを実装したフレームワークであるLM-PolygraphをPythonで統一したプログラムインタフェースで導入する。
研究者によるUEテクニックの一貫した評価のための拡張可能なベンチマークと、信頼スコア付き標準チャットダイアログを強化するデモWebアプリケーションを導入している。
論文 参考訳(メタデータ) (2023-11-13T15:08:59Z) - Active Learning Principles for In-Context Learning with Large Language
Models [65.09970281795769]
本稿では,アクティブ・ラーニング・アルゴリズムが,文脈内学習における効果的な実演選択手法としてどのように機能するかを検討する。
ALによる文脈内サンプル選択は,不確実性の低い高品質な事例を優先し,試験例と類似性を有することを示す。
論文 参考訳(メタデータ) (2023-05-23T17:16:04Z) - Uncertainty-Aware Meta-Learning for Multimodal Task Distributions [3.7470451129384825]
UnLiMiTD(マルチモーダルタスク分散のための不確実性認識メタラーニング)を提案する。
確率論的視点を採り、メタデータセット上のタスクに対してパラメトリックで調整可能な分布をトレーニングする。
我々は、UnLiMiTDの予測が、ほとんどの場合、標準ベースラインと好意的に比較され、性能的に優れていることを示した。
論文 参考訳(メタデータ) (2022-10-04T20:02:25Z) - Attention Awareness Multiple Instance Neural Network [4.061135251278187]
本稿では,マルチインスタンスニューラルネットワークフレームワークを提案する。
インスタンスレベルの分類器と、空間的注意に基づくトレーニング可能なMILプーリング演算子と、バッグレベルの分類層で構成される。
一連のパターン認識タスクに対する実証実験により、我々のフレームワークは最先端のMILメソッドよりも優れていることが示された。
論文 参考訳(メタデータ) (2022-05-27T03:29:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。