論文の概要: Towards Robust Artificial Intelligence: Self-Supervised Learning Approach for Out-of-Distribution Detection
- arxiv url: http://arxiv.org/abs/2510.12713v1
- Date: Tue, 14 Oct 2025 16:55:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-15 19:02:32.402262
- Title: Towards Robust Artificial Intelligence: Self-Supervised Learning Approach for Out-of-Distribution Detection
- Title(参考訳): ロバスト人工知能を目指して--アウト・オブ・ディストリビューション検出のための自己監督型学習アプローチ
- Authors: Wissam Salhab, Darine Ameyed, Hamid Mcheick, Fehmi Jaafar,
- Abstract要約: 本稿では,ラベル付きデータを必要としないOOD検出手法を提案する。
提案手法は自己教師付き学習の原理を利用して,ラベルのないデータから有用な表現を学習する。
- 参考スコア(独自算出の注目度): 0.19599274203282294
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Robustness in AI systems refers to their ability to maintain reliable and accurate performance under various conditions, including out-of-distribution (OOD) samples, adversarial attacks, and environmental changes. This is crucial in safety-critical systems, such as autonomous vehicles, transportation, or healthcare, where malfunctions could have severe consequences. This paper proposes an approach to improve OOD detection without the need of labeled data, thereby increasing the AI systems' robustness. The proposed approach leverages the principles of self-supervised learning, allowing the model to learn useful representations from unlabeled data. Combined with graph-theoretical techniques, this enables the more efficient identification and categorization of OOD samples. Compared to existing state-of-the-art methods, this approach achieved an Area Under the Receiver Operating Characteristic Curve (AUROC) = 0.99.
- Abstract(参考訳): AIシステムのロバスト性は、アウト・オブ・ディストリビューション(OOD)サンプル、敵攻撃、環境変化など、さまざまな条件下で信頼性と正確なパフォーマンスを維持する能力を示している。
これは、自動運転車、交通機関、医療などの安全に重要なシステムにおいて重要なものであり、機能不全が深刻な結果をもたらす可能性がある。
本稿では,ラベル付きデータを必要とせずにOOD検出を改善する手法を提案する。
提案手法は自己教師付き学習の原理を利用して,ラベルのないデータから有用な表現を学習する。
グラフ理論と組み合わせることで、OODサンプルのより効率的な識別と分類が可能になる。
既存の最先端手法と比較して、このアプローチは受信器動作特性曲線 (AUROC) = 0.99 の領域を達成している。
関連論文リスト
- Enhancing OOD Detection Using Latent Diffusion [3.4899193297791054]
Out-of-Distribution(OOD)検出は、現実のシナリオにおけるマシンラーニングモデルの信頼性の高いデプロイに不可欠である。
近年の研究では、安定拡散のような生成モデルを用いて、画素空間の外部値データを合成する方法が検討されている。
我々は,潜伏空間内でOOD学習データを生成する新しいフレームワークであるOutlier-Aware Learning (OAL)を提案する。
論文 参考訳(メタデータ) (2024-06-24T11:01:43Z) - Deep Learning-Based Out-of-distribution Source Code Data Identification: How Far Have We Gone? [23.962076093344166]
我々は,OODソースコードデータ識別問題に対処する革新的なディープラーニングベースのアプローチを提案する。
本手法は,革新的なクラスタコントラスト学習を用いて情報理論的な視点から導出する。
提案手法は,FPR,AUROC,AUPRでそれぞれ約15.27%,7.39%,4.93%の成績を示した。
論文 参考訳(メタデータ) (2024-04-09T02:52:55Z) - AUTO: Adaptive Outlier Optimization for Test-Time OOD Detection [79.51071170042972]
Out-of-Distribution (OOD) 検出は、任意のトレーニングインディストリビューション(ID)クラスに該当しないテストサンプルを検出することを目的としている。
データ安全性とプライバシにより、さまざまなシナリオに対して、事前にタスク固有の外れ値の収集が不可能になる。
テスト中にラベルのないデータストリームから実際のOODデータを利用することができる。
論文 参考訳(メタデータ) (2023-03-22T02:28:54Z) - Energy-based Out-of-Distribution Detection for Graph Neural Networks [76.0242218180483]
我々は,GNNSafeと呼ばれるグラフ上での学習のための,シンプルで強力で効率的なOOD検出モデルを提案する。
GNNSafeは、最先端技術に対するAUROCの改善を最大17.0%で達成しており、そのような未開発領域では単純だが強力なベースラインとして機能する可能性がある。
論文 参考訳(メタデータ) (2023-02-06T16:38:43Z) - Free Lunch for Generating Effective Outlier Supervision [46.37464572099351]
本稿では, ほぼ現実的な外乱監視を実現するための超効率的な手法を提案する。
提案したtextttBayesAug は,従来の方式に比べて偽陽性率を 12.50% 以上削減する。
論文 参考訳(メタデータ) (2023-01-17T01:46:45Z) - RODD: A Self-Supervised Approach for Robust Out-of-Distribution
Detection [12.341250124228859]
本稿では,分散データセットに依存しない簡易かつ効果的なOOD検出手法を提案する。
提案手法は, コンパクトな低次元空間上に埋没するトレーニングサンプルの自己教師型特徴学習に依存する。
自己教師付きコントラスト学習を用いた事前学習モデルでは、潜伏空間における一次元特徴学習のより良いモデルが得られることを実証的に示す。
論文 参考訳(メタデータ) (2022-04-06T03:05:58Z) - Provably Robust Detection of Out-of-distribution Data (almost) for free [124.14121487542613]
ディープニューラルネットワークは、アウト・オブ・ディストリビューション(OOD)データに対する高い過度な予測を生成することが知られている。
本稿では,認証可能なOOD検出器を標準分類器と組み合わせてOOD認識分類器を提案する。
このようにして、我々は2つの世界のベストを達成している。OOD検出は、分布内に近いOODサンプルであっても、予測精度を損なうことなく、非操作型OODデータに対する最先端のOOD検出性能に近接する。
論文 参考訳(メタデータ) (2021-06-08T11:40:49Z) - DEALIO: Data-Efficient Adversarial Learning for Imitation from
Observation [57.358212277226315]
観察ifoからの模倣学習において、学習エージェントは、実演者の生成した制御信号にアクセスせずに、実演行動の観察のみを用いて実演エージェントを模倣しようとする。
近年、逆模倣学習に基づく手法は、ifO問題に対する最先端のパフォーマンスをもたらすが、データ非効率でモデルなしの強化学習アルゴリズムに依存するため、サンプルの複雑さに悩まされることが多い。
この問題は、サンプルの収集が時間、エネルギー、およびリスクの面で高いコストを被る可能性がある現実世界の設定に展開することは非現実的です。
よりデータ効率の高いifOアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-31T23:46:32Z) - Robust Out-of-distribution Detection for Neural Networks [51.19164318924997]
既存の検出機構は, 分布内およびOOD入力の評価において, 極めて脆弱であることを示す。
ALOE と呼ばれる実効性のあるアルゴリズムを提案する。このアルゴリズムは,逆向きに構築された逆数と外数の両方の例にモデルを公開することにより,堅牢なトレーニングを行う。
論文 参考訳(メタデータ) (2020-03-21T17:46:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。