論文の概要: Reliability in Semantic Segmentation: Can We Use Synthetic Data?
- arxiv url: http://arxiv.org/abs/2312.09231v2
- Date: Tue, 24 Sep 2024 13:05:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-09 09:16:50.145792
- Title: Reliability in Semantic Segmentation: Can We Use Synthetic Data?
- Title(参考訳): セマンティックセグメンテーションにおける信頼性:合成データの利用は可能か?
- Authors: Thibaut Loiseau, Tuan-Hung Vu, Mickael Chen, Patrick Pérez, Matthieu Cord,
- Abstract要約: セマンティックセグメンテーションモデルの現実的信頼性を総合的に評価するために、合成データを具体的に生成する方法を初めて示す。
この合成データは、事前訓練されたセグメンタの堅牢性を評価するために使用される。
セグメンタのキャリブレーションとOOD検出能力を向上するために,我々のアプローチをどのように活用できるかを実証する。
- 参考スコア(独自算出の注目度): 69.28268603137546
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Assessing the robustness of perception models to covariate shifts and their ability to detect out-of-distribution (OOD) inputs is crucial for safety-critical applications such as autonomous vehicles. By nature of such applications, however, the relevant data is difficult to collect and annotate. In this paper, we show for the first time how synthetic data can be specifically generated to assess comprehensively the real-world reliability of semantic segmentation models. By fine-tuning Stable Diffusion with only in-domain data, we perform zero-shot generation of visual scenes in OOD domains or inpainted with OOD objects. This synthetic data is employed to evaluate the robustness of pretrained segmenters, thereby offering insights into their performance when confronted with real edge cases. Through extensive experiments, we demonstrate a high correlation between the performance of models when evaluated on our synthetic OOD data and when evaluated on real OOD inputs, showing the relevance of such virtual testing. Furthermore, we demonstrate how our approach can be utilized to enhance the calibration and OOD detection capabilities of segmenters. Code and data are made public.
- Abstract(参考訳): 自律走行車のような安全クリティカルなアプリケーションには、知覚モデルのコバリアレートシフトに対する堅牢性と、アウト・オブ・ディストリビューション(OOD)インプットを検出する能力を評価することが不可欠である。
しかし、そのようなアプリケーションの性質上、関連するデータは収集や注釈付けが困難である。
本稿では,セマンティックセグメンテーションモデルの現実的信頼性を包括的に評価するために,合成データを具体的に生成する方法を初めて示す。
ドメイン内データのみを用いて安定拡散を微調整することにより、OODドメインのゼロショット生成やOODオブジェクトのインペイントを行う。
この合成データは、事前訓練されたセグメンタのロバスト性を評価するために使用され、実際のエッジケースに直面した際のパフォーマンスに関する洞察を提供する。
広範にわたる実験により,我々の合成OODデータを用いた場合と実際のOOD入力による場合とでは高い相関性を示し,このような仮想テストの有効性を示す。
さらに,セグメンタのキャリブレーションとOOD検出能力を向上するために,我々のアプローチをどのように活用できるかを示す。
コードとデータは公開されています。
関連論文リスト
- Non-Linear Outlier Synthesis for Out-of-Distribution Detection [5.019613806273252]
本稿では,拡散モデル埋め込み空間で直接操作することで,合成外乱器の品質を向上させるNCISを提案する。
これらの改良により,標準的な ImageNet100 および CIFAR100 ベンチマークにおいて,最先端の OOD 検出結果が得られた。
論文 参考訳(メタデータ) (2024-11-20T09:47:29Z) - Forte : Finding Outliers with Representation Typicality Estimation [0.14061979259370275]
生成モデルは、それを訓練する実際のデータとほぼ区別できない合成データを生成することができる。
OOD検出に関する最近の研究は、生成モデルの可能性が最適なOOD検出器であるという疑念を提起している。
本稿では,表現学習と,多様体推定に基づく情報的要約統計を利用した新しい手法を提案する。
論文 参考訳(メタデータ) (2024-10-02T08:26:37Z) - Can OOD Object Detectors Learn from Foundation Models? [56.03404530594071]
アウト・オブ・ディストリビューション(OOD)オブジェクト検出は、オープンセットのOODデータがないため、難しい課題である。
テキストから画像への生成モデルの最近の進歩に触発されて,大規模オープンセットデータを用いて訓練された生成モデルがOODサンプルを合成する可能性について検討した。
SyncOODは,大規模基盤モデルの能力を活用するシンプルなデータキュレーション手法である。
論文 参考訳(メタデータ) (2024-09-08T17:28:22Z) - Unveiling the Flaws: Exploring Imperfections in Synthetic Data and Mitigation Strategies for Large Language Models [89.88010750772413]
大規模言語モデル(LLM)の学習における高品質なデータ不足問題に対する解決法として,合成データを提案する。
我々の研究は、Q-A(Q-A)ペア、一般的な合成データに関連するこれらの特定の欠陥を掘り下げ、これらの欠陥を軽減するための未学習技術に基づく方法を提案する。
我々の研究は、より堅牢で効率的なLLMトレーニングを促進することを目的として、合成データの効果的な利用に関する重要な洞察を得た。
論文 参考訳(メタデータ) (2024-06-18T08:38:59Z) - Out-of-distribution Detection with Implicit Outlier Transformation [72.73711947366377]
外周露光(OE)は、オフ・オブ・ディストリビューション(OOD)検出において強力である。
我々は,未確認のOOD状況に対してモデルの性能を良くする,新しいOEベースのアプローチを提案する。
論文 参考訳(メタデータ) (2023-03-09T04:36:38Z) - Energy-based Out-of-Distribution Detection for Graph Neural Networks [76.0242218180483]
我々は,GNNSafeと呼ばれるグラフ上での学習のための,シンプルで強力で効率的なOOD検出モデルを提案する。
GNNSafeは、最先端技術に対するAUROCの改善を最大17.0%で達成しており、そのような未開発領域では単純だが強力なベースラインとして機能する可能性がある。
論文 参考訳(メタデータ) (2023-02-06T16:38:43Z) - OODformer: Out-Of-Distribution Detection Transformer [15.17006322500865]
現実世界の安全クリティカルなアプリケーションでは、新しいデータポイントがOODであるかどうかを認識することが重要です。
本稿では,OODformer というファースト・オブ・ザ・キンドな OOD 検出アーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-07-19T15:46:38Z) - Validation of Simulation-Based Testing: Bypassing Domain Shift with
Label-to-Image Synthesis [9.531148049378672]
本稿では,異なる転送可能性尺度とともに生成ラベル-画像合成モデルからなる新しいフレームワークを提案する。
シーンを駆動するセマンティックセグメンテーションタスクにおいて,本手法を実証的に検証する。
後者は実生活と合成テストを区別できるが、前者は自動車と歩行者の両方で0.7の驚くほど強い相関関係を観察する。
論文 参考訳(メタデータ) (2021-06-10T07:23:58Z) - Provably Robust Detection of Out-of-distribution Data (almost) for free [124.14121487542613]
ディープニューラルネットワークは、アウト・オブ・ディストリビューション(OOD)データに対する高い過度な予測を生成することが知られている。
本稿では,認証可能なOOD検出器を標準分類器と組み合わせてOOD認識分類器を提案する。
このようにして、我々は2つの世界のベストを達成している。OOD検出は、分布内に近いOODサンプルであっても、予測精度を損なうことなく、非操作型OODデータに対する最先端のOOD検出性能に近接する。
論文 参考訳(メタデータ) (2021-06-08T11:40:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。