論文の概要: BUSSARD: Normalizing Flows for Bijective Universal Scene-Specific Anomalous Relationship Detection
- arxiv url: http://arxiv.org/abs/2603.16645v1
- Date: Tue, 17 Mar 2026 15:16:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-18 17:42:07.362437
- Title: BUSSARD: Normalizing Flows for Bijective Universal Scene-Specific Anomalous Relationship Detection
- Title(参考訳): BUSSARD:Bijective Universal Scene-Specific Anomalous Relationship Detectionのための正規化フロー
- Authors: Melissa Schween, Mathis Kruse, Bodo Rosenhahn,
- Abstract要約: 本稿では,画像から生成されたシーングラフの異常関係を検出するための正規化フローベースモデルを提案する。
我々の研究は、実世界の意味的知識を活用するために、シーングラフからオブジェクトと関係トークンを言語モデルに埋め込んだマルチモーダルなアプローチに従っている。
提案手法は,現在の最先端モデルと比較して約10%のAUROC結果が得られると同時に,同時に5倍の高速化を実現している。
- 参考スコア(独自算出の注目度): 27.222384424781975
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose Bijective Universal Scene-Specific Anomalous Relationship Detection (BUSSARD), a normalizing flow-based model for detecting anomalous relations in scene graphs, generated from images. Our work follows a multimodal approach, embedding object and relationship tokens from scene graphs with a language model to leverage semantic knowledge from the real world. A normalizing flow model is used to learn bijective transformations that map object-relation-object triplets from scene graphs to a simple base distribution (typically Gaussian), allowing anomaly detection through likelihood estimation. We evaluate our approach on the SARD dataset containing office and dining room scenes. Our method achieves around 10% better AUROC results compared to the current state-of-the-art model, while simultaneously being five times faster. Through ablation studies, we demonstrate superior robustness and universality, particularly regarding the use of synonyms, with our model maintaining stable performance while the baseline shows 17.5% deviation. This work demonstrates the strong potential of learning-based methods for relationship anomaly detection in scene graphs. Our code is available at https://github.com/mschween/BUSSARD .
- Abstract(参考訳): 画像から生成したシーングラフの異常関係を検出するための正規化フローベースモデルであるBUSSARD(Bijective Universal Scene-Specific Anomalous Relationship Detection)を提案する。
我々の研究は、実世界の意味的知識を活用するために、シーングラフからオブジェクトと関係トークンを言語モデルに埋め込んだマルチモーダルなアプローチに従っている。
正規化フローモデルは、シーングラフから単純なベース分布(典型的にはガウス)にオブジェクト-リレーション-オブジェクト三重項をマッピングするビジェクティブ変換を学習するために使用され、推定による異常検出を可能にする。
我々は、オフィスとダイニングルームのシーンを含むSARDデータセットに対するアプローチを評価した。
提案手法は,現在の最先端モデルと比較して約10%のAUROC結果が得られると同時に,同時に5倍の高速化を実現している。
アブレーション研究を通じて、特に同義語の使用に関して優れた堅牢性と普遍性を示し、ベースラインの偏差が17.5%であるのに対して、我々のモデルは安定した性能を維持している。
本研究は,シーングラフにおける関係異常検出のための学習ベース手法の強い可能性を示す。
私たちのコードはhttps://github.com/mschween/BUSSARDで利用可能です。
関連論文リスト
- Generalized Visual Relation Detection with Diffusion Models [94.62313788626128]
視覚的関係検出(VRD)は、画像内のオブジェクトペア間の関係(または相互作用)を特定することを目的としている。
本稿では,視覚的関係を連続的な埋め込みとしてモデル化し,一般化されたVRDを条件付き生成方法で実現するための拡散モデルの設計を提案する。
我々のDiff-VRDは、予め定義されたデータセットのカテゴリラベルを超えて、視覚的な関係を生成できる。
論文 参考訳(メタデータ) (2025-04-16T14:03:24Z) - Common-Sense Bias Modeling for Classification Tasks [15.683471433842492]
テキスト記述に基づく画像データセットの包括的バイアスを抽出する新しい枠組みを提案する。
提案手法は,複数の画像ベンチマークデータセットにおける新しいモデルバイアスを明らかにする。
発見されたバイアスは、機能の非相関化のために、単純なデータ再重み付けによって緩和することができる。
論文 参考訳(メタデータ) (2024-01-24T03:56:07Z) - Preserving Knowledge Invariance: Rethinking Robustness Evaluation of Open Information Extraction [49.15931834209624]
実世界におけるオープン情報抽出モデルの評価をシミュレートする最初のベンチマークを示す。
我々は、それぞれの例が知識不変のcliqueである大規模なテストベッドを設計し、注釈付けする。
さらにロバスト性計量を解明することにより、その性能が全体の傾きに対して一貫して正確であるならば、モデルはロバストであると判断される。
論文 参考訳(メタデータ) (2023-05-23T12:05:09Z) - Unified Visual Relationship Detection with Vision and Language Models [89.77838890788638]
この研究は、複数のデータセットからラベル空間の結合を予測する単一の視覚的関係検出器のトレーニングに焦点を当てている。
視覚と言語モデルを活用した統合視覚関係検出のための新しいボトムアップ手法UniVRDを提案する。
人物体間相互作用検出とシーングラフ生成の双方による実験結果から,本モデルの競合性能が示された。
論文 参考訳(メタデータ) (2023-03-16T00:06:28Z) - General Greedy De-bias Learning [163.65789778416172]
本稿では,関数空間における勾配降下のような偏りのあるモデルとベースモデルを優雅に訓練する一般グリーディ・デバイアス学習フレームワーク(GGD)を提案する。
GGDは、事前知識を持つタスク固有バイアスモデルと、事前知識を持たない自己アンサンブルバイアスモデルの両方の設定の下で、より堅牢なベースモデルを学ぶことができる。
論文 参考訳(メタデータ) (2021-12-20T14:47:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。