論文の概要: Scene Graph-Guided Generative AI Framework for Synthesizing and Evaluating Industrial Hazard Scenarios
- arxiv url: http://arxiv.org/abs/2511.13970v1
- Date: Mon, 17 Nov 2025 22:58:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-19 16:23:52.829266
- Title: Scene Graph-Guided Generative AI Framework for Synthesizing and Evaluating Industrial Hazard Scenarios
- Title(参考訳): Scene Graph-Guided Generative AI Framework for Synthesizing and Evaluating Industrial Hazard Scenarios
- Authors: Sanjay Acharjee, Abir Khan Ratul, Diego Patino, Md Nazmus Sakib,
- Abstract要約: 職場の危険を正確に検出するための視覚モデルの訓練には、事故につながる危険条件のリアルなイメージが必要である。
本研究では,OSHA(Occupational Safety and Health Administration)の事故報告に基づく危険シナリオのフォトリアリスティックなイメージを合成する,新しいシーングラフ誘導型生成AIフレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Training vision models to detect workplace hazards accurately requires realistic images of unsafe conditions that could lead to accidents. However, acquiring such datasets is difficult because capturing accident-triggering scenarios as they occur is nearly impossible. To overcome this limitation, this study presents a novel scene graph-guided generative AI framework that synthesizes photorealistic images of hazardous scenarios grounded in historical Occupational Safety and Health Administration (OSHA) accident reports. OSHA narratives are analyzed using GPT-4o to extract structured hazard reasoning, which is converted into object-level scene graphs capturing spatial and contextual relationships essential for understanding risk. These graphs guide a text-to-image diffusion model to generate compositionally accurate hazard scenes. To evaluate the realism and semantic fidelity of the generated data, a visual question answering (VQA) framework is introduced. Across four state-of-the-art generative models, the proposed VQA Graph Score outperforms CLIP and BLIP metrics based on entropy-based validation, confirming its higher discriminative sensitivity.
- Abstract(参考訳): 職場の危険を正確に検出するための視覚モデルの訓練には、事故につながる危険条件のリアルなイメージが必要である。
しかし、このようなデータセットの取得は、事故の引き金となるシナリオを捕捉することがほぼ不可能であるため困難である。
この制限を克服するために,OSHA(Occupational Safety and Health Administration)の事故報告に根ざした危険シナリオのフォトリアリスティックなイメージを合成する,グラフ誘導型生成AIフレームワークを提案する。
OSHAの物語はGPT-4oを用いて分析され、リスクを理解するのに不可欠な空間的・文脈的関係を抽出するオブジェクトレベルのシーングラフに変換される。
これらのグラフはテキストから画像への拡散モデルを示し、構成的に正確な危険シーンを生成する。
生成したデータの現実性と意味的忠実性を評価するために、視覚的質問応答(VQA)フレームワークを導入する。
VQA Graph Scoreは、最先端の4つの生成モデル全体で、エントロピーに基づく検証に基づいてCLIPとBLIPの指標を上回り、高い識別感度を確認する。
関連論文リスト
- Associative Poisoning to Generative Machine Learning [5.094623170336122]
我々は連想中毒と呼ばれる新しいデータ中毒技術を紹介した。
トレーニングプロセスの制御を必要とせずに、生成されたデータのきめ細かい特徴を損なう。
この攻撃は、生成された出力中の特定の特徴ペア間の統計的関連を操作するためのトレーニングデータのみを摂動する。
論文 参考訳(メタデータ) (2025-11-07T11:47:33Z) - Towards a Multi-Agent Vision-Language System for Zero-Shot Novel Hazardous Object Detection for Autonomous Driving Safety [0.0]
視覚言語推論とゼロショットオブジェクト検出を統合したマルチモーダル手法を提案する。
予測ハザードとバウンディングボックスアノテーションを一致させるために,OpenAIのCLIPモデルを取り入れたオブジェクト検出を改良する。
その結果,現在の視覚言語に基づくアプローチの長所と短所が明らかになった。
論文 参考訳(メタデータ) (2025-04-18T01:25:02Z) - Ensuring Medical AI Safety: Interpretability-Driven Detection and Mitigation of Spurious Model Behavior and Associated Data [14.991686165405959]
2つのモダリティにまたがる4つの医療データセットを用いて,フレームワークの適用性を示す。
VGG16, ResNet50, および同時代のVision Transformerモデルにおいて, これらのバイアスを特定し, 解放することに成功した。
論文 参考訳(メタデータ) (2025-01-23T16:39:09Z) - Epistemic Uncertainty for Generated Image Detection [107.62647907393377]
本稿では,創成モデルの時代において重要なセキュリティ問題に対処することを目的とした,てんかん不確実性によるAI生成画像検出のための新しいフレームワークを提案する。
我々の重要な洞察は、トレーニングとテストデータの分布の相違が、機械学習モデルのエピステマティック不確実性空間に顕著に現れていることに起因している。
論文 参考訳(メタデータ) (2024-12-08T11:32:25Z) - EARBench: Towards Evaluating Physical Risk Awareness for Task Planning of Foundation Model-based Embodied AI Agents [53.717918131568936]
EAI(Embodied AI)は、高度なAIモデルを現実世界のインタラクションのための物理的なエンティティに統合する。
高レベルのタスク計画のためのEAIエージェントの"脳"としてのファンデーションモデルは、有望な結果を示している。
しかし、これらのエージェントの物理的環境への展開は、重大な安全性上の課題を呈している。
本研究では,EAIシナリオにおける身体的リスクの自動評価のための新しいフレームワークEARBenchを紹介する。
論文 参考訳(メタデータ) (2024-08-08T13:19:37Z) - BadGD: A unified data-centric framework to identify gradient descent vulnerabilities [10.996626204702189]
BadGDは、敵の操作を理解し緩和するための新しい標準を設定している。
この研究は、このようなデータ中心の攻撃によって引き起こされる深刻な脅威を強調し、機械学習における堅牢な防御の必要性を強調している。
論文 参考訳(メタデータ) (2024-05-24T23:39:45Z) - Data-Agnostic Model Poisoning against Federated Learning: A Graph
Autoencoder Approach [65.2993866461477]
本稿では,フェデレートラーニング(FL)に対するデータに依存しないモデル中毒攻撃を提案する。
この攻撃はFLトレーニングデータの知識を必要とせず、有効性と検出不能の両方を達成する。
実験により、FLの精度は提案した攻撃の下で徐々に低下し、既存の防御機構では検出できないことが示された。
論文 参考訳(メタデータ) (2023-11-30T12:19:10Z) - Towards General Visual-Linguistic Face Forgery Detection [95.73987327101143]
ディープフェイクは現実的な顔操作であり、セキュリティ、プライバシー、信頼に深刻な脅威をもたらす可能性がある。
既存の方法は、このタスクを、デジタルラベルまたはマスク信号を使用して検出モデルをトレーニングするバイナリ分類として扱う。
本稿では, 微粒な文レベルのプロンプトをアノテーションとして用いた, VLFFD (Visual-Linguistic Face Forgery Detection) という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-07-31T10:22:33Z) - Data-driven Design of Context-aware Monitors for Hazard Prediction in
Artificial Pancreas Systems [2.126171264016785]
医療サイバー物理システム(MCPS)は、コントローラをターゲットとし、安全上の危険や患者への害を引き起こす可能性がある偶発的または悪意のある障害に対して脆弱です。
本論文では,危険の兆候を早期に検出し軽減できるコンテキスト認識型モニターの設計のためのモデルとデータ駆動型アプローチを提案する。
論文 参考訳(メタデータ) (2021-04-06T14:36:33Z) - Proactive Pseudo-Intervention: Causally Informed Contrastive Learning
For Interpretable Vision Models [103.64435911083432]
PPI(Proactive Pseudo-Intervention)と呼ばれる新しい対照的な学習戦略を提案する。
PPIは、因果関係のない画像の特徴を保護するために積極的に介入する。
また,重要な画像画素を識別するための,因果的に通知された新たなサリエンスマッピングモジュールを考案し,モデル解釈の容易性を示す。
論文 参考訳(メタデータ) (2020-12-06T20:30:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。