論文の概要: HomeSafe-Bench: Evaluating Vision-Language Models on Unsafe Action Detection for Embodied Agents in Household Scenarios
- arxiv url: http://arxiv.org/abs/2603.11975v1
- Date: Thu, 12 Mar 2026 14:25:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-13 14:46:26.141344
- Title: HomeSafe-Bench: Evaluating Vision-Language Models on Unsafe Action Detection for Embodied Agents in Household Scenarios
- Title(参考訳): ホームセーフベンチ:家庭シナリオにおける非安全行動検出のためのビジョンランゲージモデルの評価
- Authors: Jiayue Pu, Zhongxiang Sun, Zilu Zhang, Xiao Zhang, Jun Xu,
- Abstract要約: 世帯シナリオにおける安全でない行動検出における視覚言語モデル(VLM)の評価のためのベンチマークである textbfHomeSafe-Bench を紹介する。
また、リアルタイムの安全監視のための階層型ストリーミングアーキテクチャである、世帯安全のためのデュアルブラインドガード(HD-Guard)を提案する。
- 参考スコア(独自算出の注目度): 10.375753259643
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid evolution of embodied agents has accelerated the deployment of household robots in real-world environments. However, unlike structured industrial settings, household spaces introduce unpredictable safety risks, where system limitations such as perception latency and lack of common sense knowledge can lead to dangerous errors. Current safety evaluations, often restricted to static images, text, or general hazards, fail to adequately benchmark dynamic unsafe action detection in these specific contexts. To bridge this gap, we introduce \textbf{HomeSafe-Bench}, a challenging benchmark designed to evaluate Vision-Language Models (VLMs) on unsafe action detection in household scenarios. HomeSafe-Bench is contrusted via a hybrid pipeline combining physical simulation with advanced video generation and features 438 diverse cases across six functional areas with fine-grained multidimensional annotations. Beyond benchmarking, we propose \textbf{Hierarchical Dual-Brain Guard for Household Safety (HD-Guard)}, a hierarchical streaming architecture for real-time safety monitoring. HD-Guard coordinates a lightweight FastBrain for continuous high-frequency screening with an asynchronous large-scale SlowBrain for deep multimodal reasoning, effectively balancing inference efficiency with detection accuracy. Evaluations demonstrate that HD-Guard achieves a superior trade-off between latency and performance, while our analysis identifies critical bottlenecks in current VLM-based safety detection.
- Abstract(参考訳): エンボディエージェントの急速な進化により、実環境における家庭用ロボットの展開が加速した。
しかし、構造的な産業環境とは異なり、家庭空間には予測不可能な安全リスクが伴うため、知覚遅延や常識知識の欠如といったシステム制限が危険なエラーを引き起こす可能性がある。
現在の安全性評価は、静的イメージ、テキスト、あるいは一般的なハザードに制限されることが多いが、これらの特定のコンテキストにおいて動的に安全でないアクション検出を適切にベンチマークすることができない。
このギャップを埋めるために、家庭のシナリオにおける安全でない行動検出に関するビジョン・ランゲージ・モデル(VLM)を評価するために設計された、挑戦的なベンチマークである \textbf{HomeSafe-Bench} を導入する。
HomeSafe-Benchは、物理シミュレーションと高度なビデオ生成を組み合わせたハイブリッドパイプラインを通じて委託されており、細かな多次元アノテーションを備えた6つの機能領域にわたる438の多様なケースが特徴である。
ベンチマークの他に、リアルタイムの安全監視のための階層型ストリーミングアーキテクチャである「家庭安全のための階層的デュアルブラインドガード(HD-Guard)」を提案する。
HD-Guardは、連続した高周波スクリーニングのための軽量なFastBrainと、深いマルチモーダル推論のための非同期の大規模SlowBrainをコーディネートし、推論効率と検出精度を効果的にバランスさせる。
評価の結果,HD-Guardはレイテンシと性能のトレードオフが優れていることがわかった。
関連論文リスト
- BarrierSteer: LLM Safety via Learning Barrier Steering [83.12893815611052]
BarrierSteerは、学習した非線形安全性制約を直接モデルの潜在表現空間に埋め込むことで、安全性を形式化する新しいフレームワークである。
BarrierSteerは、敵の成功率を大幅に低下させ、安全でない世代を減少させ、既存の手法より優れていることを示す。
論文 参考訳(メタデータ) (2026-02-23T18:19:46Z) - Automated Safety Benchmarking: A Multi-agent Pipeline for LVLMs [61.01470415470677]
大規模視覚言語モデル(LVLM)は、クロスモーダルタスクにおいて顕著な能力を示すが、重大な安全性上の課題に直面している。
既存のベンチマークは、労働集約的な建設プロセス、静的な複雑さ、限定的な差別力によって妨げられている。
LVLMの安全性ベンチマークのための最初の自動システムであるVLSafetyBencherを提案する。
論文 参考訳(メタデータ) (2026-01-27T11:51:30Z) - RoboSafe: Safeguarding Embodied Agents via Executable Safety Logic [56.38397499463889]
視覚言語モデル(VLM)を利用するエージェントは、複雑な現実世界のタスクを実行する能力がますます高まっている。
しかし、安全でない行動を引き起こす可能性のある危険な指示に弱いままである。
提案するRoboSafeは,実行可能述語ベースの安全ロジックを通じて,エージェントを具体化するためのランタイムセーフガードである。
論文 参考訳(メタデータ) (2025-12-24T15:01:26Z) - OS-Sentinel: Towards Safety-Enhanced Mobile GUI Agents via Hybrid Validation in Realistic Workflows [77.95511352806261]
VLM(Vision-Language Models)を利用したコンピュータ利用エージェントは、モバイルプラットフォームのようなデジタル環境を操作する上で、人間のような能力を実証している。
我々は,明示的なシステムレベルの違反を検出するための形式検証器と,文脈的リスクとエージェント行動を評価するコンテキスト判断器を組み合わせた,新しいハイブリッド安全検出フレームワークOS-Sentinelを提案する。
論文 参考訳(メタデータ) (2025-10-28T13:22:39Z) - UpSafe$^\circ$C: Upcycling for Controllable Safety in Large Language Models [67.91151588917396]
大規模言語モデル(LLM)は、幅広いタスクで顕著な進歩を遂げているが、有害なコンテンツ生成やジェイルブレイク攻撃といった安全リスクに弱いままである。
安全に配慮したリサイクルによるLCMの安全性向上のための統合フレームワークであるUpSafe$circ$Cを提案する。
この結果から, 静的アライメントから動的, モジュール, 推論対応制御への移行という, LLMの安全性の新たな方向性が明らかになった。
論文 参考訳(メタデータ) (2025-10-02T16:43:33Z) - HomeSafeBench: A Benchmark for Embodied Vision-Language Models in Free-Exploration Home Safety Inspection [45.2338049870908]
身体的エージェントは、家庭環境における安全上の危険を識別し報告することができる。
既存のベンチマークには2つの重要な制限がある。
HomeSafeBenchは、一般的な5つのホームセーフティーハザードをカバーする12,900のデータポイントを持つベンチマークである。
論文 参考訳(メタデータ) (2025-09-28T07:01:27Z) - Think in Safety: Unveiling and Mitigating Safety Alignment Collapse in Multimodal Large Reasoning Model [29.63418384788804]
5つのベンチマークでMLRM(Multimodal Large Reasoning Model)11の安全性評価を行う。
分析の結果、異なるベンチマークで異なる安全性パターンが明らかになった。
これは、モデル固有の推論能力を活用して安全でない意図を検出することで、MLRMの安全性問題に対処する潜在的アプローチである。
論文 参考訳(メタデータ) (2025-05-10T06:59:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。