論文の概要: Uncertainty Aware Human-machine Collaboration in Camouflaged Object Detection
- arxiv url: http://arxiv.org/abs/2502.08373v1
- Date: Wed, 12 Feb 2025 13:05:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-13 18:10:00.990352
- Title: Uncertainty Aware Human-machine Collaboration in Camouflaged Object Detection
- Title(参考訳): カモフラージュ物体検出における不確実性を考慮した人間機械の協調
- Authors: Ziyue Yang, Kehan Wang, Yuhang Ming, Yong Peng, Han Yang, Qiong Chen, Wanzeng Kong,
- Abstract要約: 信頼できるCODシステムの開発に向けた重要なステップは、不確実性の推定と有効利用である。
本研究では,カモフラージュされた物体の存在を分類するための人間と機械の協調フレームワークを提案する。
提案手法は,CVモデル予測の不確実性を推定するための多視点バックボーンを導入し,この不確実性を利用して効率を向上し,信頼性の低いケースを人体評価に適用する。
- 参考スコア(独自算出の注目度): 12.2304109417748
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Camouflaged Object Detection (COD), the task of identifying objects concealed within their environments, has seen rapid growth due to its wide range of practical applications. A key step toward developing trustworthy COD systems is the estimation and effective utilization of uncertainty. In this work, we propose a human-machine collaboration framework for classifying the presence of camouflaged objects, leveraging the complementary strengths of computer vision (CV) models and noninvasive brain-computer interfaces (BCIs). Our approach introduces a multiview backbone to estimate uncertainty in CV model predictions, utilizes this uncertainty during training to improve efficiency, and defers low-confidence cases to human evaluation via RSVP-based BCIs during testing for more reliable decision-making. We evaluated the framework in the CAMO dataset, achieving state-of-the-art results with an average improvement of 4.56\% in balanced accuracy (BA) and 3.66\% in the F1 score compared to existing methods. For the best-performing participants, the improvements reached 7.6\% in BA and 6.66\% in the F1 score. Analysis of the training process revealed a strong correlation between our confidence measures and precision, while an ablation study confirmed the effectiveness of the proposed training policy and the human-machine collaboration strategy. In general, this work reduces human cognitive load, improves system reliability, and provides a strong foundation for advancements in real-world COD applications and human-computer interaction. Our code and data are available at: https://github.com/ziyuey/Uncertainty-aware-human-machine-collaboration-in-camouflaged-object-identi fication.
- Abstract(参考訳): カモフラーゲ型物体検出(COD: Camouflaged Object Detection)は、環境内に隠された物体を識別するタスクであり、その幅広い応用により急速に成長している。
信頼できるCODシステムの開発に向けた重要なステップは、不確実性の推定と有効利用である。
本研究では,コンピュータビジョン(CV)モデルと非侵襲的脳-コンピュータインタフェース(BCI)の相補的長所を活かし,カモフラージュされた物体の存在を分類するための人間-機械協調フレームワークを提案する。
提案手法は,CVモデル予測の不確かさを推定するための多視点バックボーンを導入し,この不確実性を利用して効率を向上し,信頼性の高い意思決定のためのテストにおいて,RSVPベースのBCIを用いて人的評価を行う。
従来の手法と比較して, 平衡精度(BA)が4.56\%, F1スコアが3.66\%向上した。
成績の良い参加者は、BAで7.6\%、F1で6.66\%に達した。
トレーニングプロセスの分析では,信頼度と精度の相関が強く,アブレーション調査では,提案したトレーニング方針と人間と機械の協調戦略の有効性が確認された。
一般に、この研究は人間の認知負荷を減らし、システムの信頼性を改善し、現実世界のCODアプリケーションと人間とコンピュータの相互作用の進歩のための強力な基盤を提供する。
私たちのコードとデータは、https://github.com/ziyuey/Uncertainty-aware- Human-machine-collaboration-in-camouflaged-object-identificationで利用可能です。
関連論文リスト
- Advancing Embodied Agent Security: From Safety Benchmarks to Input Moderation [52.83870601473094]
エンボディード・エージェントは、複数のドメインにまたがって大きな潜在能力を示す。
既存の研究は主に、一般的な大言語モデルのセキュリティに重点を置いている。
本稿では, エンボディエージェントの保護を目的とした新しい入力モデレーションフレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-22T08:34:35Z) - Lie Detector: Unified Backdoor Detection via Cross-Examination Framework [68.45399098884364]
半正直な設定で一貫したバックドア検出フレームワークを提案する。
本手法は,SoTAベースラインよりも5.4%,1.6%,11.9%の精度で検出性能が向上する。
特に、マルチモーダルな大規模言語モデルにおいて、バックドアを効果的に検出するのは、これが初めてである。
論文 参考訳(メタデータ) (2025-03-21T06:12:06Z) - Privacy-Preserved Automated Scoring using Federated Learning for Educational Research [1.2556373621040728]
本研究では,教育評価における自動スコアリングのための統合学習フレームワークを提案する。
生徒の反応はエッジデバイス上でローカルに処理され、最適化されたモデルパラメータのみが中央集約サーバと共有される。
本研究では,9つの中学校における評価データを用いて,従来の学習モデルと統合学習に基づくスコアリングモデルの精度を比較した。
論文 参考訳(メタデータ) (2025-03-12T19:06:25Z) - Uncertainty Quantification for Collaborative Object Detection Under Adversarial Attacks [6.535251134834875]
協調オブジェクト検出(COD)と協調認識は、様々なエンティティからのデータや特徴を統合することができる。
敵対的攻撃は、ディープラーニングCODモデルに潜在的な脅威をもたらす。
我々は、協調知覚フレームワーク(TUQCP)における信頼された不確実性定量化を提案する。
論文 参考訳(メタデータ) (2025-02-04T18:03:32Z) - KRAIL: A Knowledge-Driven Framework for Base Human Reliability Analysis Integrating IDHEAS and Large Language Models [2.7378790256389047]
本稿では,IDHEASとLLM(KRAIL)を統合した知識駆動型信頼性分析のための新しい2段階フレームワークを提案する。
本稿では,自然言語処理における大規模言語モデル(LLM)の成功に触発されて,知識駆動型信頼性分析のための新しい2段階フレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-20T06:21:34Z) - Towards Million-Scale Adversarial Robustness Evaluation With Stronger Individual Attacks [26.422616504640786]
本稿では,ロジット空間ではなく,確率空間における対角的マージン・アタック(Probability Margin Attack, PMA)を提案する。
我々は、百万スケールのデータセットCC1Mを作成し、それを用いて、敵に訓練されたImageNetモデルの最初の百万スケールの対角ロバスト性評価を行う。
論文 参考訳(メタデータ) (2024-11-20T10:41:23Z) - Relevance-driven Decision Making for Safer and More Efficient Human Robot Collaboration [6.009969292588733]
人-ロボットコラボレーション(HRC)に関する新しい概念を紹介する。
関連性(Relevance)とは、連続的に動作する知覚モジュールを組み込んだ次元還元プロセスである。
本稿では,リアルタイム処理と非同期処理を統合し,関連性を定量化する2ループフレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-21T03:20:53Z) - Relevance for Human Robot Collaboration [12.86974144498672]
本稿では,人間ロボットコラボレーション(HRC)のための新しい次元削減プロセスであるrelevanceを紹介する。
提案手法は,連続的に動作する知覚モジュールを組み込み,シーン内のキュー十分性を評価し,フレキシブルな定式化と計算の枠組みを適用する。
シミュレーションの結果,一般のHRCセットアップの妥当性を正確に予測する枠組みと方法論が示された。
論文 参考訳(メタデータ) (2024-09-12T04:57:34Z) - A practical approach to evaluating the adversarial distance for machine learning classifiers [2.2120851074630177]
本稿では,反復的対角攻撃と認証手法を用いたより情報性の高い対角距離の推定について検討する。
我々は,我々の敵攻撃アプローチが関連する実装と比較して有効であるのに対して,認証手法は期待に届かなかった。
論文 参考訳(メタデータ) (2024-09-05T14:57:01Z) - Bi-Factorial Preference Optimization: Balancing Safety-Helpfulness in Language Models [94.39278422567955]
人間の嗜好を微調整した大型言語モデル(LLM)は、その能力向上に成功している。
しかし、微調整中のLLMの安全性確保は依然として重要な懸念事項である。
本稿では,BFPO(Bi-Factorial Preference Optimization)と呼ばれる教師あり学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-27T17:31:21Z) - The Pitfalls and Promise of Conformal Inference Under Adversarial Attacks [90.52808174102157]
医療画像や自律運転などの安全クリティカルな応用においては、高い敵の堅牢性を維持し、潜在的敵の攻撃から保護することが不可欠である。
敵対的に訓練されたモデルに固有の不確実性に関して、注目すべき知識ギャップが残っている。
本研究では,共形予測(CP)の性能を標準対向攻撃の文脈で検証することにより,ディープラーニングモデルの不確実性について検討する。
論文 参考訳(メタデータ) (2024-05-14T18:05:19Z) - Conservative Prediction via Data-Driven Confidence Minimization [70.93946578046003]
機械学習の安全性クリティカルな応用においては、モデルが保守的であることが望ましいことが多い。
本研究では,不確実性データセットに対する信頼性を最小化するデータ駆動信頼性最小化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:05:36Z) - Effective Robustness against Natural Distribution Shifts for Models with
Different Training Data [113.21868839569]
効果的ロバスト性」は、分配内(ID)性能から予測できる以上の余分な分配外ロバスト性を測定する。
異なるデータに基づいてトレーニングされたモデルの有効ロバスト性を評価・比較するための新しい評価指標を提案する。
論文 参考訳(メタデータ) (2023-02-02T19:28:41Z) - Neural Network Repair with Reachability Analysis [10.384532888747993]
安全は次世代の自律性にとって重要な問題であり、知覚と制御のためにディープニューラルネットワークに大きく依存する可能性が高い。
本研究は,安全クリティカルシステムにおける安全でないDNNを到達可能性解析で修復する枠組みを提案する。
論文 参考訳(メタデータ) (2021-08-09T17:56:51Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z) - Towards Automatic Evaluation of Dialog Systems: A Model-Free Off-Policy
Evaluation Approach [84.02388020258141]
強化学習におけるオフポリシ評価に基づく人間評価スコア推定のための新しいフレームワークであるENIGMAを提案する。
ENIGMAはいくつかの事前収集された経験データしか必要としないため、評価中にターゲットポリシーとのヒューマンインタラクションは不要である。
実験の結果,ENIGMAは人間の評価スコアと相関して既存手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2021-02-20T03:29:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。