論文の概要: ConceptRM: The Quest to Mitigate Alert Fatigue through Consensus-Based Purity-Driven Data Cleaning for Reflection Modelling
- arxiv url: http://arxiv.org/abs/2602.20166v1
- Date: Mon, 09 Feb 2026 02:25:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-02 07:21:25.637199
- Title: ConceptRM: The Quest to Mitigate Alert Fatigue through Consensus-Based Purity-Driven Data Cleaning for Reflection Modelling
- Title(参考訳): ConceptRM: 合意に基づくリフレクションモデリングのための純粋性駆動型データクリーニングによるアラート疲労軽減の試み
- Authors: Yongda Yu, Lei Zhang, Xinxin Guo, Minghui Yu, Zhengqi Zhuang, Guoping Rong, Haifeng Shen, Zhengfeng Li, Boge Wang, Guoan Zhang, Bangyu Xiang, Xiaobin Xu,
- Abstract要約: ConceptRMは、偽の警告を効果的に傍受できるリフレクションモデルをトレーニングするために、高品質なコーパスを構築する。
アンカーとしての専門家アノテーションは少ないが、ConceptRMはノイズ比の異なるデータセットを生成する。
これらのモデルのコンセンサス決定を解析することにより、ノイズの多いデータセットから信頼性の高い負のサンプルを効果的に識別する。
- 参考スコア(独自算出の注目度): 10.245468083483006
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In many applications involving intelligent agents, the overwhelming volume of alerts (mostly false) generated by the agents may desensitize users and cause them to overlook critical issues, leading to the so-called ''alert fatigue''. A common strategy is to train a reflection model as a filter to intercept false alerts with labelled data collected from user verification feedback. However, a key challenge is the noisy nature of such data as it is often collected in production environments. As cleaning noise via manual annotation incurs high costs, this paper proposes a novel method ConceptRM for constructing a high-quality corpus to train a reflection model capable of effectively intercepting false alerts. With only a small amount of expert annotations as anchors, ConceptRM creates perturbed datasets with varying noise ratios and utilizes co-teaching to train multiple distinct models for collaborative learning. By analyzing the consensus decisions of these models, it effectively identifies reliable negative samples from a noisy dataset. Experimental results demonstrate that ConceptRM significantly enhances the interception of false alerts with minimal annotation cost, outperforming several state-of-the-art LLM baselines by up to 53.31% on in-domain datasets and 41.67% on out-of-domain datasets.
- Abstract(参考訳): インテリジェントエージェントを含む多くのアプリケーションでは、エージェントが生成する圧倒的な量のアラート(主に偽)がユーザを嫌がらせ、重大な問題を見落とし、いわゆる「アラート疲労」に繋がることがある。
一般的な戦略は、ユーザーの検証フィードバックから収集されたラベル付きデータで偽の警告を傍受するフィルタとしてリフレクションモデルをトレーニングすることである。
しかし、重要な課題は、しばしば本番環境で収集されるようなデータのうるさい性質である。
そこで本稿では,手動アノテーションによる騒音の浄化に高コストがかかるため,高品質なコーパスを構築し,誤報を効果的に遮断できるリフレクションモデルを訓練する新しい手法であるConceptRMを提案する。
アンカーとしての専門家アノテーションはごくわずかだが、ConceptRMはノイズ比の異なる摂動データセットを作成し、コラボレート学習のために複数の異なるモデルをトレーニングするためにコラーニングを利用する。
これらのモデルのコンセンサス決定を解析することにより、ノイズの多いデータセットから信頼性の高い負のサンプルを効果的に識別する。
実験の結果、ConceptRMは最小のアノテーションコストで偽のアラートのインターセプションを著しく向上させ、いくつかの最先端のLCMベースラインを最大53.31%、ドメイン外のデータセットで最大41.67%上回った。
関連論文リスト
- Semantics-Aware Denoising: A PLM-Guided Sample Reweighting Strategy for Robust Recommendation [4.631922211808715]
ユーザクリックのような暗黙のフィードバックは、現代のレコメンデータシステムの主要なデータソースとして機能する。
本稿では,ユーザの関心事とアイテムコンテンツ間のセマンティックな一貫性を活用して,潜在的ノイズのあるインタラクションを識別し,ダウンウェイトするSAID(Semantics-Aware Implicit Denoising)を提案する。
2つの実世界のデータセットの実験は、SAIDが強いベースラインよりもAUCの2.2%の相対的な改善を達成し、リコメンデーションパフォーマンスを継続的に改善することを示した。
論文 参考訳(メタデータ) (2026-02-17T04:58:21Z) - Noise as a Probe: Membership Inference Attacks on Diffusion Models Leveraging Initial Noise [51.179816451161635]
拡散モデルは画像生成において顕著な進歩を遂げているが、そのデプロイの増加はプライバシに関する深刻な懸念を引き起こす。
広範に使われているノイズスケジュールは、画像のセマンティック情報を完全に排除することができない。
本稿では,初期雑音に意味情報を注入し,モデル生成結果を解析してメンバーシップを推定する,シンプルで効果的なメンバーシップ推論攻撃を提案する。
論文 参考訳(メタデータ) (2026-01-29T12:29:01Z) - Lost in the Noise: How Reasoning Models Fail with Contextual Distractors [57.31788955167306]
推論モデルとエージェントAIシステムの最近の進歩は、多様な外部情報への依存度を高めている。
NoisyBenchは、RAGの11のデータセット、推論、アライメント、ツール使用タスクに対して、モデルロバスト性を体系的に評価する包括的なベンチマークである。
評価の結果,文脈的障害に直面した場合,最先端モデルでは最大80%の破滅的な性能低下がみられた。
論文 参考訳(メタデータ) (2026-01-12T05:43:51Z) - SoliReward: Mitigating Susceptibility to Reward Hacking and Annotation Noise in Video Generation Reward Models [53.19726629537694]
ビデオ生成モデルと人間の好みのトレーニング後のアライメントは、重要な目標である。
現在のデータ収集パラダイムは、プロンプト内のペアワイズアノテーションに依存しており、ノイズのラベル付けに悩まされている。
ビデオRMトレーニングのための体系的フレームワークであるSoliRewardを提案する。
論文 参考訳(メタデータ) (2025-12-17T14:28:23Z) - Learning to Retrieve with Weakened Labels: Robust Training under Label Noise [0.0]
ラベルノイズの存在下で頑健な検索モデルを生成するためのラベル弱化手法を検討する。
最初の結果から,ラベルの弱化は,10種類の最先端損失関数と比較して,検索タスクの性能を向上させることが示唆された。
論文 参考訳(メタデータ) (2025-12-15T11:52:13Z) - Improving a Named Entity Recognizer Trained on Noisy Data with a Few
Clean Instances [55.37242480995541]
クリーンなインスタンスの小さなセットから,ノイズの多いNERデータを誘導することで,ノイズを発生させる手法を提案する。
メインのNERモデルとともに、判別器モデルをトレーニングし、その出力を使用してサンプルの重み付けを校正します。
クラウドソーシングと遠隔監視データセットの結果から,提案手法は少ないガイダンスセットで継続的に性能を向上させることができることが示された。
論文 参考訳(メタデータ) (2023-10-25T17:23:37Z) - ReEval: Automatic Hallucination Evaluation for Retrieval-Augmented Large Language Models via Transferable Adversarial Attacks [91.55895047448249]
本稿では,LLMベースのフレームワークであるReEvalについて述べる。
本稿では、ChatGPTを用いてReEvalを実装し、2つの人気のあるオープンドメインQAデータセットのバリエーションを評価する。
我々の生成したデータは人間可読であり、大きな言語モデルで幻覚を引き起こすのに役立ちます。
論文 参考訳(メタデータ) (2023-10-19T06:37:32Z) - Learning with Noisy labels via Self-supervised Adversarial Noisy Masking [33.87292143223425]
対向雑音マスキングと呼ばれる新しいトレーニング手法を提案する。
入力データとラベルを同時に調整し、ノイズの多いサンプルが過度に収まらないようにする。
合成および実世界のノイズデータセットの両方でテストされる。
論文 参考訳(メタデータ) (2023-02-14T03:13:26Z) - A Free Lunch to Person Re-identification: Learning from Automatically
Generated Noisy Tracklets [52.30547023041587]
非教師付きビデオベース再識別(re-ID)手法は、re-IDデータセットのアノテートに必要な高コストの問題を解決するために提案されている。
しかし、彼らのパフォーマンスは監督対象よりもはるかに低い。
本稿では,自動生成人追跡装置から再IDモデルを学習することで,この問題に対処することを提案する。
論文 参考訳(メタデータ) (2022-04-02T16:18:13Z) - Device-Directed Speech Detection: Regularization via Distillation for
Weakly-Supervised Models [13.456066434598155]
我々は、特定のウェイクワードを含まないデバイスに向けられた音声を検出する問題に対処する。
具体的には、タッチベースの呼び出しによるオーディオに焦点を当てます。
論文 参考訳(メタデータ) (2022-03-30T01:27:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。