論文の概要: Label Curation Using Agentic AI
- arxiv url: http://arxiv.org/abs/2602.02564v1
- Date: Fri, 30 Jan 2026 18:58:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:14.937388
- Title: Label Curation Using Agentic AI
- Title(参考訳): エージェントAIを用いたラベルキュレーション
- Authors: Subhodeep Ghosh, Bayan Divaaniaazar, Md Ishat-E-Rabban, Spencer Clarke, Senjuti Basu Roy,
- Abstract要約: 本稿では,大規模マルチモーダルデータアノテーションのためのエージェントAIフレームワークであるAURAを紹介する。
AURAは、複数のAIエージェントをコーディネートして、基礎的な真実を必要とせずにラベルを生成し、検証する。
AURAは最大5.8%の精度向上を実現している。
品質アノテータの貧弱さによるより困難な設定では、改善はベースラインよりも最大50%向上する。
- 参考スコア(独自算出の注目度): 3.500372926575144
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Data annotation is essential for supervised learning, yet producing accurate, unbiased, and scalable labels remains challenging as datasets grow in size and modality. Traditional human-centric pipelines are costly, slow, and prone to annotator variability, motivating reliability-aware automated annotation. We present AURA (Agentic AI for Unified Reliability Modeling and Annotation Aggregation), an agentic AI framework for large-scale, multi-modal data annotation. AURA coordinates multiple AI agents to generate and validate labels without requiring ground truth. At its core, AURA adapts a classical probabilistic model that jointly infers latent true labels and annotator reliability via confusion matrices, using Expectation-Maximization to reconcile conflicting annotations and aggregate noisy predictions. Across the four benchmark datasets evaluated, AURA achieves accuracy improvements of up to 5.8% over baseline. In more challenging settings with poor quality annotators, the improvement is up to 50% over baseline. AURA also accurately estimates the reliability of annotators, allowing assessment of annotator quality even without any pre-validation steps.
- Abstract(参考訳): データアノテーションは教師付き学習には不可欠ですが、データセットのサイズやモダリティが大きくなるにつれて、正確でバイアスのない、スケーラブルなラベルを生成することは困難です。
従来の人間中心のパイプラインはコストが高く、遅く、アノテータの可変性に傾向があり、信頼性に配慮した自動アノテーションを動機付けている。
我々は,大規模マルチモーダルデータアノテーションのためのエージェントAIフレームワークであるAURA(Agentic AI for Unified Reliability Modeling and Annotation Aggregation)を提案する。
AURAは、複数のAIエージェントをコーディネートして、基礎的な真実を必要とせずにラベルを生成し、検証する。
AURAのコアとなるのは古典的確率モデルで、遅延した真のラベルと注釈の信頼性を混乱行列を通じて共同で推論し、予測-最大化を用いて矛盾するアノテーションを照合し、ノイズを集約する。
評価された4つのベンチマークデータセット全体で、AURAはベースライン上で最大5.8%の精度向上を実現している。
品質アノテータが低い、より困難な設定では、改善はベースラインよりも最大50%向上します。
AURAはまた、アノテータの信頼性を正確に推定し、アノテータの品質を評価することができる。
関連論文リスト
- Inference-Time Scaling of Verification: Self-Evolving Deep Research Agents via Test-Time Rubric-Guided Verification [71.98473277917962]
近年のDeep Research Agents (DRA) の進歩は、自動知識発見と問題解決に変化をもたらしている。
本稿では,政策モデルのアウトプットを反復的に検証することで,エージェントの能力を自己進化させる手法を提案する。
検証の非対称性を生かしたルーブリックスに基づく結果報酬検証器であるDeepVerifierを提案する。
論文 参考訳(メタデータ) (2026-01-22T09:47:31Z) - The Achilles Heel of AI: Fundamentals of Risk-Aware Training Data for High-Consequence Models [0.0]
高頻度ドメインのAIシステムは、厳密なリソース制約の下で運用しながら、稀で高インパクトなイベントを検出する必要がある。
ラベルのボリュームを情報的価値よりも優先する従来のアノテーション戦略は冗長性とノイズをもたらす。
本稿では、ラベルの多様性、モデル誘導選択、限界ユーティリティベースの停止を強調するトレーニングデータ戦略であるスマートサイズについて紹介する。
論文 参考訳(メタデータ) (2025-05-20T22:57:35Z) - Label Convergence: Defining an Upper Performance Bound in Object Recognition through Contradictory Annotations [0.0]
矛盾するテストアノテーションの制約の下で達成可能な最高性能を記述するために,「ラベル収束」の概念を導入する。
ラベル収束は LVIS の場合 62.63-67.52 mAP@[0.5:0.95:0.05] であり、95% の信頼度を持つ。
LVISデータセットのラベル収束間隔の上端にある現在の最先端(SOTA)モデルでは、モデルキャパシティが現在のオブジェクト検出問題を解決するのに十分である、と結論付けている。
論文 参考訳(メタデータ) (2024-09-14T10:59:25Z) - Self-Training with Pseudo-Label Scorer for Aspect Sentiment Quad Prediction [54.23208041792073]
Aspect Sentiment Quad Prediction (ASQP) は、与えられたレビューに対して全てのクワッド(アスペクト項、アスペクトカテゴリー、意見項、感情極性)を予測することを目的としている。
ASQPタスクにおける重要な課題はラベル付きデータの不足であり、既存のメソッドのパフォーマンスを制限している。
そこで我々は,擬似ラベルスコアラーを用いた自己学習フレームワークを提案し,レビューと擬似ラベルの一致をスコアラーが評価する。
論文 参考訳(メタデータ) (2024-06-26T05:30:21Z) - A Confidence-based Partial Label Learning Model for Crowd-Annotated
Named Entity Recognition [74.79785063365289]
名前付きエンティティ認識(NER)のための既存のモデルは、主に大規模ラベル付きデータセットに基づいている。
我々は,クラウドアノテートNERに対する先行信頼度(アノテータによる提案)と後続信頼度(モデルによる学習)を統合するために,信頼に基づく部分ラベル学習(CPLL)手法を提案する。
論文 参考訳(メタデータ) (2023-05-21T15:31:23Z) - Improving Adaptive Conformal Prediction Using Self-Supervised Learning [72.2614468437919]
我々は、既存の予測モデルの上に自己教師付きプレテキストタスクを持つ補助モデルを訓練し、自己教師付きエラーを付加的な特徴として用いて、非整合性スコアを推定する。
合成データと実データの両方を用いて、効率(幅)、欠陥、共形予測間隔の超過といった付加情報の利点を実証的に実証する。
論文 参考訳(メタデータ) (2023-02-23T18:57:14Z) - How Does Beam Search improve Span-Level Confidence Estimation in
Generative Sequence Labeling? [11.481435098152893]
本稿では,生成配列ラベリングにおけるモデル信頼度の推定に関する実証的な知見を提供する。
6つの公開データセットで検証した結果,提案手法は生成配列ラベルモデルのキャリブレーション誤差を著しく低減することがわかった。
論文 参考訳(メタデータ) (2022-12-21T05:01:01Z) - Delving into Probabilistic Uncertainty for Unsupervised Domain Adaptive
Person Re-Identification [54.174146346387204]
ドメイン適応型人物再識別のための確率的不確実性誘導プログレッシブラベル精錬(P$2$LR)という手法を提案する。
擬似ラベルの不確実性を測定し、ネットワークトレーニングを容易にする定量的基準を確立する。
本手法はDuke2Marketタスクではベースラインが6.5%,Market2MSMTタスクでは2.5%,最先端手法では2.5%を上回った。
論文 参考訳(メタデータ) (2021-12-28T07:40:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。