論文の概要: Automated Data Enrichment using Confidence-Aware Fine-Grained Debate among Open-Source LLMs for Mental Health and Online Safety
- arxiv url: http://arxiv.org/abs/2512.06227v1
- Date: Sat, 06 Dec 2025 00:21:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.247901
- Title: Automated Data Enrichment using Confidence-Aware Fine-Grained Debate among Open-Source LLMs for Mental Health and Online Safety
- Title(参考訳): メンタルヘルスとオンライン安全のためのオープンソースLCMにおける信頼度を考慮した細粒度議論を用いたデータ自動強化
- Authors: Junyu Mao, Anthony Hills, Talia Tseriotou, Maria Liakata, Aya Shamir, Dan Sayda, Dana Atzil-Slonim, Natalie Djohari, Arpan Mandal, Silke Roth, Pamela Ugwudike, Mahesan Niranjan, Stuart E. Middleton,
- Abstract要約: 本稿では,複数のデータ富化手法を比較し,信頼性に配慮したファイングラインド・ディベート・フレームワークを提案する。
我々は、専門家が注釈付けした2つの新しいデータセット、メンタルヘルスのRedditウェルビーイングデータセット、およびFacebookが共有するリスクデータセットについて説明する。
我々のCFDフレームワークは、一連のベースラインと比較して、最も堅牢なデータエンリッチメント性能を実現し、このタイプのデータエンリッチメントが下流タスクを継続的に改善することを示す。
- 参考スコア(独自算出の注目度): 12.463352876149434
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Real-world indicators are important for improving natural language processing (NLP) tasks such as life events for mental health analysis and risky behaviour for online safety, yet labelling such information in NLP training datasets is often costly and/or difficult given the dynamic nature of such events. This paper compares several LLM-based data enrichment methods and introduces a novel Confidence-Aware Fine-Grained Debate (CFD) framework in which multiple LLM agents simulate human annotators and exchange fine-grained evidence to reach consensus. We describe two new expert-annotated datasets, a mental health Reddit wellbeing dataset and an online safety Facebook sharenting risk dataset. Our CFD framework achieves the most robust data enrichment performance compared to a range of baselines and we show that this type of data enrichment consistently improves downstream tasks. Enriched features incorporated via debate transcripts yield the largest gains, outperforming the non-enriched baseline by 10.1% for the online safety task.
- Abstract(参考訳): 実世界の指標は、メンタルヘルス分析のためのライフイベントやオンライン安全のためのリスク行動などの自然言語処理(NLP)タスクを改善する上で重要であるが、そのような情報をNLPトレーニングデータセットにラベル付けすることは、そのような事象の動的な性質を考えると、しばしばコストがかかる。
本稿では,複数のLLMエージェントが人間のアノテータをシミュレートし,微細な証拠を交換してコンセンサスに到達する,信頼性に配慮した細粒度デリゲート(CFD)フレームワークを提案する。
我々は、専門家が注釈付けした2つの新しいデータセット、メンタルヘルスのRedditウェルビーイングデータセット、およびFacebookが共有するリスクデータセットについて説明する。
我々のCFDフレームワークは、一連のベースラインと比較して、最も堅牢なデータエンリッチメント性能を実現し、このタイプのデータエンリッチメントが下流タスクを継続的に改善することを示す。
議論の書き起こしによって組み込まれたリッチな機能は最大の利益をもたらし、オンラインの安全タスクにおいて、非リッチなベースラインを10.1%上回っている。
関連論文リスト
- Enhancing the Medical Context-Awareness Ability of LLMs via Multifaceted Self-Refinement Learning [49.559151128219725]
大規模言語モデル(LLM)は医療分野で大きな可能性を示しており、いくつかのベンチマークで高いパフォーマンスを実現している。
しかし、実際の医療シナリオではパフォーマンスが低下し続けており、コンテキスト認識の強化が要求されることが多い。
データ駆動型アプローチであるMultifaceted Self-Refinement (MuSeR)を提案する。
論文 参考訳(メタデータ) (2025-11-13T08:13:23Z) - JT-Safe: Intrinsically Enhancing the Safety and Trustworthiness of LLMs [53.59414720003988]
大規模な言語モデルの不安全と幻覚は、本質的には事前学習に由来すると広く合意されている。
データは広大なので、事実の誤り、論理的不整合、あるいは分布バイアスのデータを完全に浄化することはほとんど不可能です。
産業シナリオを反映した大量のデータ量を増やすことを目的として, プレトレーニングデータを世界規模で拡張する手法を提案する。
論文 参考訳(メタデータ) (2025-10-20T02:12:49Z) - When Safe Unimodal Inputs Collide: Optimizing Reasoning Chains for Cross-Modal Safety in Multimodal Large Language Models [50.66979825532277]
我々は、クロスモーダルチャレンジに適した解釈可能な推論パスを備えた最初のデータセットであるSSUI(Safe-Semantics-but-Unsafe-Interpretation)を紹介した。
新たなトレーニングフレームワークであるSRPO(Safety-Aware Reasoning Path Optimization)も、SSUIデータセットに基づいて設計されている。
実験の結果, SRPO学習モデルでは, キーセーフティベンチマークで最先端の結果が得られた。
論文 参考訳(メタデータ) (2025-09-15T15:40:58Z) - Beyond the Safety Bundle: Auditing the Helpful and Harmless Dataset [4.522849055040843]
この研究は、Helpful and Harmless データセットを Anthropic で監査した。
本研究は,大規模言語モデルにおける安全性軽減のための,よりニュアンスで文脈に敏感なアプローチの必要性を浮き彫りにした。
論文 参考訳(メタデータ) (2024-11-12T23:43:20Z) - Data Advisor: Dynamic Data Curation for Safety Alignment of Large Language Models [79.65071553905021]
所望のデータセットの特徴を考慮したデータ生成手法であるデータアドバイザを提案する。
Data Advisorは生成されたデータの状態を監視し、現在のデータセットの弱点を特定し、データ生成の次のイテレーションをアドバイスする。
論文 参考訳(メタデータ) (2024-10-07T17:59:58Z) - SafetyPrompts: a Systematic Review of Open Datasets for Evaluating and Improving Large Language Model Safety [27.843894102000608]
我々は、大規模言語モデル(LLM)の安全性を評価し改善するためのオープンデータセットの最初の体系的なレビューを行う。
完全な合成データセットへのトレンドや、非英語および自然主義データセットの明確な欠如など、データセットカバレッジのギャップといったトレンドを強調します。
当社のコントリビューションは,LLM安全性のためのオープンデータセットのリビングカタログであるSafetyPrompts.comに基づいています。
論文 参考訳(メタデータ) (2024-04-08T10:57:25Z) - FewFedPIT: Towards Privacy-preserving and Few-shot Federated Instruction Tuning [54.26614091429253]
フェデレーション・インストラクション・チューニング(FedIT)は、複数のデータ所有者間で協調的なトレーニングを統合することで、有望なソリューションである。
FedITは、インストラクショナルデータの不足や、トレーニングデータ抽出攻撃への露出リスクなどの制限に直面している。
本稿では,FewFedPITを提案する。このFewFedPITは,フェデレートされた数ショット学習のプライバシー保護とモデル性能を同時に向上する。
論文 参考訳(メタデータ) (2024-03-10T08:41:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。