論文の概要: Plural Voices, Single Agent: Towards Inclusive AI in Multi-User Domestic Spaces
- arxiv url: http://arxiv.org/abs/2510.19008v1
- Date: Tue, 21 Oct 2025 18:48:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:14.51816
- Title: Plural Voices, Single Agent: Towards Inclusive AI in Multi-User Domestic Spaces
- Title(参考訳): 複数の音声, シングルエージェント: マルチユーザ家庭空間における包括的AIを目指して
- Authors: Joydeep Chandra, Satyam Kumar Navneet,
- Abstract要約: マルチユーザニーズを動的に交渉する新しい単一エージェントフレームワークであるPVM(Plural Voices Model)を提案する。
人間の合成カリキュラム設計を用いて、PVMはコア値、競合、アクセシビリティ要件を識別する。
弊社のプライバシー重視のプロトタイプは、アダプティブな安全足場、カスタマイズされたインタラクション、および同等のコンフリクト解決を備えている。
- 参考スコア(独自算出の注目度): 2.8939171014917418
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Domestic AI agents faces ethical, autonomy, and inclusion challenges, particularly for overlooked groups like children, elderly, and Neurodivergent users. We present the Plural Voices Model (PVM), a novel single-agent framework that dynamically negotiates multi-user needs through real-time value alignment, leveraging diverse public datasets on mental health, eldercare, education, and moral reasoning. Using human+synthetic curriculum design with fairness-aware scenarios and ethical enhancements, PVM identifies core values, conflicts, and accessibility requirements to inform inclusive principles. Our privacy-focused prototype features adaptive safety scaffolds, tailored interactions (e.g., step-by-step guidance for Neurodivergent users, simple wording for children), and equitable conflict resolution. In preliminary evaluations, PVM outperforms multi-agent baselines in compliance (76% vs. 70%), fairness (90% vs. 85%), safety-violation rate (0% vs. 7%), and latency. Design innovations, including video guidance, autonomy sliders, family hubs, and adaptive safety dashboards, demonstrate new directions for ethical and inclusive domestic AI, for building user-centered agentic systems in plural domestic contexts. Our Codes and Model are been open sourced, available for reproduction: https://github.com/zade90/Agora
- Abstract(参考訳): 国内AIエージェントは倫理的、自律的、包括的課題に直面している。
PVM(Plural Voices Model)は、メンタルヘルス、介護、教育、道徳的推論に関するさまざまな公開データセットを活用することで、リアルタイムの価値アライメントを通じてマルチユーザのニーズを動的に交渉する新しい単一エージェントフレームワークである。
公正を意識したシナリオと倫理的な拡張を備えた人間+合成カリキュラム設計を使用して、PVMは、包括的原則を伝えるためのコアバリュー、コンフリクト、アクセシビリティ要件を特定します。
弊社のプライバシー重視のプロトタイプは、アダプティブな安全性の足場、カスタマイズされたインタラクション(たとえば、Neurodivergentユーザのためのステップバイステップガイダンス、子供のためのシンプルな言葉)、そして同等のコンフリクト解決機能を備えている。
事前評価では、PVMはコンプライアンス(76%対70%)、公正性(90%対85%)、安全違反率(0%対7%)、レイテンシーでマルチエージェントベースラインを上回っている。
ビデオガイダンス、自律スライダ、ファミリーハブ、適応安全ダッシュボードを含むデザイン革新は、複数の国内状況下でユーザ中心のエージェントシステムを構築するための倫理的かつ包括的な国内AIのための新しい方向を示す。
私たちのコードとモデルはオープンソースで、再現可能です。
関連論文リスト
- Personalized Constitutionally-Aligned Agentic Superego: Secure AI Behavior Aligned to Diverse Human Values [0.6640968473398455]
スーパーエージェントがユーザー選択型「クリードコンスティチューション」を参考にAIプランニングを主導
リアルタイムコンプライアンス執行機関は、これらの憲法に対する計画を検証する。
システムは最大98.3%の有害スコアの減少とほぼ完全な拒絶率を達成する。
論文 参考訳(メタデータ) (2025-06-08T20:31:26Z) - HumaniBench: A Human-Centric Framework for Large Multimodal Models Evaluation [44.973773675725674]
大規模マルチモーダルモデル(LMM)は視覚的質問応答(VQA)、画像キャプション、接地といったタスクで広くテストされてきた。
HumaniBenchは、32,000の現実世界の画像検索ペアと評価スイートの新しいベンチマークである。
HumaniBenchは、公正性、倫理、共感、傾倒性、推論、堅牢性、多言語性という7つの主要なアライメント原則にまたがるLMMを評価する。
論文 参考訳(メタデータ) (2025-05-16T17:09:44Z) - Securing the Future of IVR: AI-Driven Innovation with Agile Security, Data Regulation, and Ethical AI Integration [0.0]
本稿では,静的コードから適応型AIシステムへのインタフェースの進化を解析する。
私たちは、アジャイルのセキュリティ原則、グローバルなデータ規制の遵守、ユーザ中心の倫理を組み込んだ実践的なフレームワークを提案します。
論文 参考訳(メタデータ) (2025-05-02T18:03:02Z) - AILuminate: Introducing v1.0 of the AI Risk and Reliability Benchmark from MLCommons [62.374792825813394]
本稿ではAI製品リスクと信頼性を評価するための業界標準ベンチマークとして,AIluminate v1.0を紹介する。
このベンチマークは、危険、違法、または望ましくない行動を12の危険カテゴリーで引き起こすように設計されたプロンプトに対するAIシステムの抵抗を評価する。
論文 参考訳(メタデータ) (2025-02-19T05:58:52Z) - HAICOSYSTEM: An Ecosystem for Sandboxing Safety Risks in Human-AI Interactions [95.49509269498367]
本稿では,多様な複雑な社会的相互作用におけるAIエージェントの安全性を調べるフレームワークであるHAICOSYSTEMを提案する。
私たちは7つの領域(医療、金融、教育など)にわたる92のシナリオに基づいて1840のシミュレーションを実行します。
我々の実験は、最先端のLSMは、プロプライエタリかつオープンソースの両方で、50%以上のケースで安全リスクを示すことを示した。
論文 参考訳(メタデータ) (2024-09-24T19:47:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。