論文の概要: Multi-User Personalisation in Human-Robot Interaction: Using Quantitative Bipolar Argumentation Frameworks for Preferences Conflict Resolution
- arxiv url: http://arxiv.org/abs/2511.03576v1
- Date: Wed, 05 Nov 2025 15:59:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-06 18:19:32.475191
- Title: Multi-User Personalisation in Human-Robot Interaction: Using Quantitative Bipolar Argumentation Frameworks for Preferences Conflict Resolution
- Title(参考訳): 人-ロボットインタラクションにおけるマルチユーザパーソナライゼーション--紛争解決のための定量的バイポーラ調停フレームワークを用いて
- Authors: Aniol Civit, Antonio Andriella, Carles Sierra, Guillem Alenyà,
- Abstract要約: 定量的バイポーラ調停フレームワーク(QBAF)に基づく新しいマルチユーザパーソナライズフレームワークを提案する。
Argumentation Frameworksの以前の作業とは異なり、私たちのアプローチはロボティクスに合わせています。
ユーザの議論とロボットによる環境観察の両方を取り入れている。
- 参考スコア(独自算出の注目度): 7.448890820711756
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While personalisation in Human-Robot Interaction (HRI) has advanced significantly, most existing approaches focus on single-user adaptation, overlooking scenarios involving multiple stakeholders with potentially conflicting preferences. To address this, we propose the Multi-User Preferences Quantitative Bipolar Argumentation Framework (MUP-QBAF), a novel multi-user personalisation framework based on Quantitative Bipolar Argumentation Frameworks (QBAFs) that explicitly models and resolves multi-user preference conflicts. Unlike prior work in Argumentation Frameworks, which typically assumes static inputs, our approach is tailored to robotics: it incorporates both users' arguments and the robot's dynamic observations of the environment, allowing the system to adapt over time and respond to changing contexts. Preferences, both positive and negative, are represented as arguments whose strength is recalculated iteratively based on new information. The framework's properties and capabilities are presented and validated through a realistic case study, where an assistive robot mediates between the conflicting preferences of a caregiver and a care recipient during a frailty assessment task. This evaluation further includes a sensitivity analysis of argument base scores, demonstrating how preference outcomes can be shaped by user input and contextual observations. By offering a transparent, structured, and context-sensitive approach to resolving competing user preferences, this work advances the field of multi-user HRI. It provides a principled alternative to data-driven methods, enabling robots to navigate conflicts in real-world environments.
- Abstract(参考訳): HRI(Human-Robot Interaction)におけるパーソナライゼーションは著しく進歩しているが、既存のほとんどのアプローチは、競合する可能性がある複数の利害関係者が関与するシナリオを見越して、単一ユーザ適応に焦点を当てている。
そこで本研究では,MUP-QBAF(Multi-User Preferences Quantitative Bipolar Argumentation Framework)を提案する。
静的入力を前提とするArgumentation Frameworksの以前の作業とは異なり、私たちのアプローチはロボット工学に特化している。
肯定的かつ否定的な評価は、新しい情報に基づいて反復的に強度が計算される議論として表現される。
このフレームワークの特性と能力は、現実的なケーススタディを通じて提示され、このケーススタディでは、虚弱なアセスメントタスク中に介護者と介護受給者の相反する嗜好を補助ロボットが仲介する。
この評価には、ユーザの入力とコンテキスト観測によって、好みの結果がどのように形成されるかを示す、引数ベーススコアの感度分析も含まれる。
競合するユーザの嗜好を解決するために、透明で構造化され、コンテキストに敏感なアプローチを提供することによって、この作業は、マルチユーザHRIの分野を前進させる。
これはデータ駆動方式の原則的な代替手段であり、ロボットが現実世界の環境で衝突をナビゲートすることを可能にする。
関連論文リスト
- Understanding User Preferences for Interaction Styles in Conversational Recommender Systems: The Predictive Role of System Qualities, User Experience, and Traits [8.549385781670473]
本研究では,ユーザインタラクションの嗜好を形成する要因について検討する。
その結果, 探索的相互作用の嗜好は, 楽しみ, 有用性, 新規性, 会話品質によって予測された。
これらの知見は、感情、認知、特性レベルの予測をCRSユーザモデリングに統合し、自律性に敏感で、価値に適応した対話設計を通知する。
論文 参考訳(メタデータ) (2025-08-04T11:56:47Z) - Reasoning LLMs for User-Aware Multimodal Conversational Agents [3.533721662684487]
社会ロボティクスにおけるパーソナライゼーションは、効果的な人間とロボットの相互作用を促進するために重要である。
本稿では,ユーザ認識型対話エージェントのための新しいフレームワークUSER-LLM R1を提案する。
提案手法では,チェーン・オブ・シンク(CoT)推論モデルを統合し,ユーザの好みや視覚言語モデルを反復的に推測する。
論文 参考訳(メタデータ) (2025-04-02T13:00:17Z) - Mind the Gap! Static and Interactive Evaluations of Large Audio Models [55.87220295533817]
大型オーディオモデル(LAM)は、音声ネイティブな体験をパワーアップするために設計されている。
本研究は,484名の参加者から,LAMを評価し,7,500名のLAMインタラクションを収集する対話的アプローチを提案する。
論文 参考訳(メタデータ) (2025-02-21T20:29:02Z) - Beyond the Binary: Capturing Diverse Preferences With Reward Regularization [15.518838657050173]
この二項選択への依存は、現実のタスクにおいて対象ユーザのより広範囲で集約的な嗜好を捉えるものではない、と我々は主張する。
本稿では、既存の二分選好データセットを合成選好判断で拡張し、潜在的なユーザ不一致を推定する、シンプルで効果的な方法を提案する。
論文 参考訳(メタデータ) (2024-12-05T02:35:46Z) - A Framework for Adapting Human-Robot Interaction to Diverse User Groups [16.17512394063696]
適応型ロボットインタラクション(HRI)のための新しいフレームワークを提案する。
私たちの主な貢献は、オープンソースのコードベースを備えた適応型ROSベースのHRIフレームワークの開発です。
このフレームワークは、高度な音声認識と音声活動検出を通じて、自然な相互作用をサポートする。
論文 参考訳(メタデータ) (2024-10-15T08:16:43Z) - Relative Preference Optimization: Enhancing LLM Alignment through Contrasting Responses across Identical and Diverse Prompts [95.09994361995389]
Relative Preference Optimization (RPO) は、同一のプロンプトと関連するプロンプトの両方から、より多く、あまり好まれない応答を識別するように設計されている。
RPOは、大きな言語モデルをユーザの好みに合わせて調整し、トレーニングプロセスにおける適応性を改善する優れた能力を示している。
論文 参考訳(メタデータ) (2024-02-12T22:47:57Z) - Promptable Behaviors: Personalizing Multi-Objective Rewards from Human
Preferences [53.353022588751585]
本稿では,ロボットエージェントの多種多様な嗜好に対する効率的なパーソナライズを促進する新しいフレームワークであるPromptable Behaviorsを紹介する。
我々は、異なるタイプの相互作用を活用することによって、人間の嗜好を推測する3つの異なる方法を紹介した。
本稿では,ProcTHOR と Robothor のナビゲーションタスクをパーソナライズしたオブジェクトゴールナビゲーションおよびエスケープナビゲーションタスクにおいて,提案手法の評価を行う。
論文 参考訳(メタデータ) (2023-12-14T21:00:56Z) - Eliciting User Preferences for Personalized Multi-Objective Decision
Making through Comparative Feedback [76.7007545844273]
目的に対して異なるユーザの好みに対応する多目的意思決定フレームワークを提案する。
我々のモデルは、ベクトル値の報酬関数を持つマルコフ決定プロセスで構成され、各ユーザが未知の選好ベクトルを持つ。
少数の比較クエリを用いて,ユーザに対してほぼ最適なポリシを求めるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-07T23:58:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。