論文の概要: Multi-Round Human-AI Collaboration with User-Specified Requirements
- arxiv url: http://arxiv.org/abs/2602.17646v1
- Date: Thu, 19 Feb 2026 18:54:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-20 15:21:29.408252
- Title: Multi-Round Human-AI Collaboration with User-Specified Requirements
- Title(参考訳): ユーザ要求を考慮した多言語ヒューマンAIコラボレーション
- Authors: Sima Noorani, Shayan Kiyani, Hamed Hassani, George Pappas,
- Abstract要約: 我々は、対実的害と相補性という2つの原則によって支配される人間中心の視点を採用する。
ユーザ定義ルールにより,これらの概念を形式化し,利用者が害と相補性の意味を正確に指定できるようにする。
非定常的相互作用のダイナミクスの下でも,我々のオンライン手続きは所定の反実的被害と相補的違反率を維持していることを示す。
- 参考スコア(独自算出の注目度): 26.38833436936642
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As humans increasingly rely on multiround conversational AI for high stakes decisions, principled frameworks are needed to ensure such interactions reliably improve decision quality. We adopt a human centric view governed by two principles: counterfactual harm, ensuring the AI does not undermine human strengths, and complementarity, ensuring it adds value where the human is prone to err. We formalize these concepts via user defined rules, allowing users to specify exactly what harm and complementarity mean for their specific task. We then introduce an online, distribution free algorithm with finite sample guarantees that enforces the user-specified constraints over the collaboration dynamics. We evaluate our framework across two interactive settings: LLM simulated collaboration on a medical diagnostic task and a human crowdsourcing study on a pictorial reasoning task. We show that our online procedure maintains prescribed counterfactual harm and complementarity violation rates even under nonstationary interaction dynamics. Moreover, tightening or loosening these constraints produces predictable shifts in downstream human accuracy, confirming that the two principles serve as practical levers for steering multi-round collaboration toward better decision quality without the need to model or constrain human behavior.
- Abstract(参考訳): 人間は高い利害関係の決定のために、多面的な会話型AIにますます依存しているため、そのような相互作用が意思決定品質を確実に改善するためには、原則化されたフレームワークが必要である。
我々は、反ファクト的害、AIが人間の強みを損なわないことを保証すること、補完性という2つの原則によって支配される人間中心の視点を採用し、人間が苦しむ傾向にある価値を確実にする。
ユーザ定義ルールによってこれらの概念を形式化し、ユーザが特定のタスクにどのような害や相補性があるかを正確に指定できるようにします。
次に,協調動作に対するユーザ指定制約を強制する,有限サンプル保証付きオンライン分布自由アルゴリズムを提案する。
LLMは医療診断タスクにおける協調のシミュレーションと、画像推論タスクにおけるヒトのクラウドソーシングによる研究である。
非定常的相互作用のダイナミクスの下でも,我々のオンライン手続きは所定の反実的被害と相補的違反率を維持していることを示す。
さらに、これらの制約の締め付けや緩めは、下流の人間の正確さの予測可能なシフトをもたらし、この2つの原則が、人間の振る舞いをモデル化したり制約したりすることなく、より優れた意思決定品質に向けて、複数ラウンドのコラボレーションを操る実践的なレバーとして機能することを確認する。
関連論文リスト
- Human-AI Collaborative Uncertainty Quantification [26.38833436936642]
我々は、AIモデルが人間の専門家の提案する予測セットをいかに洗練するかを形式化するフレームワークであるHuman AI Collaborative Uncertainty Quantificationを紹介する。
最適協調予測セットは1つのスコア関数上の直感的な2つのしきい値構造に従っており、古典的な結果を共形予測で拡張することを示す。
画像分類、回帰、テキストベースの医学的意思決定に関する実験は、協調予測セットがエージェント単独よりも一貫して優れていることを示している。
論文 参考訳(メタデータ) (2025-10-27T16:11:23Z) - DeCoDe: Defer-and-Complement Decision-Making via Decoupled Concept Bottleneck Models [37.118479480792416]
我々は人間-AI協調のための概念駆動型フレームワークを提案する。
DeCoDeは人間解釈可能な概念表現に基づいて戦略決定を行う。
自律的なAI予測、人間への延期、人間とAIの協調的な相補性という3つのモードをサポートする。
論文 参考訳(メタデータ) (2025-05-25T16:34:45Z) - MEReQ: Max-Ent Residual-Q Inverse RL for Sample-Efficient Alignment from Intervention [76.83428371942735]
本稿では,人間の介入によるサンプル効率向上を目的としたMEReQ(Maximum-Entropy Residual-Q Inverse Reinforcement Learning)を紹介する。
MereQは、人間の専門家と以前の政策の根底にある報酬関数との相違を捉える残差報酬関数を推論する。
その後、Residual Q-Learning(RQL)を使用して、ポリシーをこの残留報酬関数を使用して人間の好みと整合させる。
論文 参考訳(メタデータ) (2024-06-24T01:51:09Z) - Position: Towards Bidirectional Human-AI Alignment [109.57781720848669]
我々は、人間とAIの双方向的・動的関係を説明するために、研究コミュニティは「調整」を明確に定義し、批判的に反映すべきであると主張する。
このフレームワークは、AIと人間の価値を整合させる従来の取り組みを取り入れているだけでなく、人間とAIを整合させるという、重要で未解明の次元も導入しています。
論文 参考訳(メタデータ) (2024-06-13T16:03:25Z) - AI, Pluralism, and (Social) Compensation [1.5442389863546546]
ユーザ集団における多元的価値に対応する戦略は、AIシステムをパーソナライズすることである。
もしAIが個々の個人の特定の値に適応できるなら、多元主義の課題の多くを回避できる可能性がある。
しかし、人間-AIチームにとって成功の外部尺度がある場合、適応型AIシステムは人間のチームメイトを補うための戦略を開発することができる。
論文 参考訳(メタデータ) (2024-04-30T04:41:47Z) - Online Decision Mediation [72.80902932543474]
意思決定支援アシスタントを学習し、(好奇心)専門家の行動と(不完全)人間の行動の仲介役として機能することを検討する。
臨床診断では、完全に自律的な機械行動は倫理的余裕を超えることが多い。
論文 参考訳(メタデータ) (2023-10-28T05:59:43Z) - Learning Complementary Policies for Human-AI Teams [13.371050441794651]
本稿では,意思決定における人間とAIの相補性の課題に取り組む。
我々は、割り当てられた行動の下でのみ結果が観察される場合に、人間とAIのコラボレーションのための堅牢なソリューションを開発する。
少数のインスタンスを人間の意思決定者にルーティングすることで,大幅なパフォーマンス向上が達成可能であることを示す。
論文 参考訳(メタデータ) (2023-02-06T17:22:18Z) - PECAN: Leveraging Policy Ensemble for Context-Aware Zero-Shot Human-AI
Coordination [52.991211077362586]
本研究では,集団におけるパートナーの多様性を高めるための政策アンサンブル手法を提案する。
そこで我々は,egoエージェントがパートナーの潜在的ポリシープリミティブを分析し,識別するためのコンテキスト認識手法を開発した。
このようにして、エゴエージェントは多様なパートナーとの共同作業において、より普遍的な協調行動を学ぶことができる。
論文 参考訳(メタデータ) (2023-01-16T12:14:58Z) - Human-AI Collaboration in Decision-Making: Beyond Learning to Defer [4.874780144224057]
意思決定における人間-AIコラボレーション(HAIC)は、人間とAIシステム間の相乗的チームを作ることを目的としている。
Learning to Defer(L2D)は、人間とAIのどちらが決定を下すべきかを決定する、有望なフレームワークとして提示されている。
L2Dは、すべてのケースで人間からの予測が利用可能になったり、意思決定者から独立した地道なラベルが利用可能になったりするなど、しばしば実現不可能な要件がいくつか含まれている。
論文 参考訳(メタデータ) (2022-06-27T11:40:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。