論文の概要: Negotiating the Shared Agency between Humans & AI in the Recommender System
- arxiv url: http://arxiv.org/abs/2403.15919v4
- Date: Sat, 10 May 2025 02:54:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:48.558526
- Title: Negotiating the Shared Agency between Humans & AI in the Recommender System
- Title(参考訳): 推薦システムにおける人間とAIの共有機関の交渉
- Authors: Mengke Wu, Weizi Liu, Yanyun Wang, Mike Yao,
- Abstract要約: 本研究では,ユーザエージェンシーの強化を目的とした二重制御機構を提案する。
透明性とコントロールのレベルがユーザエクスペリエンスに与える影響を評価した。
- 参考スコア(独自算出の注目度): 1.4249472316161877
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Smart recommendation algorithms have revolutionized content delivery and improved efficiency across various domains. However, concerns about user agency arise from the algorithms' inherent opacity (information asymmetry) and one-way output (power asymmetry). This study introduces a dual-control mechanism aimed at enhancing user agency, empowering users to manage both data collection and, novelly, the degree of algorithmically tailored content they receive. In a between-subject experiment with 161 participants, we evaluated the impact of varying levels of transparency and control on user experience. Results show that transparency alone is insufficient to foster a sense of agency, and may even exacerbate disempowerment compared to displaying outcomes directly. Conversely, combining transparency with user controls-particularly those allowing direct influence on outcomes-significantly enhances user agency. This research provides a proof-of-concept for a novel approach and lays the groundwork for designing more user-centered recommender systems that emphasize user autonomy and fairness in AI-driven content delivery.
- Abstract(参考訳): スマートレコメンデーションアルゴリズムは、コンテンツ配信に革命をもたらし、さまざまな領域における効率性を改善した。
しかし、ユーザエージェンシーに関する懸念は、アルゴリズム固有の不透明度(情報非対称性)と一方的な出力(パワー非対称性)から生じる。
本研究では、ユーザエージェンシーの強化を目的とした二重制御機構を導入し、ユーザに対して、データ収集と、アルゴリズムによって調整されたコンテンツの度合いを両立させる。
161人の被験者によるオブジェクト間実験において、透明性とコントロールのレベルがユーザエクスペリエンスに与える影響を評価した。
その結果、透明性だけではエージェンシーの感覚を育むには不十分であり、結果を直接表示するよりも非エンエンパワーメントを悪化させる可能性があることが示唆された。
逆に、透明性とユーザコントロールを組み合わせ、特に結果に直接影響を及ぼすことができるものは、ユーザエージェンシーを著しく強化する。
この研究は、新しいアプローチに対する概念実証を提供し、AIによるコンテンツ配信におけるユーザーの自律性と公正性を強調する、よりユーザ中心のレコメンデータシステムを設計するための基盤となる。
関連論文リスト
- AI, Help Me Think$\unicode{x2014}$but for Myself: Assisting People in Complex Decision-Making by Providing Different Kinds of Cognitive Support [9.903362030444166]
我々は、AIがユーザの意思決定の合理性に基づいて構築する代替インタラクションモデルについて検討する。
このアプローチをExtendedAIと呼び、レコメンデーションベースのAIと比較する。
その結果、AIは異なる影響を持ち、ExtensionAIは意思決定プロセスと人々の思考にもっとうまく統合されていることがわかった。
論文 参考訳(メタデータ) (2025-04-09T10:48:17Z) - How Performance Pressure Influences AI-Assisted Decision Making [57.53469908423318]
我々は、プレッシャーと説明可能なAI(XAI)技術がAIアドバイステイク行動とどのように相互作用するかを示す。
我々の結果は、圧力とXAIの異なる組み合わせで複雑な相互作用効果を示し、AIアドバイスの行動を改善するか、悪化させるかのどちらかを示す。
論文 参考訳(メタデータ) (2024-10-21T22:39:52Z) - Interactive Example-based Explanations to Improve Health Professionals' Onboarding with AI for Human-AI Collaborative Decision Making [2.964175945467257]
成長する研究は、人間とAIの協調的な意思決定において、ユーザの意思決定フェーズにおけるAI説明の使用について調査している。
以前の研究では、間違ったAI出力に対する過信の問題が見つかった。
医療従事者のAIによるオフボード化を改善するために,インタラクティブな例に基づく説明を提案する。
論文 参考訳(メタデータ) (2024-09-24T07:20:09Z) - To Err Is AI! Debugging as an Intervention to Facilitate Appropriate Reliance on AI Systems [11.690126756498223]
最適な人間とAIのコラボレーションのためのビジョンは、人間のAIシステムへの「適切な依存」を必要とする。
実際には、アウト・オブ・ディストリビューションデータにおける機械学習モデルの性能格差は、データセット固有のパフォーマンスフィードバックを信頼できないものにしている。
論文 参考訳(メタデータ) (2024-09-22T09:43:27Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - ADESSE: Advice Explanations in Complex Repeated Decision-Making Environments [14.105935964906976]
この研究は、インテリジェントなエージェントが人間の意思決定者にアドバイスを提供するような問題設定について考察する。
我々は,人的信頼と意思決定を改善するためのアドバイザーエージェントの説明を生成するために,ADESSEというアプローチを開発した。
論文 参考訳(メタデータ) (2024-05-31T08:59:20Z) - Towards Human-AI Deliberation: Design and Evaluation of LLM-Empowered Deliberative AI for AI-Assisted Decision-Making [47.33241893184721]
AIによる意思決定において、人間はしばしばAIの提案を受動的にレビューし、それを受け入れるか拒否するかを決定する。
意思決定における人間-AIの意見の対立に関する議論と人間のリフレクションを促進する新しい枠組みであるHuman-AI Deliberationを提案する。
人間の熟考の理論に基づいて、この枠組みは人間とAIを次元レベルの意見の引用、熟考的議論、意思決定の更新に携わる。
論文 参考訳(メタデータ) (2024-03-25T14:34:06Z) - Beyond Recommender: An Exploratory Study of the Effects of Different AI
Roles in AI-Assisted Decision Making [48.179458030691286]
Recommender、Analyzer、Devil's Advocateの3つのAIの役割について検討する。
以上の結果から,各役割のタスクパフォーマンス,信頼性の適切性,ユーザエクスペリエンスにおける長所と短所が明らかとなった。
これらの洞察は、異なる状況に応じて適応的な機能的役割を持つAIアシスタントを設計する上で、貴重な意味を提供する。
論文 参考訳(メタデータ) (2024-03-04T07:32:28Z) - How much informative is your XAI? A decision-making assessment task to
objectively measure the goodness of explanations [53.01494092422942]
XAIに対する個人化アプローチとユーザ中心アプローチの数は、近年急速に増加している。
ユーザ中心のXAIアプローチがユーザとシステム間のインタラクションに肯定的な影響を与えることが明らかとなった。
我々は,XAIシステムの良否を客観的かつ定量的に評価するための評価課題を提案する。
論文 参考訳(メタデータ) (2023-12-07T15:49:39Z) - Confounding-Robust Policy Improvement with Human-AI Teams [8.315707564931465]
我々は,人間とAIのコラボレーションにおいて,観測不能なコンバウンディングに対処する新しいソリューションを提案する。
このアプローチでは、ドメインの専門知識とAI駆動の統計モデリングを組み合わせることで、潜在的に隠れた共同設立者を説明する。
論文 参考訳(メタデータ) (2023-10-13T02:39:52Z) - The Impact of Imperfect XAI on Human-AI Decision-Making [8.305869611846775]
鳥種識別作業において,誤った説明が人間の意思決定行動にどのように影響するかを評価する。
この結果から,AIと人間-AIチームパフォーマンスへの不完全なXAIと,人間の専門知識レベルの影響が明らかになった。
論文 参考訳(メタデータ) (2023-07-25T15:19:36Z) - Advancing Human-AI Complementarity: The Impact of User Expertise and
Algorithmic Tuning on Joint Decision Making [10.890854857970488]
ユーザのドメイン知識、AIシステムのメンタルモデル、レコメンデーションへの信頼など、多くの要因がヒューマンAIチームの成功に影響を与える可能性がある。
本研究は,非自明な血管ラベル作成作業において,血管が流れているか停止しているかを被験者に示すことを目的とした。
以上の結果から,AI-Assistantからの推薦はユーザの意思決定に役立つが,AIに対するユーザベースラインのパフォーマンスや,AIエラー型の相補的チューニングといった要因は,チーム全体のパフォーマンスに大きな影響を及ぼすことが示された。
論文 参考訳(メタデータ) (2022-08-16T21:39:58Z) - Connecting Algorithmic Research and Usage Contexts: A Perspective of
Contextualized Evaluation for Explainable AI [65.44737844681256]
説明可能なAI(XAI)を評価する方法に関するコンセンサスの欠如は、この分野の進歩を妨げる。
このギャップを埋める一つの方法は、異なるユーザ要求を考慮に入れた評価方法を開発することである、と我々は主張する。
論文 参考訳(メタデータ) (2022-06-22T05:17:33Z) - Doubting AI Predictions: Influence-Driven Second Opinion Recommendation [92.30805227803688]
我々は,補完的な意見を提供する可能性のある専門家を識別する,共通の組織的実践に基づいて,人間とAIのコラボレーションを強化する方法を提案する。
提案手法は、一部の専門家がアルゴリズムによる評価に異を唱えるかどうかを特定することによって、生産的な不一致を活用することを目的としている。
論文 参考訳(メタデータ) (2022-04-29T20:35:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。