論文の概要: Cascade! Human in the loop shortcomings can increase the risk of failures in recommender systems
- arxiv url: http://arxiv.org/abs/2509.20099v1
- Date: Wed, 24 Sep 2025 13:23:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-25 20:53:19.823526
- Title: Cascade! Human in the loop shortcomings can increase the risk of failures in recommender systems
- Title(参考訳): カスケード! ループ欠陥の人間はレコメンデーターシステムにおける失敗のリスクを増大させる
- Authors: Wm. Matthew Kennedy, Nishanshi Shukla, Cigdem Patlak, Blake Chambers, Theodora Skeadas, Tuesday, Kingsley Owadara, Aayush Dhanotiya,
- Abstract要約: Human-in-the-loop」は、主に説明責任の問題に対処するために広く採用されている。
我々は、リコメンデータシステム設計における人間の監視もまた、まだ完全に説明されていない新しいリスクを伴っていると考えている。
他のAIシステムに対して有意義な監視を提供するための"Human-in-the-loop"プラクティスの欠点に関する新たな知識は、社会的に責任を負うレコメンデーションを達成するのに不十分である可能性を示唆している。
- 参考スコア(独自算出の注目度): 0.1356188074431773
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Recommender systems are among the most commonly deployed systems today. Systems design approaches to AI-powered recommender systems have done well to urge recommender system developers to follow more intentional data collection, curation, and management procedures. So too has the "human-in-the-loop" paradigm been widely adopted, primarily to address the issue of accountability. However, in this paper, we take the position that human oversight in recommender system design also entails novel risks that have yet to be fully described. These risks are "codetermined" by the information context in which such systems are often deployed. Furthermore, new knowledge of the shortcomings of "human-in-the-loop" practices to deliver meaningful oversight of other AI systems suggest that they may also be inadequate for achieving socially responsible recommendations. We review how the limitations of human oversight may increase the chances of a specific kind of failure: a "cascade" or "compound" failure. We then briefly explore how the unique dynamics of three common deployment contexts can make humans in the loop more likely to fail in their oversight duties. We then conclude with two recommendations.
- Abstract(参考訳): レコメンダシステムは、今日では最も一般的にデプロイされているシステムの一つである。
AIを利用したレコメンデーションシステムに対するシステム設計アプローチは、より意図的なデータ収集、キュレーション、管理手順に従うように、レコメンデーションシステム開発者に促すためにうまくいった。
というパラダイムも広く採用されており、主に説明責任の問題に対処しています。
しかし,本論文では,リコメンデータシステム設計における人間の監視は,まだ十分に説明されていない新しいリスクも伴うという立場を取る。
これらのリスクは、そのようなシステムが頻繁にデプロイされる情報コンテキストによって"決定される"。
さらに、他のAIシステムに対して有意義な監視を提供するための"Human-in-the-loop"プラクティスの欠点に関する新たな知識は、社会的に責任を負うレコメンデーションを達成するのに不十分である可能性を示唆している。
我々は、人間の監視の限界が、特定の種類の失敗の可能性をいかに高めるかをレビューする:「カスケード」または「複合」の失敗である。
次に,3つの一般的なデプロイメントコンテキストのユニークなダイナミクスが,ループ内の人間を監視上の任務で失敗させる可能性を高める方法について,簡単に説明します。
次に2つの推奨事項をまとめる。
関連論文リスト
- When Autonomy Goes Rogue: Preparing for Risks of Multi-Agent Collusion in Social Systems [78.04679174291329]
悪意のあるマルチエージェントシステム(MAS)のリスクをシミュレートするための概念実証手法を提案する。
この枠組みを、誤情報拡散とeコマース詐欺という2つのリスクの高い分野に適用する。
その結果,分散システムの方が,集中型システムよりも悪意ある行動を実行するのに効果的であることが示唆された。
論文 参考訳(メタデータ) (2025-07-19T15:17:30Z) - Toward Holistic Evaluation of Recommender Systems Powered by Generative Models [29.797042093096277]
生成モデル(Gen-RecSys)はオープンなコンテンツを生成する。
従来の精度測定では、事実の正確性、コンテンツの安全性、ユーザ意図との整合性を計測できません。
本稿では,シナリオベースの評価とマルチメトリックチェックの関連性を含む総合評価手法を提案する。
論文 参考訳(メタデータ) (2025-04-09T08:08:16Z) - Robust Recommender System: A Survey and Future Directions [58.87305602959857]
まず,悪質な攻撃や自然騒音に耐える現在の手法を整理するための分類法を提案する。
次に、不正検出、敵の訓練、悪意のある攻撃から守るための確実な堅牢な訓練など、各カテゴリにおける最先端の手法を検討する。
さまざまなレコメンデーションシナリオの堅牢性や,正確性や解釈可能性,プライバシ,公正性といった他の特性との相互作用について論じる。
論文 参考訳(メタデータ) (2023-09-05T08:58:46Z) - Incorporating Recklessness to Collaborative Filtering based Recommender Systems [42.956580283193176]
無謀さは、予測された評価の出力確率分布のばらつきを考慮に入れます。
実験結果から、無謀性はリスクレギュレーションだけでなく、予測の量や品質も改善することが示された。
論文 参考訳(メタデータ) (2023-08-03T21:34:00Z) - Human Uncertainty in Concept-Based AI Systems [37.82747673914624]
概念に基づくAIシステムのコンテキストにおける人間の不確実性について検討する。
不確実な概念ラベルによるトレーニングは、概念ベースシステムにおける弱点を軽減するのに役立つ可能性がある。
論文 参考訳(メタデータ) (2023-03-22T19:17:57Z) - Incentive-Aware Recommender Systems in Two-Sided Markets [49.692453629365204]
最適性能を達成しつつエージェントのインセンティブと整合する新しいレコメンデータシステムを提案する。
我々のフレームワークは、このインセンティブを意識したシステムを、両側市場におけるマルチエージェントバンディット問題としてモデル化する。
どちらのアルゴリズムも、エージェントが過剰な露出から保護する、ポストフェアネス基準を満たす。
論文 参考訳(メタデータ) (2022-11-23T22:20:12Z) - Deep Exploration for Recommendation Systems [14.937000494745861]
我々はレコメンデーションシステムのための深層探査手法を開発した。
特に、逐次決定問題としてレコメンデーションを定式化する。
本実験は高忠実度産業用シミュレータを用いて行った。
論文 参考訳(メタデータ) (2021-09-26T06:54:26Z) - A Case for Humans-in-the-Loop: Decisions in the Presence of Erroneous
Algorithmic Scores [85.12096045419686]
本研究では,児童虐待のホットラインスクリーニング決定を支援するアルゴリズムツールの採用について検討した。
まず、ツールがデプロイされたときに人間が行動を変えることを示します。
表示されたスコアが誤ったリスク推定である場合、人間はマシンの推奨に従わない可能性が低いことを示す。
論文 参考訳(メタデータ) (2020-02-19T07:27:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。