論文の概要: What are you optimizing for? Aligning Recommender Systems with Human
Values
- arxiv url: http://arxiv.org/abs/2107.10939v1
- Date: Thu, 22 Jul 2021 21:52:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-26 22:38:45.226773
- Title: What are you optimizing for? Aligning Recommender Systems with Human
Values
- Title(参考訳): 何を最適化していますか。
人的価値を考慮したレコメンダシステム
- Authors: Jonathan Stray, Ivan Vendrov, Jeremy Nixon, Steven Adler, Dylan
Hadfield-Menell
- Abstract要約: 実際のレコメンデータシステムが、さまざまな人的価値を提供するために修正された事例について述べる。
私たちは利害関係者から直接複雑な価値を学習できるアプローチのためのAIアライメント作業に注目します。
- 参考スコア(独自算出の注目度): 9.678391591582582
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We describe cases where real recommender systems were modified in the service
of various human values such as diversity, fairness, well-being, time well
spent, and factual accuracy. From this we identify the current practice of
values engineering: the creation of classifiers from human-created data with
value-based labels. This has worked in practice for a variety of issues, but
problems are addressed one at a time, and users and other stakeholders have
seldom been involved. Instead, we look to AI alignment work for approaches that
could learn complex values directly from stakeholders, and identify four major
directions: useful measures of alignment, participatory design and operation,
interactive value learning, and informed deliberative judgments.
- Abstract(参考訳): 本稿では,多様性,公平性,幸福感,無駄遣い,事実的正確性など,さまざまな人的価値を提供するために,真のレコメンデータシステムが修正された事例について述べる。
このことから、価値工学の現在の実践を識別する: 価値に基づくラベルを持つ人間が作成したデータから分類器を作成する。
これは様々な問題に対して実際に機能するが、問題は一度に一つに解決され、ユーザーや他の利害関係者が関与することはほとんどない。
代わりに、利害関係者から直接複雑な価値を学習できるアプローチのためのAIアライメント作業を検討し、アライメントの有用な測定方法、参加型設計と運用、インタラクティブな価値学習、情報に基づく熟考的判断の4つの主要な方向を特定します。
関連論文リスト
- What Are We Optimizing For? A Human-centric Evaluation Of Deep
Learning-based Recommender Systems [13.792759409405152]
レコメンデータシステム(RecSys)のディープラーニングモデルは、ユーザの好みを予測する際、顕著な精度で認識されている。
我々は,推薦の質を評価するために7つの多様な指標を組み込んだ,堅牢な人間中心評価フレームワークを開発した。
評価データセットは、オフラインベンチマークデータと、実際の445ユーザから収集した個人化されたオンラインレコメンデーションフィードバックの両方から構成される。
論文 参考訳(メタデータ) (2024-01-21T23:56:57Z) - Can Foundation Models Watch, Talk and Guide You Step by Step to Make a
Cake? [62.59699229202307]
AIの進歩にもかかわらず、インタラクティブなタスクガイダンスシステムの開発は依然として大きな課題である。
我々は、人間のユーザと人間のインストラクターとの自然なインタラクションに基づいて、新しいマルチモーダルベンチマークデータセット、ウォッチ、トーク、ガイド(WTaG)を作成しました。
いくつかの基礎モデルを活用して、これらのモデルが認識可能なタスクガイダンスに迅速に適応できるかを調査した。
論文 参考訳(メタデータ) (2023-11-01T15:13:49Z) - Online Decision Mediation [72.80902932543474]
意思決定支援アシスタントを学習し、(好奇心)専門家の行動と(不完全)人間の行動の仲介役として機能することを検討する。
臨床診断では、完全に自律的な機械行動は倫理的余裕を超えることが多い。
論文 参考訳(メタデータ) (2023-10-28T05:59:43Z) - Identifying Reasons for Bias: An Argumentation-Based Approach [2.9465623430708905]
そこで本研究では, 類似した個人と比較して, 個人が別々に分類される理由を決定するための, モデルに依存しない議論に基づく新しい手法を提案する。
フェアネス文献でよく用いられる2つのデータセットを用いて本手法の評価を行い,バイアスの同定に有効であることを示す。
論文 参考訳(メタデータ) (2023-10-25T09:47:15Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Value Kaleidoscope: Engaging AI with Pluralistic Human Values, Rights,
and Duties [70.20460442039375]
価値多元性とは、複数の正しい値が互いに緊張して保持されるという考え方である。
統計的学習者として、AIシステムはデフォルトで平均に適合する。
ValuePrismは、218kの値、権利、義務の大規模なデータセットで、31kの人間が記述した状況に関連付けられています。
論文 参考訳(メタデータ) (2023-09-02T01:24:59Z) - A Critical Re-evaluation of Benchmark Datasets for (Deep) Learning-Based
Matching Algorithms [11.264467955516706]
確立された13のデータセットの難易度と適切性を評価するための4つの手法を提案する。
一般的なデータセットの多くは、かなり簡単な分類タスクを処理している。
ベンチマークデータセットを得るための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-07-03T07:54:54Z) - Practitioners Versus Users: A Value-Sensitive Evaluation of Current
Industrial Recommender System Design [27.448761282289585]
推奨品質、プライバシ、透明性、公平性、信頼性の5つの価値に重点を置いています。
この結果から,実践者とユーザ間の緊張関係の存在と源泉を,価値解釈,評価,実践の観点から明らかにした。
論文 参考訳(メタデータ) (2022-08-08T13:31:41Z) - Adapting Triplet Importance of Implicit Feedback for Personalized
Recommendation [43.85549591503592]
インプシットフィードバックは、パーソナライズされたレコメンデーションサービスを開発するために頻繁に使用される。
本稿では,Triplet Importance Learning (TIL) という新たなトレーニングフレームワークを提案する。
提案手法は,トップkレコメンデーションのRecall@kにおいて,既存モデルよりも3~21%優れていた。
論文 参考訳(メタデータ) (2022-08-02T19:44:47Z) - Human Trajectory Forecasting in Crowds: A Deep Learning Perspective [89.4600982169]
本稿では,既存の深層学習に基づくソーシャルインタラクションのモデル化手法について詳細に分析する。
本稿では、これらの社会的相互作用を効果的に捉えるための知識に基づく2つのデータ駆動手法を提案する。
我々は,人間の軌道予測分野において,重要かつ欠落したコンポーネントであるTrajNet++を大規模に開発する。
論文 参考訳(メタデータ) (2020-07-07T17:19:56Z) - Fairness by Learning Orthogonal Disentangled Representations [50.82638766862974]
不変表現問題に対する新しい非絡み合い手法を提案する。
エントロピーによりセンシティブな情報に依存しない有意義な表現を強制する。
提案手法は5つの公開データセットで評価される。
論文 参考訳(メタデータ) (2020-03-12T11:09:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。