論文の概要: What are you optimizing for? Aligning Recommender Systems with Human
Values
- arxiv url: http://arxiv.org/abs/2107.10939v1
- Date: Thu, 22 Jul 2021 21:52:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-26 22:38:45.226773
- Title: What are you optimizing for? Aligning Recommender Systems with Human
Values
- Title(参考訳): 何を最適化していますか。
人的価値を考慮したレコメンダシステム
- Authors: Jonathan Stray, Ivan Vendrov, Jeremy Nixon, Steven Adler, Dylan
Hadfield-Menell
- Abstract要約: 実際のレコメンデータシステムが、さまざまな人的価値を提供するために修正された事例について述べる。
私たちは利害関係者から直接複雑な価値を学習できるアプローチのためのAIアライメント作業に注目します。
- 参考スコア(独自算出の注目度): 9.678391591582582
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We describe cases where real recommender systems were modified in the service
of various human values such as diversity, fairness, well-being, time well
spent, and factual accuracy. From this we identify the current practice of
values engineering: the creation of classifiers from human-created data with
value-based labels. This has worked in practice for a variety of issues, but
problems are addressed one at a time, and users and other stakeholders have
seldom been involved. Instead, we look to AI alignment work for approaches that
could learn complex values directly from stakeholders, and identify four major
directions: useful measures of alignment, participatory design and operation,
interactive value learning, and informed deliberative judgments.
- Abstract(参考訳): 本稿では,多様性,公平性,幸福感,無駄遣い,事実的正確性など,さまざまな人的価値を提供するために,真のレコメンデータシステムが修正された事例について述べる。
このことから、価値工学の現在の実践を識別する: 価値に基づくラベルを持つ人間が作成したデータから分類器を作成する。
これは様々な問題に対して実際に機能するが、問題は一度に一つに解決され、ユーザーや他の利害関係者が関与することはほとんどない。
代わりに、利害関係者から直接複雑な価値を学習できるアプローチのためのAIアライメント作業を検討し、アライメントの有用な測定方法、参加型設計と運用、インタラクティブな価値学習、情報に基づく熟考的判断の4つの主要な方向を特定します。
関連論文リスト
- Uncertain Multi-Objective Recommendation via Orthogonal Meta-Learning Enhanced Bayesian Optimization [30.031396809114625]
本稿では,ルールベースの精度駆動システムから行動認識,不確実な多目的RSに至るまで,RSの自律性を5つの異なるレベルに分類する新しい枠組みを提案する。
個人の好みに基づいて複数の目的を動的に識別し、最適化し、より倫理的でインテリジェントなユーザー中心のレコメンデーションを促進するアプローチを提案する。
論文 参考訳(メタデータ) (2025-02-18T08:10:09Z) - Democratizing Reward Design for Personal and Representative Value-Alignment [10.1630183955549]
本稿では,対話型対話アライメント(Interactive-Reflective Dialogue Alignment)について紹介する。
本システムは,言語モデルに基づく嗜好誘導を通じて個々の価値定義を学習し,パーソナライズされた報酬モデルを構築する。
本研究は, 価値整合行動の多様な定義を示し, システムによって各人の独自の理解を正確に捉えることができることを示す。
論文 参考訳(メタデータ) (2024-10-29T16:37:01Z) - MAP: Multi-Human-Value Alignment Palette [22.74688073469946]
我々はMulti-Human-Value Alignment Palette(MAP)と呼ばれる新しい第一原理的アプローチを開発した。
MAPは、構造化され信頼性の高い方法で、複数の人間の値にまたがるアライメントをナビゲートする。
我々は、値間のトレードオフ、制約に対する感度、多値アライメントとシーケンシャルアライメントの基本的な関係を定量化し、線形重み付き報酬が多値アライメントに十分であることを示すことにより、MAPの詳細な理論的解析を行う。
論文 参考訳(メタデータ) (2024-10-24T23:16:39Z) - CompassJudger-1: All-in-one Judge Model Helps Model Evaluation and Evolution [74.41064280094064]
textbfJudger-1は、最初のオープンソースのtextbfall-in-one judge LLMである。
CompassJudger-1は、優れた汎用性を示す汎用LLMである。
textbfJudgerBenchは、様々な主観評価タスクを含む新しいベンチマークである。
論文 参考訳(メタデータ) (2024-10-21T17:56:51Z) - Quantifying User Coherence: A Unified Framework for Cross-Domain Recommendation Analysis [69.37718774071793]
本稿では,レコメンデーションシステムを理解するための新しい情報理論手法を提案する。
9つのデータセットで7つのレコメンデーションアルゴリズムを評価し、測定値と標準的なパフォーマンス指標の関係を明らかにする。
論文 参考訳(メタデータ) (2024-10-03T13:02:07Z) - Improving Content Recommendation: Knowledge Graph-Based Semantic Contrastive Learning for Diversity and Cold-Start Users [5.224122150536595]
本稿では,複数タスクのハイブリッド学習手法を提案する。
我々のアプローチは、テキストからの意味情報を活用することにより、知識グラフ内のエンティティ間の関係をよりよく理解することを可能にする。
論文 参考訳(メタデータ) (2024-03-27T15:11:00Z) - Can Foundation Models Watch, Talk and Guide You Step by Step to Make a
Cake? [62.59699229202307]
AIの進歩にもかかわらず、インタラクティブなタスクガイダンスシステムの開発は依然として大きな課題である。
我々は、人間のユーザと人間のインストラクターとの自然なインタラクションに基づいて、新しいマルチモーダルベンチマークデータセット、ウォッチ、トーク、ガイド(WTaG)を作成しました。
いくつかの基礎モデルを活用して、これらのモデルが認識可能なタスクガイダンスに迅速に適応できるかを調査した。
論文 参考訳(メタデータ) (2023-11-01T15:13:49Z) - Online Decision Mediation [72.80902932543474]
意思決定支援アシスタントを学習し、(好奇心)専門家の行動と(不完全)人間の行動の仲介役として機能することを検討する。
臨床診断では、完全に自律的な機械行動は倫理的余裕を超えることが多い。
論文 参考訳(メタデータ) (2023-10-28T05:59:43Z) - Value Kaleidoscope: Engaging AI with Pluralistic Human Values, Rights, and Duties [68.66719970507273]
価値多元性とは、複数の正しい値が互いに緊張して保持されるという考え方である。
統計的学習者として、AIシステムはデフォルトで平均に適合する。
ValuePrismは、218kの値、権利、義務の大規模なデータセットで、31kの人間が記述した状況に関連付けられています。
論文 参考訳(メタデータ) (2023-09-02T01:24:59Z) - Practitioners Versus Users: A Value-Sensitive Evaluation of Current
Industrial Recommender System Design [27.448761282289585]
推奨品質、プライバシ、透明性、公平性、信頼性の5つの価値に重点を置いています。
この結果から,実践者とユーザ間の緊張関係の存在と源泉を,価値解釈,評価,実践の観点から明らかにした。
論文 参考訳(メタデータ) (2022-08-08T13:31:41Z) - Fairness by Learning Orthogonal Disentangled Representations [50.82638766862974]
不変表現問題に対する新しい非絡み合い手法を提案する。
エントロピーによりセンシティブな情報に依存しない有意義な表現を強制する。
提案手法は5つの公開データセットで評価される。
論文 参考訳(メタデータ) (2020-03-12T11:09:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。