論文の概要: Recognising the importance of preference change: A call for a
coordinated multidisciplinary research effort in the age of AI
- arxiv url: http://arxiv.org/abs/2203.10525v1
- Date: Sun, 20 Mar 2022 11:23:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-26 06:28:50.849348
- Title: Recognising the importance of preference change: A call for a
coordinated multidisciplinary research effort in the age of AI
- Title(参考訳): 嗜好変化の重要性の認識--AI時代における協調型多分野研究への呼びかけ
- Authors: Matija Franklin, Hal Ashton, Rebecca Gorman, Stuart Armstrong
- Abstract要約: この記事では、AIシステムがどのように嗜好を変えるかを理解することに焦点を当てた、多分野的な取り組みの確立について論じる。
我々は、様々な分野の概念を取り入れた嗜好を運用し、メタ嗜好と嗜好変更選好の重要性を概説し、嗜好の変化に関する予備的な枠組みを提案する。
- 参考スコア(独自算出の注目度): 8.975330500836057
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As artificial intelligence becomes more powerful and a ubiquitous presence in
daily life, it is imperative to understand and manage the impact of AI systems
on our lives and decisions. Modern ML systems often change user behavior (e.g.
personalized recommender systems learn user preferences to deliver
recommendations that change online behavior). An externality of behavior change
is preference change. This article argues for the establishment of a
multidisciplinary endeavor focused on understanding how AI systems change
preference: Preference Science. We operationalize preference to incorporate
concepts from various disciplines, outlining the importance of meta-preferences
and preference-change preferences, and proposing a preliminary framework for
how preferences change. We draw a distinction between preference change,
permissible preference change, and outright preference manipulation. A
diversity of disciplines contribute unique insights to this framework.
- Abstract(参考訳): 人工知能がより強力になり、日常生活におけるユビキタスな存在になるにつれて、私たちの生活や決定に対するAIシステムの影響を理解し、管理することが不可欠である。
現代のMLシステムは、しばしばユーザの振る舞いを変える(例えば、パーソナライズされたレコメンデーションシステムは、オンラインの振る舞いを変えるレコメンデーションを提供するために、ユーザの好みを学ぶ)。
行動変化の外部性は嗜好変化である。
この記事では、AIシステムの嗜好の変化を理解することに焦点を当てた、多分野的な取り組みの確立を論じる。
我々は,様々な分野の概念を取り入れることに対する選好を運用し,メタ参照と選好変更の選好の重要性を概説し,選好がどう変化するかの予備的枠組みを提案する。
我々は,嗜好変化,許容嗜好変化,不正確な嗜好操作を区別する。
規律の多様性は、このフレームワークにユニークな洞察をもたらします。
関連論文リスト
- Adaptive Alignment: Dynamic Preference Adjustments via Multi-Objective Reinforcement Learning for Pluralistic AI [4.80825466957272]
MORL(Multi Objective Reinforcement Learning)を通じて,AIを多種多様なユーザ嗜好に整合させるアプローチを提案する。
本稿では,提案手法の枠組みを紹介するとともに,その期待されている利点と前提を概説し,実装に関する技術的詳細について議論する。
論文 参考訳(メタデータ) (2024-10-31T04:46:52Z) - AI Alignment with Changing and Influenceable Reward Functions [10.025289118814186]
既存のAIアライメントアプローチは、好みは静的であり、非現実的である、と仮定する。
その利便性にもかかわらず、静的推論の仮定は既存のアライメント手法の音質を損なう可能性がある。
我々は、AIアライメントのさまざまな概念を定式化し、最初から好みの変化を考慮に入れている。
論文 参考訳(メタデータ) (2024-05-28T00:08:46Z) - Learning under Imitative Strategic Behavior with Unforeseeable Outcomes [14.80947863438795]
個人と意思決定者間の相互作用をモデル化するStackelbergゲームを提案する。
両者の目的的差異を3つの解釈可能な項に分解できることを示す。
論文 参考訳(メタデータ) (2024-05-03T00:53:58Z) - Promptable Behaviors: Personalizing Multi-Objective Rewards from Human
Preferences [53.353022588751585]
本稿では,ロボットエージェントの多種多様な嗜好に対する効率的なパーソナライズを促進する新しいフレームワークであるPromptable Behaviorsを紹介する。
我々は、異なるタイプの相互作用を活用することによって、人間の嗜好を推測する3つの異なる方法を紹介した。
本稿では,ProcTHOR と Robothor のナビゲーションタスクをパーソナライズしたオブジェクトゴールナビゲーションおよびエスケープナビゲーションタスクにおいて,提案手法の評価を行う。
論文 参考訳(メタデータ) (2023-12-14T21:00:56Z) - Reinforcement Learning from Diverse Human Preferences [68.4294547285359]
本稿では,人選好ラベルをクラウドソーシングし,多様な嗜好から学習する手法を開発した。
提案手法はDMcontrolとMeta-worldの様々なタスクでテストされる。
多様なフィードバックから学ぶと、既存の好みベースのRLアルゴリズムよりも一貫性があり、大幅に改善されている。
論文 参考訳(メタデータ) (2023-01-27T15:18:54Z) - Coarse-to-Fine Knowledge-Enhanced Multi-Interest Learning Framework for
Multi-Behavior Recommendation [52.89816309759537]
マルチタイプの行動(例えば、クリック、カートの追加、購入など)は、ほとんどの現実世界のレコメンデーションシナリオに広く存在する。
最先端のマルチ振る舞いモデルは、すべての歴史的相互作用を入力として区別しない振る舞い依存を学習する。
本稿では,多様な行動に対する共有的・行動特異的な関心を学習するための,多目的学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-08-03T05:28:14Z) - Inferring Lexicographically-Ordered Rewards from Preferences [82.42854687952115]
本稿では,エージェントの観察された嗜好の多目的報酬に基づく表現を推定する手法を提案する。
我々は,異なる目的に対するエージェントの優先順位を語彙的入力としてモデル化することにより,エージェントがより高い優先順位を持つ目的に対して無関心である場合に限って,より低い優先順位を持つ目的が重要となるようにした。
論文 参考訳(メタデータ) (2022-02-21T12:01:41Z) - The Price of Diversity [3.136861161060885]
性別、人種、民族に関する体系的な偏見は、しばしば無意識であり、個人間の選択を含むデータセットで一般的である。
最適反転結果ラベルと学習分類モデルに基づく新しい最適化手法を提案する。
本研究は, 仮釈放, 入場許可, 貸与決定からなる実世界の3つのデータセットのケーススタディである。
論文 参考訳(メタデータ) (2021-07-03T02:23:27Z) - Fast and Slow Learning of Recurrent Independent Mechanisms [80.38910637873066]
本稿では,エージェントが必要とする知識の断片と報酬関数が定常的であり,タスク間で再利用可能なトレーニングフレームワークを提案する。
注意機構は、どのモジュールを現在のタスクに適応できるかを動的に選択する。
提案方式のモジュール的側面のメタラーニングは,強化学習装置の高速化に大きく寄与することがわかった。
論文 参考訳(メタデータ) (2021-05-18T17:50:32Z) - Indecision Modeling [50.00689136829134]
AIシステムは人間の価値観に合わせて行動することが重要である。
人々はしばしば決定的ではなく、特に彼らの決定が道徳的な意味を持つときです。
論文 参考訳(メタデータ) (2020-12-15T18:32:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。