論文の概要: Respect for Human Autonomy in Recommender Systems
- arxiv url: http://arxiv.org/abs/2009.02603v1
- Date: Sat, 5 Sep 2020 21:39:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-03 18:42:02.117188
- Title: Respect for Human Autonomy in Recommender Systems
- Title(参考訳): 推薦システムにおける人間自律性への敬意
- Authors: Lav R. Varshney
- Abstract要約: 多くの倫理体系は、人権の考慮から生じる重要な原則として、人間の自治を尊重している。
具体的な定式化は行われていない。
我々は、レコメンダシステムの文脈において、人間の自律性に対する敬意を具体的に運用する必要があると論じる。
- 参考スコア(独自算出の注目度): 24.633323508534254
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recommender systems can influence human behavior in significant ways, in some
cases making people more machine-like. In this sense, recommender systems may
be deleterious to notions of human autonomy. Many ethical systems point to
respect for human autonomy as a key principle arising from human rights
considerations, and several emerging frameworks for AI include this principle.
Yet, no specific formalization has been defined. Separately, self-determination
theory shows that autonomy is an innate psychological need for people, and
moreover has a significant body of experimental work that formalizes and
measures level of human autonomy. In this position paper, we argue that there
is a need to specifically operationalize respect for human autonomy in the
context of recommender systems. Moreover, that such an operational definition
can be developed based on well-established approaches from experimental
psychology, which can then be used to design future recommender systems that
respect human autonomy.
- Abstract(参考訳): リコメンダシステムは人間の行動に大きな影響を与える可能性がある。
この意味では、リコメンダシステムは人間の自律性の概念から逸脱する可能性がある。
多くの倫理的システムは、人権に関する考察から生じる重要な原則として、人間の自律性を尊重している。
しかし、具体的な形式は定義されていない。
それとは別に、自己決定理論は、自律性は人々の生来の心理的要求であり、さらに人間の自律性のレベルを定式化し測定する重要な実験的な作業体であることを示している。
本稿では,レコメンダシステムの文脈において,人間の自律性に対する敬意を具体的に運用することの必要性を論じる。
さらに、このような運用定義は実験心理学の確立したアプローチに基づいて開発され、人間の自律性を尊重する将来のレコメンダシステムを設計するのに使うことができる。
関連論文リスト
- Measuring Value Alignment [12.696227679697493]
本稿では,AIシステムと人的価値の整合性を定量化する新しいフォーマリズムを提案する。
このフォーマリズムを利用することで、AI開発者と倫理学者は、人間の価値と調和して動作するように、AIシステムを設計し、評価することができる。
論文 参考訳(メタデータ) (2023-12-23T12:30:06Z) - Reflective Hybrid Intelligence for Meaningful Human Control in
Decision-Support Systems [4.1454448964078585]
本稿では,AIシステムに対する有意義な人間制御のための自己表現型AIシステムの概念を紹介する。
心理学と哲学の知識を形式的推論手法や機械学習アプローチと統合する枠組みを提案する。
我々は、自己反射型AIシステムは、自己反射型ハイブリッドシステム(人間+AI)に繋がると主張している。
論文 参考訳(メタデータ) (2023-07-12T13:32:24Z) - Doubting AI Predictions: Influence-Driven Second Opinion Recommendation [92.30805227803688]
我々は,補完的な意見を提供する可能性のある専門家を識別する,共通の組織的実践に基づいて,人間とAIのコラボレーションを強化する方法を提案する。
提案手法は、一部の専門家がアルゴリズムによる評価に異を唱えるかどうかを特定することによって、生産的な不一致を活用することを目的としている。
論文 参考訳(メタデータ) (2022-04-29T20:35:07Z) - Meaningful human control over AI systems: beyond talking the talk [8.351027101823705]
私たちは、AIベースのシステムが有意義な人間の制御下にある必要がある4つの特性を特定します。
第一に、人間とAIアルゴリズムが相互作用するシステムは、道徳的にロードされた状況の明確に定義された領域を持つべきである。
第2に、システム内の人間とAIエージェントは、適切かつ相互に互換性のある表現を持つべきである。
第三に、人間に帰属する責任は、その人のシステムを支配する能力と権限に相応すべきである。
論文 参考訳(メタデータ) (2021-11-25T11:05:37Z) - Indecision Modeling [50.00689136829134]
AIシステムは人間の価値観に合わせて行動することが重要である。
人々はしばしば決定的ではなく、特に彼らの決定が道徳的な意味を持つときです。
論文 参考訳(メタデータ) (2020-12-15T18:32:37Z) - Weak Human Preference Supervision For Deep Reinforcement Learning [48.03929962249475]
人間の好みによる現在の報酬学習は、報酬関数にアクセスせずに複雑な強化学習(RL)タスクを解決するために使用できる。
そこで我々は,人間の嗜好スケーリングモデルを開発した,弱い人間の嗜好監視フレームワークを提案する。
提案手法では,環境との相互作用の 0.01% 未満の人的フィードバックしか必要としない。
論文 参考訳(メタデータ) (2020-07-25T10:37:15Z) - Regulating human control over autonomous systems [1.2691047660244335]
より自律的なシステムの利用は、人間のコントロールの方針によって誘導されるべきである、と論じられている。
本稿では、米国における防衛と輸送の2つの領域における人的制御の概念について考察する。
論文 参考訳(メタデータ) (2020-07-22T06:05:41Z) - Machine Common Sense [77.34726150561087]
機械の常識は、人工知能(AI)において広範で潜在的に無拘束な問題のままである
本稿では、対人インタラクションのようなドメインに焦点を当てたコモンセンス推論のモデル化の側面について論じる。
論文 参考訳(メタデータ) (2020-06-15T13:59:47Z) - Learning to Optimize Autonomy in Competence-Aware Systems [32.3596917475882]
体験を通して学習し、オンラインで更新する自律の内省モデルを提案する。
我々は、さまざまなレベルの自律性と利用可能な人間のフィードバックにおいて、自身の習熟度を明示的にモデル化する能力認識システム(CAS)を定義する。
我々はCASの収束特性を解析し、ロボット配送と自律運転領域の実験結果を提供する。
論文 参考訳(メタデータ) (2020-03-17T14:31:45Z) - A Case for Humans-in-the-Loop: Decisions in the Presence of Erroneous
Algorithmic Scores [85.12096045419686]
本研究では,児童虐待のホットラインスクリーニング決定を支援するアルゴリズムツールの採用について検討した。
まず、ツールがデプロイされたときに人間が行動を変えることを示します。
表示されたスコアが誤ったリスク推定である場合、人間はマシンの推奨に従わない可能性が低いことを示す。
論文 参考訳(メタデータ) (2020-02-19T07:27:32Z) - Hacia los Comit\'es de \'Etica en Inteligencia Artificial [68.8204255655161]
以下のルールを監督できるルールと専門組織を作成することが最優先である。
この研究は、大学において、人工知能に特化した倫理委員会や委員会を創設することを提案する。
論文 参考訳(メタデータ) (2020-02-11T23:48:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。