論文の概要: Beyond Our Behavior: The GDPR and Humanistic Personalization
- arxiv url: http://arxiv.org/abs/2008.13404v1
- Date: Mon, 31 Aug 2020 07:40:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-04 05:43:20.371959
- Title: Beyond Our Behavior: The GDPR and Humanistic Personalization
- Title(参考訳): GDPRと人道的パーソナライゼーション
- Authors: Travis Greene, Galit Shmueli
- Abstract要約: 我々は人道主義的パーソナライゼーションの新しいパラダイムを提案する。
非意識的な(有機的)行動と意識的な(反射的)行動の1つとして、暗黙的な(暗黙的な)データ収集と明示的な(暗黙的な)データ収集を区別する。
本稿では,物語の正確さに重きを置くことで,不公平な被験者が行うデータ処理の機会を減らす方法について論じる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Personalization should take the human person seriously. This requires a
deeper understanding of how recommender systems can shape both our
self-understanding and identity. We unpack key European humanistic and
philosophical ideas underlying the General Data Protection Regulation (GDPR)
and propose a new paradigm of humanistic personalization. Humanistic
personalization responds to the IEEE's call for Ethically Aligned Design (EAD)
and is based on fundamental human capacities and values. Humanistic
personalization focuses on narrative accuracy: the subjective fit between a
person's self-narrative and both the input (personal data) and output of a
recommender system. In doing so, we re-frame the distinction between implicit
and explicit data collection as one of nonconscious ("organismic") behavior and
conscious ("reflective") action. This distinction raises important ethical and
interpretive issues related to agency, self-understanding, and political
participation. Finally, we discuss how an emphasis on narrative accuracy can
reduce opportunities for epistemic injustice done to data subjects.
- Abstract(参考訳): パーソナライゼーションは人間を真剣に受け止めるべきである。
これは、リコメンデータシステムが私たちの自己理解とアイデンティティの両方を形作る方法について、より深く理解する必要があります。
我々は、一般データ保護規則(GDPR)に基づく欧州の主要な人文主義的・哲学的思想を解き放ち、人文主義的パーソナライゼーションの新しいパラダイムを提案する。
人道的パーソナライゼーション(Humanistic Personalization)は、IEEEのEthically Aligned Design (EAD)の要求に反応し、基本的な人間の能力と価値に基づいている。
ヒューマニズム的パーソナライゼーション(Humanistic Personalization)は、個人の自己物語とインプット(個人データ)とレコメンダシステムの出力との間の主観的適合性である。
その際,非意識的(組織的)行動と意識的(反射的)行動の1つとして,暗黙的データ収集と明示的データ収集の区別を再構築する。
この区別は、機関、自己理解、政治参加に関する重要な倫理的および解釈的問題を引き起こす。
最後に,物語の正確さに重きを置くことで,データ被験者に対する認識的不公平の機会を減らせるかについて議論する。
関連論文リスト
- Democratizing Reward Design for Personal and Representative Value-Alignment [10.1630183955549]
本稿では,対話型対話アライメント(Interactive-Reflective Dialogue Alignment)について紹介する。
本システムは,言語モデルに基づく嗜好誘導を通じて個々の価値定義を学習し,パーソナライズされた報酬モデルを構築する。
本研究は, 価値整合行動の多様な定義を示し, システムによって各人の独自の理解を正確に捉えることができることを示す。
論文 参考訳(メタデータ) (2024-10-29T16:37:01Z) - Can Language Models Reason about Individualistic Human Values and Preferences? [44.249817353449146]
個人主義的価値推論の具体的な課題について言語モデル(LM)について検討する。
我々は,55%から65%の精度で個人主義的人間の価値を推論する,フロンティアLMの能力の限界を明らかにする。
提案した値不等式指数(sigmaINEQUITY)によって測定された大域的個人主義的価値の推論におけるLMの部分性も同定する。
論文 参考訳(メタデータ) (2024-10-04T19:03:41Z) - Personality Alignment of Large Language Models [26.071445846818914]
大規模言語モデル(LLM)を整列する現在の手法は、一般的に一般的な人間の価値観や振る舞いを反映することを目的としている。
パーソナリティアライメントの概念を紹介する。
このアプローチは、個々のユーザや近縁なグループの特定の嗜好に合うように、LSMの反応と決定を調整します。
論文 参考訳(メタデータ) (2024-08-21T17:09:00Z) - Aligning Large Language Models with Human Opinions through Persona Selection and Value--Belief--Norm Reasoning [67.33899440998175]
Chain-of-Opinion (COO)は、単純な4段階のソリューションモデリングであり、ペルソナによる推論方法である。
COOは明示的な人格(デモグラフィーとイデオロギー)と暗黙的な人格(歴史学的な意見)を区別する
COOは、推論コールを5回だけ促すことで、新しい最先端の意見予測を効率的に達成し、以前のテクニックを最大4%改善する。
論文 参考訳(メタデータ) (2023-11-14T18:48:27Z) - Are Personalized Stochastic Parrots More Dangerous? Evaluating Persona
Biases in Dialogue Systems [103.416202777731]
我々は、対話モデルが採用するペルソナに付随する有害な行動の感度であると定義する「ペルソナバイアス」について検討する。
我々は,人格バイアスを有害な表現と有害な合意のバイアスに分類し,攻撃性,有害継続性,関連性,ステレオタイプ合意,および有害合意の5つの側面において,人格バイアスを測定する包括的な評価枠組みを確立する。
論文 参考訳(メタデータ) (2023-10-08T21:03:18Z) - Value Kaleidoscope: Engaging AI with Pluralistic Human Values, Rights, and Duties [68.66719970507273]
価値多元性とは、複数の正しい値が互いに緊張して保持されるという考え方である。
統計的学習者として、AIシステムはデフォルトで平均に適合する。
ValuePrismは、218kの値、権利、義務の大規模なデータセットで、31kの人間が記述した状況に関連付けられています。
論文 参考訳(メタデータ) (2023-09-02T01:24:59Z) - Improving Personality Consistency in Conversation by Persona Extending [22.124187337032946]
本稿では,Persona Retrieval Model(PRM)とPosterior-Scored Transformer(PS-Transformer)の2つのサブコンポーネントからなる新しい検索・予測パラダイムを提案する。
提案モデルでは,自動測定と人的評価の両面で大幅に改善されている。
論文 参考訳(メタデータ) (2022-08-23T09:00:58Z) - SF-PATE: Scalable, Fair, and Private Aggregation of Teacher Ensembles [50.90773979394264]
本稿では、個人の機密情報のプライバシーを保護しつつ、差別的でない予測者の学習を可能にするモデルについて検討する。
提案モデルの主な特徴は、プライバシ保護とフェアモデルを作成するために、オフ・ザ・セルフと非プライベートフェアモデルの採用を可能にすることである。
論文 参考訳(メタデータ) (2022-04-11T14:42:54Z) - Exosoul: ethical profiling in the digital world [3.6245424131171813]
Exosoulプロジェクトは、ユーザの道徳的嗜好に応じてデジタル世界でアクションを仲介するパーソナライズされたソフトウェアエクソスケルトンを開発することを目的としている。
このアプローチはハイブリッドで、まずトップダウンの方法でプロファイルを識別し、次にパーソナライズされたデータ駆動のアプローチでプロファイルを洗練する。
我々は倫理的立場(イデオロギーと相対主義)の性格特性(正直・謙虚、良心、マキアベリア主義とナルシシズム)と世界観(ノルマティビズム)の相関を考察する。
論文 参考訳(メタデータ) (2022-03-30T10:54:00Z) - You Impress Me: Dialogue Generation via Mutual Persona Perception [62.89449096369027]
認知科学の研究は、理解が高品質なチャット会話に不可欠なシグナルであることを示唆している。
そこで我々は,P2 Botを提案する。このP2 Botは,理解を明示的にモデル化することを目的とした送信機受信者ベースのフレームワークである。
論文 参考訳(メタデータ) (2020-04-11T12:51:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。