論文の概要: Reflexive Design for Fairness and Other Human Values in Formal Models
- arxiv url: http://arxiv.org/abs/2010.05084v2
- Date: Wed, 16 Jun 2021 22:24:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-29 11:13:17.806743
- Title: Reflexive Design for Fairness and Other Human Values in Formal Models
- Title(参考訳): フォーマルモデルにおけるフェアネスとその他の人的価値の反射設計
- Authors: Benjamin Fish, Luke Stark
- Abstract要約: 公平さなどの人的価値を取り入れたアルゴリズムやその他の形式モデルは、コンピュータ科学でますます人気が高まっている。
人間の価値を形式モデルに適切に組み込むための4つの反射的値 - 値の忠実さ、適切な精度、値の正当性、および値の競合 - を開発する。
- 参考スコア(独自算出の注目度): 2.8935588665357077
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Algorithms and other formal models purportedly incorporating human values
like fairness have grown increasingly popular in computer science. In response
to sociotechnical challenges in the use of these models, designers and
researchers have taken widely divergent positions on how formal models
incorporating aspects of human values should be used: encouraging their use,
moving away from them, or ignoring the normative consequences altogether. In
this paper, we seek to resolve these divergent positions by identifying the
main conceptual limits of formal modeling, and develop four reflexive
values--value fidelity, appropriate accuracy, value legibility, and value
contestation--vital for incorporating human values adequately into formal
models. We then provide a brief methodology for reflexively designing formal
models incorporating human values.
- Abstract(参考訳): 公平さなどの人的価値を取り入れたアルゴリズムやその他の形式モデルは、コンピュータ科学でますます人気が高まっている。
これらのモデルの使用における社会技術的課題に応えて、デザイナーと研究者は、人間の価値の側面を取り入れた形式的なモデルがどのように使われるべきかについて、広く異なる立場を取ってきた。
本稿では,フォーマルなモデリングの主要な概念的限界を同定し,人間の価値を形式的なモデルに適切に組み込むための4つの反射的値 – 値の忠実さ,適切な正確性,価値の正当性,価値の競合性 – を求める。
次に、人間の価値を取り入れた形式モデルを反射的に設計するための簡単な方法論を提案する。
関連論文リスト
- On the Fairness, Diversity and Reliability of Text-to-Image Generative Models [49.60774626839712]
マルチモーダル生成モデルは 彼らの公正さ、信頼性、そして誤用の可能性について 批判的な議論を呼んだ
組込み空間における摂動に対する応答を通じてモデルの信頼性を評価するための評価フレームワークを提案する。
本手法は, 信頼できない, バイアス注入されたモデルを検出し, バイアス前駆体の検索を行うための基礎となる。
論文 参考訳(メタデータ) (2024-11-21T09:46:55Z) - Aligning Vision Models with Human Aesthetics in Retrieval: Benchmarks and Algorithms [91.19304518033144]
検索システムにおける視覚モデルと人間の審美基準の整合を図る。
本研究では、視覚モデルと人間の美学をよりよく整合させるために、視覚モデルを微調整する嗜好に基づく強化学習手法を提案する。
論文 参考訳(メタデータ) (2024-06-13T17:59:20Z) - Rethinking Model Evaluation as Narrowing the Socio-Technical Gap [34.08410116336628]
モデル評価の実践は、この均質化によってもたらされる課題や責任に対処するために、重要なタスクを負わなければならない、と我々は主張する。
我々は,現実世界の社会要求に基づく評価手法の開発をコミュニティに促す。
論文 参考訳(メタデータ) (2023-06-01T00:01:43Z) - Bridging the Gap: A Survey on Integrating (Human) Feedback for Natural
Language Generation [68.9440575276396]
この調査は、人間のフィードバックを利用して自然言語生成を改善した最近の研究の概要を提供することを目的としている。
まず、フィードバックの形式化を包括的に導入し、この形式化に続いて既存の分類学研究を特定・整理する。
第二に、フィードバックを形式や目的によってどのように記述するかを議論し、フィードバック(トレーニングやデコード)を直接使用したり、フィードバックモデルをトレーニングしたりするための2つのアプローチについて取り上げる。
第3に、AIフィードバックの生まれたばかりの分野の概要を紹介します。これは、大きな言語モデルを利用して、一連の原則に基づいて判断し、必要最小限にします。
論文 参考訳(メタデータ) (2023-05-01T17:36:06Z) - Are Neural Topic Models Broken? [81.15470302729638]
トピックモデルの自動評価と人的評価の関係について検討する。
ニューラルトピックモデルは、確立された古典的手法と比較して、両方の点においてより悪くなる。
論文 参考訳(メタデータ) (2022-10-28T14:38:50Z) - Exploring Alignment of Representations with Human Perception [47.53970721813083]
モデルによって類似した表現にマッピングされた入力は、人間によっても同様に認識されるべきであることを示す。
我々のアプローチは、モデルが人間の知覚に合致する程度を測ります。
アーキテクチャやトレーニングパラダイム,トレーニング損失,データ拡張といったモデルのさまざまな特性が,人間の知覚に整合した表現の学習において重要な役割を担っていることが分かりました。
論文 参考訳(メタデータ) (2021-11-29T17:26:50Z) - Human-Understandable Decision Making for Visual Recognition [30.30163407674527]
モデル学習プロセスに人間の知覚の優先順位を組み込むことにより,深層ニューラルネットワークを訓練する新たなフレームワークを提案する。
提案モデルの有効性を2つの古典的視覚認識タスクで評価する。
論文 参考訳(メタデータ) (2021-03-05T02:07:33Z) - On the model-based stochastic value gradient for continuous
reinforcement learning [50.085645237597056]
モデルベースエージェントは,サンプル効率と最終報酬の両方の観点から,最先端のモデルフリーエージェントより優れていることを示す。
以上の結果から,モデルに基づく政策評価がより注目に値することが示唆された。
論文 参考訳(メタデータ) (2020-08-28T17:58:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。