論文の概要: Representation Fidelity:Auditing Algorithmic Decisions About Humans Using Self-Descriptions
- arxiv url: http://arxiv.org/abs/2603.05136v1
- Date: Thu, 05 Mar 2026 13:04:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-06 22:06:11.231061
- Title: Representation Fidelity:Auditing Algorithmic Decisions About Humans Using Self-Descriptions
- Title(参考訳): 表現の忠実さ:自己記述を用いた人間に関するアルゴリズム決定の検討
- Authors: Theresa Elstner, Martin Potthast,
- Abstract要約: 本稿では,人間の表現の忠実度を計測し,人間のアルゴリズム的決定を検証するための新しい次元を提案する。
同一人物の2つの表現間の距離を計測し,この概念を運用することを提案する。
本稿では,融資先物決定のデータセットに基づいて表現忠実度を評価するための最初のベンチマークを示す。
- 参考スコア(独自算出の注目度): 21.493418289218635
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces a new dimension for validating algorithmic decisions about humans by measuring the fidelity of their representations. Representation Fidelity measures if decisions about a person rest on reasonable grounds. We propose to operationalize this notion by measuring the distance between two representations of the same person: (1) an externally prescribed input representation on which the decision is based, and (2) a self-description provided by the human subject of the decision, used solely to validate the input representation. We examine the nature of discrepancies between these representations, how such discrepancies can be quantified, and derive a generic typology of representation mismatches that determine the degree of representation fidelity. We further present the first benchmark for evaluating representation fidelity based on a dataset of loan-granting decisions. Our Loan-Granting Self-Representations Corpus 2025 consists of a large corpus of 30 000 synthetic natural language self-descriptions derived from corresponding representations of applicants in the German Credit Dataset, along with expert annotations of representation mismatches between each pair of representations.
- Abstract(参考訳): 本稿では,人間の表現の忠実度を計測し,人間のアルゴリズム的決定を検証するための新しい次元を提案する。
表現の忠実度は、ある人の決定が妥当な根拠にかかっているかどうかを測定する。
本稿では, 同一人物の2つの表現間の距離を計測し, その概念を運用することを提案する。(1) 決定をベースとした外部所定の入力表現, (2) 決定の人体によって提供される自己記述は, 入力表現の検証にのみ使用される。
これらの表現間の相違の性質を考察し、そのような相違を定量化する方法を考察し、表現の忠実度を決定する表現ミスマッチの一般的な型付けを導出する。
さらに,融資先物決定のデータセットに基づいて表現忠実度を評価するための最初のベンチマークを示す。
我々のローン保証自己表現コーパス2025は、ドイツ信用データセットの申請者の対応する表現から派生した30,000の合成自然言語自己記述の大規模なコーパスと、各表現間の表現ミスマッチに関する専門家アノテーションで構成されています。
関連論文リスト
- Information Theoretic Perspective on Representation Learning [5.076419064097734]
回帰タスクの学習表現に焦点をあて、最終層埋め込みを分析するための情報理論フレームワークが導入された。
入力源エントロピーによって本質的に決定されるように、入力出力情報を表現できる信頼性の表現率と導出限界を定義する。
達成可能な能力、達成可能な表現率、およびそれらの逆を導出する。
論文 参考訳(メタデータ) (2026-01-16T14:30:18Z) - Learning Representational Disparities [6.858829317769592]
そこで本研究では,観察対象と所望の人的意思決定における解釈可能な差異をモデル化する,公正な機械学習アルゴリズムを提案する。
私たちのゴールは、人間の決定に対する具体的な判断によって修正される可能性のある解釈可能な表現格差を学習することです。
合理的に単純化された仮定の下で、表現格差のニューラルネットワークモデルが解釈可能な重みを学習し、結果格差を完全に緩和することを示す。
論文 参考訳(メタデータ) (2025-05-23T06:40:24Z) - Language Agents as Digital Representatives in Collective Decision-Making [22.656601943922066]
表現」とは、プロキシエージェントの参加を通じて、プロセスに個人の嗜好を提示する活動である。
本研究では,人的エージェントの代表者の行動能力を高めるために,テキストエージェントを訓練する可能性について検討する。
論文 参考訳(メタデータ) (2025-02-13T14:35:40Z) - A Practical Method for Generating String Counterfactuals [106.98481791980367]
言語モデル(LM)の表現空間をターゲットとした介入は、モデル行動に影響を与える効果的な手段として現れてきた。
表現反事実を文字列反事実に変換する方法を提案する。
結果として生じるカウンターファクトは、データ拡張による分類のバイアスを軽減するために使用することができる。
論文 参考訳(メタデータ) (2024-02-17T18:12:02Z) - Explaining by Imitating: Understanding Decisions by Interpretable Policy
Learning [72.80902932543474]
観察されたデータから人間の行動を理解することは、意思決定における透明性と説明責任にとって重要である。
意思決定者の方針をモデル化することが困難である医療などの現実的な設定を考えてみましょう。
本稿では, 設計による透明性の向上, 部分観測可能性の確保, 完全にオフラインで動作可能なデータ駆動型意思決定行動の表現を提案する。
論文 参考訳(メタデータ) (2023-10-28T13:06:14Z) - Measuring the Interpretability of Unsupervised Representations via
Quantized Reverse Probing [97.70862116338554]
本稿では,自己教師付き表現の解釈可能性の測定問題について検討する。
我々は、後者を、表現と手動でラベル付けされた概念の空間の間の相互情報を推定するものとして定式化する。
提案手法は,多人数の自己教師付き表現の評価に利用し,解釈可能性による評価を行う。
論文 参考訳(メタデータ) (2022-09-07T16:18:50Z) - Representation Heterogeneity [5.622134113488239]
本稿では,表象ユニティと表象多様性の両立概念の観点から表現ヘテロジニティの概念を紹介する。
さらに、この2つの概念が、どのような表現の2つの層、すなわち言語と知識にまたがってどのようにインスタンス化されるかを強調します。
論文 参考訳(メタデータ) (2022-07-03T18:20:46Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - On the Fundamental Trade-offs in Learning Invariant Representations [7.868449549351487]
データとそれに対応するターゲットとセマンティック属性間の統計的依存関係によって引き起こされるユーティリティとセマンティック依存の2つの基本的なトレードオフを特定し、決定する。
本稿では,代表問題に対するトレードオフを数値的に定量化し,ベースライン表現学習アルゴリズムによる解と比較する。
論文 参考訳(メタデータ) (2021-09-08T01:26:46Z) - Contrastive Explanations for Model Interpretability [77.92370750072831]
分類モデルの対照的説明を生成する手法を提案する。
本手法は潜在空間へのモデル表現の投影に基づいている。
本研究は,モデル決定のより正確できめ細かな解釈性を提供するためのラベルコントラスト的説明の能力に光を当てた。
論文 参考訳(メタデータ) (2021-03-02T00:36:45Z) - Fairness by Learning Orthogonal Disentangled Representations [50.82638766862974]
不変表現問題に対する新しい非絡み合い手法を提案する。
エントロピーによりセンシティブな情報に依存しない有意義な表現を強制する。
提案手法は5つの公開データセットで評価される。
論文 参考訳(メタデータ) (2020-03-12T11:09:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。