論文の概要: FairHome: A Fair Housing and Fair Lending Dataset
- arxiv url: http://arxiv.org/abs/2409.05990v1
- Date: Mon, 9 Sep 2024 18:34:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-11 20:02:25.033363
- Title: FairHome: A Fair Housing and Fair Lending Dataset
- Title(参考訳): FairHome:フェアハウジングとフェアレンディングのデータセット
- Authors: Anusha Bagalkotkar, Aveek Karmakar, Gabriel Arnson, Ondrej Linda,
- Abstract要約: フェアハウジングとフェアレンディングのデータセット(FairHome):9つの保護されたカテゴリで約75,000のサンプルを持つデータセット。
当社の知る限りでは、FairHomeは、住宅ドメインにおけるコンプライアンスリスクのためにバイナリラベルでラベル付けされた最初の公開データセットです。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We present a Fair Housing and Fair Lending dataset (FairHome): A dataset with around 75,000 examples across 9 protected categories. To the best of our knowledge, FairHome is the first publicly available dataset labeled with binary labels for compliance risk in the housing domain. We demonstrate the usefulness and effectiveness of such a dataset by training a classifier and using it to detect potential violations when using a large language model (LLM) in the context of real-estate transactions. We benchmark the trained classifier against state-of-the-art LLMs including GPT-3.5, GPT-4, LLaMA-3, and Mistral Large in both zero-shot and few-shot contexts. Our classifier outperformed with an F1-score of 0.91, underscoring the effectiveness of our dataset.
- Abstract(参考訳): フェアハウジングとフェアレンディングのデータセット(FairHome):9つの保護されたカテゴリで約75,000のサンプルを持つデータセット。
当社の知る限りでは、FairHomeは、住宅ドメインにおけるコンプライアンスリスクのためにバイナリラベルでラベル付けされた最初の公開データセットです。
実店舗取引の文脈で大規模言語モデル(LLM)を用いた場合,分類器を訓練し,潜在的な違反を検出することによって,そのようなデータセットの有用性と有効性を示す。
我々は,GPT-3.5,GPT-4,LLaMA-3,Mistral Largeといった最先端のLCMに対して,ゼロショットと少数ショットの両文脈でトレーニングした分類器をベンチマークした。
我々の分類器はF1スコア0.91で優れており、データセットの有効性を裏付けている。
関連論文リスト
- On Unsupervised Prompt Learning for Classification with Black-box Language Models [71.60563181678323]
大規模言語モデル(LLM)は、テキスト形式学習問題において顕著な成功を収めた。
LLMは、熟練した人間のアノテータよりも品質の高いデータセットをラベル付けすることができる。
本稿では,ブラックボックス LLM を用いた分類のための教師なしのプロンプト学習を提案する。
論文 参考訳(メタデータ) (2024-10-04T03:39:28Z) - Debiasing Text Safety Classifiers through a Fairness-Aware Ensemble [2.1450827490014865]
クローズドソーステキストセーフティ分類器における対実フェアネスを緩和する軽量後処理法を提案する。
モデルの有効性を評価するためのしきい値に依存しない2つの指標を導入し、これらの指標をFDW(Fair Data Reweighting)と組み合わせることでバイアスを軽減できることを示す。
提案手法は, モデル性能に最小限の影響を伴って, 対実的公正性の向上を図っている。
論文 参考訳(メタデータ) (2024-09-05T14:35:35Z) - FedLLM-Bench: Realistic Benchmarks for Federated Learning of Large Language Models [48.484485609995986]
フェデレートラーニングにより、複数のパーティがデータを直接共有することなく、協力的に大きな言語モデルをトレーニングできるようになった(FedLLM)。
現在、FedLLMの現実的なデータセットやベンチマークは存在しない。
我々は,8つのトレーニング手法,4つのトレーニングデータセット,6つの評価指標を含むFedLLM-Benchを提案する。
論文 参考訳(メタデータ) (2024-06-07T11:19:30Z) - Zero-Shot Spam Email Classification Using Pre-trained Large Language Models [0.0]
本稿では,ゼロショットプロンプトを用いたスパムメール分類における事前学習型大規模言語モデル(LLM)の適用について検討する。
オープンソース (Flan-T5) とプロプライエタリ LLM (ChatGPT, GPT-4) の両方の性能をよく知られた SpamAssassin データセット上で評価した。
論文 参考訳(メタデータ) (2024-05-24T20:55:49Z) - LLMs Can Patch Up Missing Relevance Judgments in Evaluation [56.51461892988846]
我々は、大きな言語モデル(LLM)を使って、不確定な文書を自動的にラベル付けします。
TREC DLトラックの関連性判定から関連文書をランダムにドロップすることで,穴の度合いの異なるシナリオをシミュレートする。
Vicuna-7B と GPT-3.5 Turbo の平均値に対して,Kendall tau の0.87 と 0.92 の相関式が得られた。
論文 参考訳(メタデータ) (2024-05-08T00:32:19Z) - Do Large Language Models Rank Fairly? An Empirical Study on the Fairness of LLMs as Rankers [27.66626125248612]
本稿では,TREC Fair Ranking データセットを用いて,Large Language Models (LLMs) の評価実験を行った。
本稿では, 歴史的に検索結果に乏しい, 性別や地理的位置などの二項保護属性の表現に焦点を当てる。
我々の分析は、これらのLCMがこれらの属性に関連するクエリやドキュメントをどのように扱うのかを考察し、ランキングアルゴリズムのバイアスを明らかにすることを目的としている。
論文 参考訳(メタデータ) (2024-04-04T04:23:19Z) - FairVFL: A Fair Vertical Federated Learning Framework with Contrastive
Adversarial Learning [102.92349569788028]
本稿では,VFLモデルの公平性を改善するために,FairVFL( Fair vertical federated learning framework)を提案する。
FairVFLの中核となる考え方は、分散化された機能フィールドに基づいたサンプルの統一的で公正な表現を、プライバシ保護の方法で学習することである。
ユーザのプライバシ保護のために,サーバ内の統一表現からプライベート情報を除去する対向学習手法を提案する。
論文 参考訳(メタデータ) (2022-06-07T11:43:32Z) - Class-Aware Contrastive Semi-Supervised Learning [51.205844705156046]
本研究では,擬似ラベル品質を向上し,実環境におけるモデルの堅牢性を高めるため,CCSSL(Class-Aware Contrastive Semi-Supervised Learning)と呼ばれる一般的な手法を提案する。
提案するCCSSLは,標準データセットCIFAR100とSTL10の最先端SSLメソッドに対して,大幅な性能向上を実現している。
論文 参考訳(メタデータ) (2022-03-04T12:18:23Z) - Learning Fair Classifiers with Partially Annotated Group Labels [22.838927494573436]
我々は、アノテーション付きグループラベル(FairPG)を用いたアルゴリズムフェアネスと呼ばれるより実践的なシナリオを考える。
フェアネスを意識した学習戦略に容易に適用可能な,簡易な補助グループ割当て(CGL)を提案する。
本手法は, フェアネス基準の観点から, バニラの擬似ラベル方式よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-29T15:11:18Z) - Can We Achieve Fairness Using Semi-Supervised Learning? [13.813788753789428]
半教師付き手法を用いて、公平な分類モデルを作成する。
当社のフレームワークであるFair-SSLは,ラベル付きデータを入力として,ラベルなしデータの擬似ラベルを生成する。
Fair-SSLは3つの最先端バイアス軽減アルゴリズムと同じようなパフォーマンスを実現している。
論文 参考訳(メタデータ) (2021-11-03T06:47:47Z) - Lifelong Property Price Prediction: A Case Study for the Toronto Real
Estate Market [75.28009817291752]
自動資産評価のための最初の寿命予測モデルであるLuceを提示する。
ルースは不動産価格の2つの重要な問題に対処している。
トロント不動産市場から得られた大規模な実生活データセットにLuceを適用することで,Luceのメリットを実証する。
論文 参考訳(メタデータ) (2020-08-12T07:32:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。