論文の概要: Fairness Auditing with Multi-Agent Collaboration
- arxiv url: http://arxiv.org/abs/2402.08522v2
- Date: Fri, 26 Apr 2024 13:44:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-29 17:28:28.577383
- Title: Fairness Auditing with Multi-Agent Collaboration
- Title(参考訳): マルチエージェントコラボレーションによるフェアネス監査
- Authors: Martijn de Vos, Akash Dhasade, Jade Garcia Bourrée, Anne-Marie Kermarrec, Erwan Le Merrer, Benoit Rottembourg, Gilles Tredan,
- Abstract要約: 複数のエージェントが協力して作業し、それぞれが異なるタスクのために同じプラットフォームを監査します。
エージェントは、協調戦略と適切なデータポイントを抽出する戦略の2つのレバーを持っている。
主な知見は, (i) 協調は, 一般に正確な監査に有用であり, (ii) 基本サンプリング法は有効であることが証明されることが多く, (iii) クエリに対する広範囲な調整は, エージェント数の増加とともに監査の精度を低下させることが多いことである。
- 参考スコア(独自算出の注目度): 3.6646002427839135
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing work in fairness auditing assumes that each audit is performed independently. In this paper, we consider multiple agents working together, each auditing the same platform for different tasks. Agents have two levers: their collaboration strategy, with or without coordination beforehand, and their strategy for sampling appropriate data points. We theoretically compare the interplay of these levers. Our main findings are that (i) collaboration is generally beneficial for accurate audits, (ii) basic sampling methods often prove to be effective, and (iii) counter-intuitively, extensive coordination on queries often deteriorates audits accuracy as the number of agents increases. Experiments on three large datasets confirm our theoretical results. Our findings motivate collaboration during fairness audits of platforms that use ML models for decision-making.
- Abstract(参考訳): 公正監査における既存の作業は、各監査が独立して実行されることを前提としている。
本稿では,複数のエージェントが協調して作業し,それぞれが異なるタスクに対して同じプラットフォームを監査する。
エージェントは、協調戦略と適切なデータポイントを抽出する戦略の2つのレバーを持っている。
これらのレバーの相互作用を理論的に比較する。
私たちの主な発見は
(i)コラボレーションは一般に正確な監査に有用である。
二 基本サンプリング方法が有効であることがしばしば証明され、
3)質問に対する広範囲な調整は,エージェントの数が増加するにつれて,監査の精度が低下することが多い。
3つの大きなデータセットの実験は、我々の理論的結果を確認します。
本研究は,意思決定にMLモデルを使用するプラットフォームの公正度監査において,協調を動機づけるものである。
関連論文リスト
- Learning to Use Tools via Cooperative and Interactive Agents [58.77710337157665]
ツール学習は、外部ツールを使用してユーティリティを拡張するエージェントとして、大きな言語モデル(LLM)を促進する。
ツール選択,ツール実行,アクションキャリブレーションの3つの特別なエージェントを個別にコーディネートする,協調型対話型エージェントフレームワークであるConAgentsを提案する。
3つのデータセットに対する実験により、LLMは、ConAgentsを装備した場合、大幅に改善されたベースラインよりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-03-05T15:08:16Z) - Towards Reasoning in Large Language Models via Multi-Agent Peer Review
Collaboration [28.299379264080603]
大規模言語モデル(LLM)は、一般的な自然言語処理タスクにおいて顕著な能力を示しているが、複雑な推論タスクでは不足することが多い。
近年の研究では、自己正当性のような人間的な問題解決戦略を探求し、単一モデル推論能力の境界を推し進めている。
学術的ピアレビュープロセスをエミュレートするマルチエージェントコラボレーション戦略を導入する。
論文 参考訳(メタデータ) (2023-11-14T13:27:07Z) - Establishing Shared Query Understanding in an Open Multi-Agent System [1.2031796234206138]
本研究では,協調を要するタスクを実行するために,2つのエージェント間の共通理解を開発する手法を提案する。
本手法は,オープンマルチエージェントシステムにおけるタスク指向コミュニケーションの効率向上に重点を置いている。
論文 参考訳(メタデータ) (2023-05-16T11:07:05Z) - On the Complexity of Multi-Agent Decision Making: From Learning in Games
to Partial Monitoring [105.13668993076801]
マルチエージェント強化学習(MARL)理論における中心的な問題は、構造条件やアルゴリズムの原理がサンプル効率の学習保証につながるかを理解することである。
本稿では,複数のエージェントを用いた対話型意思決定のための一般的な枠組みとして,この問題について考察する。
マルチエージェント意思決定における統計的複雑性を特徴付けることは、単一エージェント決定の統計的複雑性を特徴付けることと等価であることを示す。
論文 参考訳(メタデータ) (2023-05-01T06:46:22Z) - Assaying Out-Of-Distribution Generalization in Transfer Learning [103.57862972967273]
私たちは、経験的に対処するメッセージの相違を強調して、以前の作業の統一的なビューを取ります。
私たちは9つの異なるアーキテクチャから、多数の、あるいは少数の設定で31K以上のネットワークを微調整しました。
論文 参考訳(メタデータ) (2022-07-19T12:52:33Z) - The Dichotomous Affiliate Stable Matching Problem: Approval-Based
Matching with Applicant-Employer Relations [27.388757379210034]
本稿では,DASM問題(Dichotomous Affiliate Stable Matching)について紹介する。
その結果は,(1)実世界のマッチングランキングが仮定された評価関数に従うことを示すために人間による研究,(2)そのような解を見つけるための効率的で実装が容易なアルゴリズムを提供することによって,常に安定した解が存在することを証明し,(3)線形プログラミングに基づくアプローチと比較して,アルゴリズムの有効性を実験的に検証する。
論文 参考訳(メタデータ) (2022-02-22T18:56:21Z) - Multi-view Contrastive Self-Supervised Learning of Accounting Data
Representations for Downstream Audit Tasks [1.9659095632676094]
国際監査基準では、財務諸表の根底にある会計取引を直接評価する必要がある。
ディープラーニングにインスパイアされた監査技術は、大量のジャーナルエントリデータを監査する分野に現れている。
本研究では,監査タスク不変な会計データ表現の学習を目的とした,自己指導型自己学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-23T08:16:31Z) - Federated Learning under Importance Sampling [49.17137296715029]
本研究は, サンプリングエージェントと非均一に誘導されるデータに対する重要サンプリングと工夫の効果について検討する。
代替のないサンプリングを含むスキームでは,結果のアーキテクチャの性能は,各エージェントのデータ変動性に関連する2つの要因によって制御される。
論文 参考訳(メタデータ) (2020-12-14T10:08:55Z) - Mitigating Manipulation in Peer Review via Randomized Reviewer
Assignments [96.114824979298]
コンファレンスピアレビューにおける3つの重要な課題は、特定の論文に割り当てられる悪意のある試みであり、"Torpedo reviewing"である。
我々は、これらの課題を共通の傘の下にまとめ、レビュアーの割り当てのための(ランダム化された)アルゴリズムを示すフレームワークを提案する。
我々のアルゴリズムは、悪意のあるレビュアーが希望する論文に割り当てられる確率を50%に抑えつつ、完全な最適類似性の90%以上を割り当てることができます。
論文 参考訳(メタデータ) (2020-06-29T23:55:53Z) - Robust Learning Through Cross-Task Consistency [92.42534246652062]
クロスタスク整合性を用いた学習向上のための,広く適用可能な完全計算手法を提案する。
クロスタスク一貫性による学習は,より正確な予測と,アウト・オブ・ディストリビューション・インプットの一般化につながることを観察する。
論文 参考訳(メタデータ) (2020-06-07T09:24:33Z) - Sequential Cooperative Bayesian Inference [16.538512182336827]
協調とは、データを選択するエージェントとデータから学習するエージェントが同じ目標を持ち、学習者が意図した仮説を推測することを意味する。
近年の人間と機械学習のモデルが協調の可能性を実証している。
論文 参考訳(メタデータ) (2020-02-13T18:48:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。