論文の概要: Fairness Auditing with Multi-Agent Collaboration
- arxiv url: http://arxiv.org/abs/2402.08522v1
- Date: Tue, 13 Feb 2024 15:24:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-14 14:50:55.411282
- Title: Fairness Auditing with Multi-Agent Collaboration
- Title(参考訳): マルチエージェントコラボレーションによる公正監査
- Authors: Martijn de Vos and Akash Dhasade and Jade Garcia Bourr\'ee and
Anne-Marie Kermarrec and Erwan Le Merrer and Benoit Rottembourg and Gilles
Tredan
- Abstract要約: 公正監査における既存の作業は、エージェントが独立して動作すると仮定する。
異なるタスクに対して同一プラットフォームを監査する複数のエージェントについて検討する。
エージェントが独立して動作したり協力したりする際の相互作用を理論的に研究する。
意外なことに、コーディネーションが正確さを監査するのに有害である場合もありますが、非コーディネートなコラボレーションは一般的に良い結果をもたらします。
- 参考スコア(独自算出の注目度): 3.8483642628360752
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing work in fairness audits assumes that agents operate independently.
In this paper, we consider the case of multiple agents auditing the same
platform for different tasks. Agents have two levers: their collaboration
strategy, with or without coordination beforehand, and their sampling method.
We theoretically study their interplay when agents operate independently or
collaborate. We prove that, surprisingly, coordination can sometimes be
detrimental to audit accuracy, whereas uncoordinated collaboration generally
yields good results. Experimentation on real-world datasets confirms this
observation, as the audit accuracy of uncoordinated collaboration matches that
of collaborative optimal sampling.
- Abstract(参考訳): 公正監査における既存の作業は、エージェントが独立して動作すると仮定する。
本稿では,複数のエージェントが異なるタスクに対して同じプラットフォームを監査する場合を考える。
エージェントには2つのレバーがある:彼らの協調戦略、事前調整の有無、サンプリング方法。
エージェントが独立して動作したり協力したりする際の相互作用を理論的に研究する。
驚くべきことに、協調は監査の正確さを損なうことがあるが、調整されていないコラボレーションは一般的に良い結果をもたらす。
実世界のデータセットに関する実験は、協調しないコラボレーションの監査精度が協調的最適サンプリングのそれと一致するため、この観察を裏付ける。
関連論文リスト
- Learning to Use Tools via Cooperative and Interactive Agents [58.77710337157665]
ツール学習は、外部ツールを使用してユーティリティを拡張するエージェントとして、大きな言語モデル(LLM)を促進する。
ツール選択,ツール実行,アクションキャリブレーションの3つの特別なエージェントを個別にコーディネートする,協調型対話型エージェントフレームワークであるConAgentsを提案する。
3つのデータセットに対する実験により、LLMは、ConAgentsを装備した場合、大幅に改善されたベースラインよりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-03-05T15:08:16Z) - Towards Reasoning in Large Language Models via Multi-Agent Peer Review
Collaboration [28.299379264080603]
大規模言語モデル(LLM)は、一般的な自然言語処理タスクにおいて顕著な能力を示しているが、複雑な推論タスクでは不足することが多い。
近年の研究では、自己正当性のような人間的な問題解決戦略を探求し、単一モデル推論能力の境界を推し進めている。
学術的ピアレビュープロセスをエミュレートするマルチエージェントコラボレーション戦略を導入する。
論文 参考訳(メタデータ) (2023-11-14T13:27:07Z) - Establishing Shared Query Understanding in an Open Multi-Agent System [1.2031796234206138]
本研究では,協調を要するタスクを実行するために,2つのエージェント間の共通理解を開発する手法を提案する。
本手法は,オープンマルチエージェントシステムにおけるタスク指向コミュニケーションの効率向上に重点を置いている。
論文 参考訳(メタデータ) (2023-05-16T11:07:05Z) - On the Complexity of Multi-Agent Decision Making: From Learning in Games
to Partial Monitoring [105.13668993076801]
マルチエージェント強化学習(MARL)理論における中心的な問題は、構造条件やアルゴリズムの原理がサンプル効率の学習保証につながるかを理解することである。
本稿では,複数のエージェントを用いた対話型意思決定のための一般的な枠組みとして,この問題について考察する。
マルチエージェント意思決定における統計的複雑性を特徴付けることは、単一エージェント決定の統計的複雑性を特徴付けることと等価であることを示す。
論文 参考訳(メタデータ) (2023-05-01T06:46:22Z) - Assaying Out-Of-Distribution Generalization in Transfer Learning [103.57862972967273]
私たちは、経験的に対処するメッセージの相違を強調して、以前の作業の統一的なビューを取ります。
私たちは9つの異なるアーキテクチャから、多数の、あるいは少数の設定で31K以上のネットワークを微調整しました。
論文 参考訳(メタデータ) (2022-07-19T12:52:33Z) - The Dichotomous Affiliate Stable Matching Problem: Approval-Based
Matching with Applicant-Employer Relations [27.388757379210034]
本稿では,DASM問題(Dichotomous Affiliate Stable Matching)について紹介する。
その結果は,(1)実世界のマッチングランキングが仮定された評価関数に従うことを示すために人間による研究,(2)そのような解を見つけるための効率的で実装が容易なアルゴリズムを提供することによって,常に安定した解が存在することを証明し,(3)線形プログラミングに基づくアプローチと比較して,アルゴリズムの有効性を実験的に検証する。
論文 参考訳(メタデータ) (2022-02-22T18:56:21Z) - Multi-view Contrastive Self-Supervised Learning of Accounting Data
Representations for Downstream Audit Tasks [1.9659095632676094]
国際監査基準では、財務諸表の根底にある会計取引を直接評価する必要がある。
ディープラーニングにインスパイアされた監査技術は、大量のジャーナルエントリデータを監査する分野に現れている。
本研究では,監査タスク不変な会計データ表現の学習を目的とした,自己指導型自己学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-23T08:16:31Z) - Federated Learning under Importance Sampling [49.17137296715029]
本研究は, サンプリングエージェントと非均一に誘導されるデータに対する重要サンプリングと工夫の効果について検討する。
代替のないサンプリングを含むスキームでは,結果のアーキテクチャの性能は,各エージェントのデータ変動性に関連する2つの要因によって制御される。
論文 参考訳(メタデータ) (2020-12-14T10:08:55Z) - Mitigating Manipulation in Peer Review via Randomized Reviewer
Assignments [96.114824979298]
コンファレンスピアレビューにおける3つの重要な課題は、特定の論文に割り当てられる悪意のある試みであり、"Torpedo reviewing"である。
我々は、これらの課題を共通の傘の下にまとめ、レビュアーの割り当てのための(ランダム化された)アルゴリズムを示すフレームワークを提案する。
我々のアルゴリズムは、悪意のあるレビュアーが希望する論文に割り当てられる確率を50%に抑えつつ、完全な最適類似性の90%以上を割り当てることができます。
論文 参考訳(メタデータ) (2020-06-29T23:55:53Z) - Robust Learning Through Cross-Task Consistency [92.42534246652062]
クロスタスク整合性を用いた学習向上のための,広く適用可能な完全計算手法を提案する。
クロスタスク一貫性による学習は,より正確な予測と,アウト・オブ・ディストリビューション・インプットの一般化につながることを観察する。
論文 参考訳(メタデータ) (2020-06-07T09:24:33Z) - Sequential Cooperative Bayesian Inference [16.538512182336827]
協調とは、データを選択するエージェントとデータから学習するエージェントが同じ目標を持ち、学習者が意図した仮説を推測することを意味する。
近年の人間と機械学習のモデルが協調の可能性を実証している。
論文 参考訳(メタデータ) (2020-02-13T18:48:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。