論文の概要: Optimal Information Combining for Multi-Agent Systems Using Adaptive Bias Learning
- arxiv url: http://arxiv.org/abs/2510.25793v1
- Date: Tue, 28 Oct 2025 21:52:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-31 16:05:09.488452
- Title: Optimal Information Combining for Multi-Agent Systems Using Adaptive Bias Learning
- Title(参考訳): 適応バイアス学習を用いたマルチエージェントシステムのための最適情報結合
- Authors: Siavash M. Alamouti, Fay Arjomandi,
- Abstract要約: 現在のアプローチでは、これらのバイアスを無視し、最適以下の決定につながるか、あるいは実際は不可能な高価なキャリブレーション手順を必要とする。
本稿は,これらの未知のバイアスをいつ学習し,正し,ほぼ最適性能を回復できるか,という根本的な問題に対処する。
バイアスを学習可能な体系的構成要素と既約コンポーネントに分解する理論的枠組みを開発する。
学習容易度が高いシステムは高い性能を回復できるが,学習可能性の低いシステムは最小限の利益を得られることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern multi-agent systems ranging from sensor networks monitoring critical infrastructure to crowdsourcing platforms aggregating human intelligence can suffer significant performance degradation due to systematic biases that vary with environmental conditions. Current approaches either ignore these biases, leading to suboptimal decisions, or require expensive calibration procedures that are often infeasible in practice. This performance gap has real consequences: inaccurate environmental monitoring, unreliable financial predictions, and flawed aggregation of human judgments. This paper addresses the fundamental question: when can we learn and correct for these unknown biases to recover near-optimal performance, and when is such learning futile? We develop a theoretical framework that decomposes biases into learnable systematic components and irreducible stochastic components, introducing the concept of learnability ratio as the fraction of bias variance predictable from observable covariates. This ratio determines whether bias learning is worthwhile for a given system. We prove that the achievable performance improvement is fundamentally bounded by this learnability ratio, providing system designers with quantitative guidance on when to invest in bias learning versus simpler approaches. We present the Adaptive Bias Learning and Optimal Combining (ABLOC) algorithm, which iteratively learns bias-correcting transformations while optimizing combination weights through closedform solutions, guaranteeing convergence to these theoretical bounds. Experimental validation demonstrates that systems with high learnability ratios can recover significant performance (we achieved 40%-70% of theoretical maximum improvement in our examples), while those with low learnability show minimal benefit, validating our diagnostic criteria for practical deployment decisions.
- Abstract(参考訳): 重要なインフラをモニタリングするセンサーネットワークからクラウドソーシングプラットフォームまで、現代のマルチエージェントシステムは、環境条件によって異なる体系的バイアスにより、人間の知能を集約するパフォーマンスが著しく低下する可能性がある。
現在のアプローチでは、これらのバイアスを無視し、最適以下の決定につながるか、あるいは実際は不可能な高価なキャリブレーション手順を必要とする。
このパフォーマンスギャップは、不正確な環境モニタリング、信頼性の低い財務予測、人間の判断の不十分な集約など、真の結果をもたらす。
本稿は、これらの未知のバイアスをいつ学習し、正すことができ、最適に近い性能を回復できるのか、いつそのような学習が無駄になるのか、という根本的な問題に対処する。
本研究では,学習可能な体系成分と既約確率成分に偏りを分解する理論フレームワークを開発し,観測可能な共変量から予測可能な偏差分数として学習可能性比の概念を導入する。
この比率は、バイアス学習が与えられたシステムに価値があるかどうかを決定する。
この学習可能性比によって達成可能な性能改善が根本的に制限されていることを証明し、システム設計者がバイアス学習にいつ投資すべきかを定量的なガイダンスを提供する。
本稿では, 適応バイアス学習と最適組合せ (ABLOC) アルゴリズムを提案する。これは, 偏差補正変換を反復的に学習し, 閉形式解による組合せ重み付けを最適化し, それらの理論的境界への収束を保証する。
実験による検証では,高い学習可能性比を持つシステムでは大幅な性能回復が可能であることが示され(我々の例では,理論上の最大改善の40%-70%を達成),低学習可能性のシステムは最小限の利益を示し,実用的展開決定のための診断基準を検証した。
関連論文リスト
- Online Matching via Reinforcement Learning: An Expert Policy Orchestration Strategy [5.913458789333235]
本稿では,そのような専門家政策の集合を組織化する強化学習(RL)手法を提案する。
我々は、期待と高確率の後悔の保証を確立し、時間差学習のための新しい有限時間バイアスを導出する。
その結果、構造化された適応型学習が複雑な資源配分と意思決定プロセスのモデリングと管理をいかに改善するかを強調した。
論文 参考訳(メタデータ) (2025-10-07T23:26:16Z) - Optimizers Qualitatively Alter Solutions And We Should Leverage This [62.662640460717476]
ディープニューラルネットワーク(DNN)は、SGDのようなローカル情報のみを使用する場合、損失のグローバルな最小限に収束することを保証できない。
コミュニティは、既存のメソッドのバイアスを理解すること、また、ソリューションの特定の特性を誘発する明示的な意図で、新しいDNNを構築することを目的としている。
論文 参考訳(メタデータ) (2025-07-16T13:33:31Z) - Can Uncertainty Quantification Improve Learned Index Benefit Estimation? [11.25347279227943]
インデックスチューニングは、ワークロードに基づいて最適なインデックスを選択することで、データベースのパフォーマンスを最適化するために不可欠である。
従来の道具に依存する手法は、しばしば非効率性と不正確さに悩まされる。
我々は,不確実性定量化を伴う学習ベースモデルを強化する最初の不確実性認識フレームワークであるBeautyを提案する。
論文 参考訳(メタデータ) (2024-10-23T10:23:53Z) - Optimal Baseline Corrections for Off-Policy Contextual Bandits [61.740094604552475]
オンライン報酬指標の偏りのないオフライン推定を最適化する意思決定ポリシーを学習することを目指している。
学習シナリオにおける同値性に基づく単一のフレームワークを提案する。
我々のフレームワークは、分散最適非バイアス推定器の特徴付けを可能にし、それに対する閉形式解を提供する。
論文 参考訳(メタデータ) (2024-05-09T12:52:22Z) - Balanced Q-learning: Combining the Influence of Optimistic and
Pessimistic Targets [74.04426767769785]
シナリオによっては、特定の種類の偏見が好ましいかもしれないことを示す。
そこで我々は,目標を悲観的かつ楽観的な用語の凸組合せに修正した新しい強化学習アルゴリズムであるBa balanced Q-learningを設計する。
論文 参考訳(メタデータ) (2021-11-03T07:30:19Z) - Probabilistic robust linear quadratic regulators with Gaussian processes [73.0364959221845]
ガウス過程(GP)のような確率モデルは、制御設計に続く使用のためのデータから未知の動的システムを学ぶための強力なツールです。
本稿では、確率的安定性マージンに関して堅牢なコントローラを生成する線形化GPダイナミクスのための新しいコントローラ合成について述べる。
論文 参考訳(メタデータ) (2021-05-17T08:36:18Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z) - Recursive Experts: An Efficient Optimal Mixture of Learning Systems in
Dynamic Environments [0.0]
逐次学習システムは、意思決定から最適化まで、幅広い問題で使われている。
目的は、自然のフィードバック(状態)に固有の時間的関係を利用して目標に達することである。
本稿では,一般的な逐次学習システムのための最適混合フレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-19T15:02:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。