論文の概要: Autonomy-Aware Clustering: When Local Decisions Supersede Global Prescriptions
- arxiv url: http://arxiv.org/abs/2509.25775v1
- Date: Tue, 30 Sep 2025 04:44:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 17:09:04.430363
- Title: Autonomy-Aware Clustering: When Local Decisions Supersede Global Prescriptions
- Title(参考訳): 自律型クラスタリング - ローカルな決定がグローバルな処方文に取って代わる時
- Authors: Amber Srivastava, Salar Basiri, Srinivasa Salapaka,
- Abstract要約: 我々は,その形態を事前に知ることなく,地域自治の影響を学習し,考慮する学習フレームワークである自律型クラスタリングを導入する。
また,アダプティブ距離推定ネットワーク(ADEN, Adaptive Distance Estimation Network)を提案する。
- 参考スコア(独自算出の注目度): 0.3058685580689604
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Clustering arises in a wide range of problem formulations, yet most existing approaches assume that the entities under clustering are passive and strictly conform to their assigned groups. In reality, entities often exhibit local autonomy, overriding prescribed associations in ways not fully captured by feature representations. Such autonomy can substantially reshape clustering outcomes -- altering cluster compositions, geometry, and cardinality -- with significant downstream effects on inference and decision-making. We introduce autonomy-aware clustering, a reinforcement (RL) learning framework that learns and accounts for the influence of local autonomy without requiring prior knowledge of its form. Our approach integrates RL with a deterministic annealing (DA) procedure, where, to determine underlying clusters, DA naturally promotes exploration in early stages of annealing and transitions to exploitation later. We also show that the annealing procedure exhibits phase transitions that enable design of efficient annealing schedules. To further enhance adaptability, we propose the Adaptive Distance Estimation Network (ADEN), a transformer-based attention model that learns dependencies between entities and cluster representatives within the RL loop, accommodates variable-sized inputs and outputs, and enables knowledge transfer across diverse problem instances. Empirical results show that our framework closely aligns with underlying data dynamics: even without explicit autonomy models, it achieves solutions close to the ground truth (gap ~3-4%), whereas ignoring autonomy leads to substantially larger gaps (~35-40%). The code and data are publicly available at https://github.com/salar96/AutonomyAwareClustering.
- Abstract(参考訳): クラスタリングは幅広い問題の定式化に現れるが、既存のほとんどのアプローチでは、クラスタリングの下のエンティティは受動的であり、割り当てられたグループに厳密に適合していると仮定している。
実際には、エンティティはしばしばローカルな自主性を示し、特定の協会を特徴表現によって完全に捉えられていない方法でオーバーライドする。
このような自律性は、クラスタ構成、幾何学、基数を変更するというクラスタリングの結果を、推論と意思決定に大きなダウンストリームの影響で、実質的に再形成することができます。
本稿では,その形態に関する事前の知識を必要とせず,地域自治の影響を学習し,考慮するRL学習フレームワークである自律型クラスタリングを紹介する。
提案手法は, RL を決定論的アニール法 (DA) と統合し, 基礎となるクラスタを決定するため, DA はアニールの初期における探索を自然に促進し, 後続のエクスプロイトへの移行を促進する。
また、アニール法は、効率的なアニールスケジュールの設計を可能にする相転移を示すことを示す。
適応性を更に高めるために,RLループ内のエンティティとクラスタの代表者間の依存関係を学習し,可変サイズの入力と出力を許容し,多様な問題インスタンス間の知識伝達を可能にする,トランスフォーマに基づくアダプティブ・ディスタンス推定ネットワーク(ADEN)を提案する。
明示的な自律モデルがなくても、基礎的な真実に近いソリューション(ギャップ~3-4%)を達成できますが、自律性を無視した場合、大きなギャップ(~35-40%)になります。
コードとデータはhttps://github.com/salar96/AutonomyAwareClustering.comで公開されている。
関連論文リスト
- Decentralized Low-Rank Fine-Tuning of Large Language Models [12.270878920401948]
我々は,Low-Rank Adaptation (LoRA)に基づく大規模言語モデル(LLM)のための分散微調整アルゴリズムであるDec-LoRAを提案する。
BERT と LLaMA の実験により,Dec-LoRA は様々な条件下で集中型 LoRA に匹敵する性能を示した。
これらの結果は、分散環境におけるスケーラブルな微調整のためのDec-LoRAの可能性を強調している。
論文 参考訳(メタデータ) (2025-01-26T01:56:25Z) - Federated Automatic Latent Variable Selection in Multi-output Gaussian Processes [0.7366405857677227]
ユニット間で知識を伝達するMGPの一般的なアプローチは、各ユニットから中央サーバーへのすべてのデータ収集である。
本稿では,各潜伏過程の係数にスパイク・アンド・スラブ先行を配置する階層モデルを提案する。
これらの先行は、不要なものの係数を0に縮めることで、必要な潜在プロセスのみを自動的に選択するのに役立つ。
論文 参考訳(メタデータ) (2024-07-24T02:03:28Z) - LoRA-Ensemble: Efficient Uncertainty Modelling for Self-Attention Networks [52.46420522934253]
本稿では,自己注意ネットワークのためのパラメータ効率のよいアンサンブル手法であるLoRA-Ensembleを紹介する。
この方法は、BatchEnsembleのような最先端の暗黙のテクニックを上回るだけでなく、Explicit Ensembleの正確さにマッチするか超える。
論文 参考訳(メタデータ) (2024-05-23T11:10:32Z) - Federated Two Stage Decoupling With Adaptive Personalization Layers [5.69361786082969]
フェデレーション学習は、プライバシ制約を維持しながら分散学習を可能にする能力によって、大きな注目を集めている。
本質的には、学習の劣化と収束速度の低下を経験する。
等質なクライアントを同じ群にクラスタリングするという概念を採用することは自然であり、各群内のモデル重みのみを集約することができる。
論文 参考訳(メタデータ) (2023-08-30T07:46:32Z) - Semi-supervised Domain Adaptive Structure Learning [72.01544419893628]
半教師付きドメイン適応 (SSDA) は,1) アノテーションの低いデータに過度に適合する手法と,2) ドメイン間の分散シフトの両方を克服しなければならない課題である。
SSLとDAの協調を正規化するための適応型構造学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-12T06:11:16Z) - Decentralized Local Stochastic Extra-Gradient for Variational
Inequalities [125.62877849447729]
我々は、不均一(非IID)で多くのデバイスに分散する問題データを持つ領域上での分散変分不等式(VIs)を考察する。
我々は、完全に分散化された計算の設定を網羅する計算ネットワークについて、非常に一般的な仮定を行う。
理論的には, モノトン, モノトンおよび非モノトンセッティングにおける収束速度を理論的に解析する。
論文 参考訳(メタデータ) (2021-06-15T17:45:51Z) - Towards Uncovering the Intrinsic Data Structures for Unsupervised Domain
Adaptation using Structurally Regularized Deep Clustering [119.88565565454378]
Unsupervised Domain Adapt (UDA) は、ターゲットドメイン上のラベルなしデータの予測を行う分類モデルを学ぶことである。
本稿では,対象データの正規化判別クラスタリングと生成クラスタリングを統合する構造的正規化深層クラスタリングのハイブリッドモデルを提案する。
提案するH-SRDCは, インダクティブ設定とトランスダクティブ設定の両方において, 既存の手法よりも優れている。
論文 参考訳(メタデータ) (2020-12-08T08:52:00Z) - Counterfactual Data Augmentation using Locally Factored Dynamics [44.37487079747397]
局所因果構造を利用して、シーケンス予測と非政治強化学習のサンプル効率を向上させることができる。
本稿では,これらの構造をオブジェクト指向の状態表現として推定する手法と,対実データ拡張のための新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-06T16:29:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。