論文の概要: Autonomy-Aware Clustering: When Local Decisions Supersede Global Prescriptions
- arxiv url: http://arxiv.org/abs/2509.25775v3
- Date: Wed, 08 Oct 2025 16:05:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 14:21:18.175775
- Title: Autonomy-Aware Clustering: When Local Decisions Supersede Global Prescriptions
- Title(参考訳): 自律型クラスタリング - ローカルな決定がグローバルな処方文に取って代わる時
- Authors: Amber Srivastava, Salar Basiri, Srinivasa Salapaka,
- Abstract要約: 我々は,その形態を事前に知ることなく,地域自治の影響を学習し,考慮するフレームワークである自律型クラスタリングを導入する。
また,アダプティブ距離推定ネットワーク(ADEN, Adaptive Distance Estimation Network)を提案する。
- 参考スコア(独自算出の注目度): 0.3058685580689604
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Clustering arises in a wide range of problem formulations, yet most existing approaches assume that the entities under clustering are passive and strictly conform to their assigned groups. In reality, entities often exhibit local autonomy, overriding prescribed associations in ways not fully captured by feature representations. Such autonomy can substantially reshape clustering outcomes -- altering cluster compositions, geometry, and cardinality -- with significant downstream effects on inference and decision-making. We introduce autonomy-aware clustering, a reinforcement learning (RL) framework that learns and accounts for the influence of local autonomy without requiring prior knowledge of its form. Our approach integrates RL with a Deterministic Annealing (DA) procedure, where, to determine underlying clusters, DA naturally promotes exploration in early stages of annealing and transitions to exploitation later. We also show that the annealing procedure exhibits phase transitions that enable design of efficient annealing schedules. To further enhance adaptability, we propose the Adaptive Distance Estimation Network (ADEN), a transformer-based attention model that learns dependencies between entities and cluster representatives within the RL loop, accommodates variable-sized inputs and outputs, and enables knowledge transfer across diverse problem instances. Empirical results show that our framework closely aligns with underlying data dynamics: even without explicit autonomy models, it achieves solutions close to the ground truth (gap ~3-4%), whereas ignoring autonomy leads to substantially larger gaps (~35-40%). The code and data are publicly available at https://github.com/salar96/AutonomyAwareClustering.
- Abstract(参考訳): クラスタリングは幅広い問題の定式化に現れるが、既存のほとんどのアプローチでは、クラスタリングの下のエンティティは受動的であり、割り当てられたグループに厳密に適合していると仮定している。
実際には、エンティティはしばしばローカルな自主性を示し、特定の協会を特徴表現によって完全に捉えられていない方法でオーバーライドする。
このような自律性は、クラスタ構成、幾何学、基数を変更するというクラスタリングの結果を、推論と意思決定に大きなダウンストリームの影響で、実質的に再形成することができます。
本稿では,その形態に関する事前の知識を必要とせず,地域自治の影響を学習・説明する強化学習(RL)フレームワークである自律型クラスタリングを紹介する。
提案手法はRLを決定論的アナリング (DA) 手順と統合し, 基礎となるクラスタを決定するため, DAはアニーリングの初期段階における探索を自然に促進し, 後続のエクスプロイトへの移行を促進する。
また、アニール法は、効率的なアニールスケジュールの設計を可能にする相転移を示すことを示す。
適応性を更に高めるために,RLループ内のエンティティとクラスタの代表者間の依存関係を学習し,可変サイズの入力と出力を許容し,多様な問題インスタンス間の知識伝達を可能にする,トランスフォーマに基づくアダプティブ・ディスタンス推定ネットワーク(ADEN)を提案する。
明示的な自律モデルがなくても、基礎的な真実に近いソリューション(ギャップ~3-4%)を達成できますが、自律性を無視した場合、大きなギャップ(~35-40%)になります。
コードとデータはhttps://github.com/salar96/AutonomyAwareClustering.comで公開されている。
関連論文リスト
- Wireless Federated Multi-Task LLM Fine-Tuning via Sparse-and-Orthogonal LoRA [61.12136997430116]
低ランク適応(LoRA)に基づく分散連合学習(DFL)により、マルチタスクデータセットを持つモバイルデバイスは、ローカルに更新されたパラメータを、無線接続を介して近隣デバイスのサブセットと交換することで、大きな言語モデル(LLM)を協調的に微調整することができる。
不均一データセットに微調整されたパラメータを直接集約すると、DFLライフサイクルの3つの主要な問題が発生する: (i) 微調整プロセス中に忘れる破滅的な知識、(ii) データの異種性に起因する更新方向の矛盾に起因する。
論文 参考訳(メタデータ) (2026-02-24T02:45:32Z) - Federated Attention: A Distributed Paradigm for Collaborative LLM Inference over Edge Networks [63.541114376141735]
大規模言語モデル(LLM)は、さまざまなアプリケーションシナリオにまたがってインテリジェントな機能を提供しながら、急速に普及しています。
しかし、彼らの共同シナリオにおける実践的なデプロイは、プライバシの脆弱性、通信オーバーヘッド、計算ボトルネックといった根本的な課題に直面します。
我々はフェデレート・アテンション(FedAttn)を提案し、フェデレーション・パラダイムを自己注意機構に統合する。
論文 参考訳(メタデータ) (2025-11-04T15:14:58Z) - Alignment Tipping Process: How Self-Evolution Pushes LLM Agents Off the Rails [103.05296856071931]
本稿では,自己進化型大規模言語モデル(LLM)エージェントに特有の,アライメント・ティッピング・プロセス(ATP)を同定する。
ATPは、連続的な相互作用によってエージェントが訓練中に確立されたアライメント制約を放棄し、強化された自己関心の戦略を支持するときに生じる。
実験の結果、アライメントの利点は自己進化の下で急速に低下し、最初は整合性のない状態に収束したモデルであることが判明した。
論文 参考訳(メタデータ) (2025-10-06T14:48:39Z) - Decentralized Low-Rank Fine-Tuning of Large Language Models [12.270878920401948]
我々は,Low-Rank Adaptation (LoRA)に基づく大規模言語モデル(LLM)のための分散微調整アルゴリズムであるDec-LoRAを提案する。
BERT と LLaMA の実験により,Dec-LoRA は様々な条件下で集中型 LoRA に匹敵する性能を示した。
これらの結果は、分散環境におけるスケーラブルな微調整のためのDec-LoRAの可能性を強調している。
論文 参考訳(メタデータ) (2025-01-26T01:56:25Z) - Federated Automatic Latent Variable Selection in Multi-output Gaussian Processes [0.7366405857677227]
ユニット間で知識を伝達するMGPの一般的なアプローチは、各ユニットから中央サーバーへのすべてのデータ収集である。
本稿では,各潜伏過程の係数にスパイク・アンド・スラブ先行を配置する階層モデルを提案する。
これらの先行は、不要なものの係数を0に縮めることで、必要な潜在プロセスのみを自動的に選択するのに役立つ。
論文 参考訳(メタデータ) (2024-07-24T02:03:28Z) - LoRA-Ensemble: Efficient Uncertainty Modelling for Self-Attention Networks [52.46420522934253]
本稿では,自己注意ネットワークのためのパラメータ効率のよいアンサンブル手法であるLoRA-Ensembleを紹介する。
この方法は、BatchEnsembleのような最先端の暗黙のテクニックを上回るだけでなく、Explicit Ensembleの正確さにマッチするか超える。
論文 参考訳(メタデータ) (2024-05-23T11:10:32Z) - Federated Two Stage Decoupling With Adaptive Personalization Layers [5.69361786082969]
フェデレーション学習は、プライバシ制約を維持しながら分散学習を可能にする能力によって、大きな注目を集めている。
本質的には、学習の劣化と収束速度の低下を経験する。
等質なクライアントを同じ群にクラスタリングするという概念を採用することは自然であり、各群内のモデル重みのみを集約することができる。
論文 参考訳(メタデータ) (2023-08-30T07:46:32Z) - Unifying and Personalizing Weakly-supervised Federated Medical Image
Segmentation via Adaptive Representation and Aggregation [1.121358474059223]
フェデレートラーニング(FL)は、データプライバシとセキュリティを損なうことなく、複数のサイトが協力して強力なディープモデルをトレーニングすることを可能にする。
微粒な監督を施した弱く監督されたセグメンテーションは、アノテーションコストを下げる大きな可能性を秘めているため、ますます注目されている。
医用画像セグメンテーションのための新しいFLフレームワークであるFedICRAを提案する。
論文 参考訳(メタデータ) (2023-04-12T06:32:08Z) - Feature Correlation-guided Knowledge Transfer for Federated
Self-supervised Learning [19.505644178449046]
特徴相関に基づくアグリゲーション(FedFoA)を用いたフェデレーション型自己教師型学習法を提案する。
私たちの洞察は、機能相関を利用して、特徴マッピングを整列し、ローカルトレーニングプロセス中にクライアント間でローカルモデルの更新を校正することにあります。
我々はFedFoAがモデルに依存しないトレーニングフレームワークであることを証明する。
論文 参考訳(メタデータ) (2022-11-14T13:59:50Z) - Semi-supervised Domain Adaptive Structure Learning [72.01544419893628]
半教師付きドメイン適応 (SSDA) は,1) アノテーションの低いデータに過度に適合する手法と,2) ドメイン間の分散シフトの両方を克服しなければならない課題である。
SSLとDAの協調を正規化するための適応型構造学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-12T06:11:16Z) - Decentralized Local Stochastic Extra-Gradient for Variational
Inequalities [125.62877849447729]
我々は、不均一(非IID)で多くのデバイスに分散する問題データを持つ領域上での分散変分不等式(VIs)を考察する。
我々は、完全に分散化された計算の設定を網羅する計算ネットワークについて、非常に一般的な仮定を行う。
理論的には, モノトン, モノトンおよび非モノトンセッティングにおける収束速度を理論的に解析する。
論文 参考訳(メタデータ) (2021-06-15T17:45:51Z) - Towards Uncovering the Intrinsic Data Structures for Unsupervised Domain
Adaptation using Structurally Regularized Deep Clustering [119.88565565454378]
Unsupervised Domain Adapt (UDA) は、ターゲットドメイン上のラベルなしデータの予測を行う分類モデルを学ぶことである。
本稿では,対象データの正規化判別クラスタリングと生成クラスタリングを統合する構造的正規化深層クラスタリングのハイブリッドモデルを提案する。
提案するH-SRDCは, インダクティブ設定とトランスダクティブ設定の両方において, 既存の手法よりも優れている。
論文 参考訳(メタデータ) (2020-12-08T08:52:00Z) - Counterfactual Data Augmentation using Locally Factored Dynamics [44.37487079747397]
局所因果構造を利用して、シーケンス予測と非政治強化学習のサンプル効率を向上させることができる。
本稿では,これらの構造をオブジェクト指向の状態表現として推定する手法と,対実データ拡張のための新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-06T16:29:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。