論文の概要: Co-Alignment: Rethinking Alignment as Bidirectional Human-AI Cognitive Adaptation
- arxiv url: http://arxiv.org/abs/2509.12179v1
- Date: Mon, 15 Sep 2025 17:41:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:23.43383
- Title: Co-Alignment: Rethinking Alignment as Bidirectional Human-AI Cognitive Adaptation
- Title(参考訳): 協調アライメント:アライメントを双方向のヒューマンAI認知適応として再考する
- Authors: Yubo Li, Weiyi Song,
- Abstract要約: RLHFによる現在のAIアライメントは、人間の認識を固定として扱いながら、AIが人間の嗜好に準拠する、単一の方向性パラダイムに従っている。
我々は,人間とAIが相互に適応する双方向認知アライメント(Bidirectional Cognitive Alignment, BiCA)による協調調整への移行を提案する。
- 参考スコア(独自算出の注目度): 7.969018781312211
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Current AI alignment through RLHF follows a single directional paradigm that AI conforms to human preferences while treating human cognition as fixed. We propose a shift to co-alignment through Bidirectional Cognitive Alignment (BiCA), where humans and AI mutually adapt. BiCA uses learnable protocols, representation mapping, and KL-budget constraints for controlled co-evolution. In collaborative navigation, BiCA achieved 85.5% success versus 70.3% baseline, with 230% better mutual adaptation and 332% better protocol convergence. Emergent protocols outperformed handcrafted ones by 84%, while bidirectional adaptation unexpectedly improved safety (+23% out-of-distribution robustness). The 46% synergy improvement demonstrates optimal collaboration exists at the intersection, not union, of human and AI capabilities, validating the shift from single-directional to co-alignment paradigms.
- Abstract(参考訳): RLHFによる現在のAIアライメントは、人間の認識を固定として扱いながら、AIが人間の嗜好に準拠する、単一の方向性パラダイムに従っている。
我々は,人間とAIが相互に適応する双方向認知アライメント(Bidirectional Cognitive Alignment, BiCA)による協調調整への移行を提案する。
BiCAは、学習可能なプロトコル、表現マッピング、制御された共進化のためのKL予算制約を使用する。
共同航法において、BiCAは、70.3%のベースラインに対して85.5%の成功し、230%の相互適応と332%のプロトコル収束を達成した。
創発的プロトコルは手工芸品を84%上回り、双方向適応は予想外に安全性を向上した(+23%のアウト・オブ・ディストリビューション・ロバスト性)。
46%のシナジー改善は、統合ではなく、人間とAIの能力の交差点に最適なコラボレーションが存在することを示した。
関連論文リスト
- Direct Advantage Regression: Aligning LLMs with Online AI Reward [59.78549819431632]
オンラインAIフィードバック(OAIF)は、人間からの強化学習(RLHF)に代わる有望な代替手段を提供する
我々は,重み付き教師付き微調整による政策改善を最適化するダイレクトアドバンテージ・レグレッション(DAR)を提案する。
我々の経験的結果は、AI報酬はAIの好みとは対照的に、より高度な人間とAIの合意を一貫して達成するAI監督のより良い形態であることを示している。
論文 参考訳(メタデータ) (2025-04-19T04:44:32Z) - Automatic Curriculum Design for Zero-Shot Human-AI Coordination [4.634917646296438]
ゼロショットヒューマンAIコーディネーション(ゼロショットヒューマンAIコーディネーション)とは、人間データなしで人間と協調するエゴエージェントのトレーニングである。
ゼロショット人間-AI協調設定のためのユーティリティ関数とコプレーヤサンプリングを提案する。
本手法は,見知らぬ環境下での人間とAIの協調作業において高い性能を達成する。
論文 参考訳(メタデータ) (2025-03-10T12:55:31Z) - Scalable Reinforcement Post-Training Beyond Static Human Prompts: Evolving Alignment via Asymmetric Self-Play [52.3079697845254]
evaは、オフラインとオンラインのRLポストトレーニングの両方で、言語モデルがトレーニングプロンプトを適応的に作成できるようにする最初の方法である。
我々は,エバが有効なRLキュリキュラを作成でき,アブレーションにまたがって堅牢であることを示す。
論文 参考訳(メタデータ) (2024-10-31T08:15:32Z) - Unsupervised Cross-Domain Image Retrieval via Prototypical Optimal Transport [24.141959555741696]
教師なしクロスドメイン画像検索は、ラベル付きデータに頼ることなく、さまざまな領域で同じカテゴリを共有する画像を検索することを目的としている。
従来のアプローチでは、UCIRの問題をドメイン内表現学習とドメイン間特徴アライメントという2つの異なるタスクに分解していた。
本稿では,UCIR に最適化された新規な Optimal Transport の定式化である ProtoOT を紹介する。
論文 参考訳(メタデータ) (2024-02-28T15:31:45Z) - iPLAN: Intent-Aware Planning in Heterogeneous Traffic via Distributed
Multi-Agent Reinforcement Learning [57.24340061741223]
本稿では,高密度および不均一な交通シナリオにおける軌跡や意図を予測できる分散マルチエージェント強化学習(MARL)アルゴリズムを提案する。
インテント対応プランニングのアプローチであるiPLANにより、エージェントは近くのドライバーの意図をローカルな観察からのみ推測できる。
論文 参考訳(メタデータ) (2023-06-09T20:12:02Z) - Best Practices for 2-Body Pose Forecasting [58.661899246497896]
我々は、人間のポーズ予測の進捗状況を概観し、最善を尽くす一対一の実践を詳細に評価する。
他の1人のプラクティスは2体に移行しないため、提案されているベストプラクティスは階層的なボディモデリングや注目に基づくインタラクションエンコーディングは含まない。
提案した2体ポーズによるベストプラクティス予測では,最新のExPIデータセットのパフォーマンスが21.9%向上した。
論文 参考訳(メタデータ) (2023-04-12T10:46:23Z) - Signal Propagation in a Gradient-Based and Evolutionary Learning System [9.911708222650825]
GANトレーニングのための共進化アルゴリズム(CEA)は、彼らに経験的に堅牢です。
そこで我々は,Lipizzanerのような分散CEAであるLipi-Ringを提案する。
主課題は,信号伝搬の方向性の違いがリピズザナーの性能品質と訓練効率に合致するかどうかである。
論文 参考訳(メタデータ) (2021-02-10T16:46:44Z) - Multi-Agent Reinforcement Learning in NOMA-aided UAV Networks for
Cellular Offloading [59.32570888309133]
複数の無人航空機(UAV)によるセルローディングのための新しい枠組みの提案
非直交多重アクセス(NOMA)技術は、無線ネットワークのスペクトル効率をさらに向上するために、各UAVに採用されている。
相互深いQ-network (MDQN) アルゴリズムは,UAVの最適3次元軌道と電力配分を共同で決定するために提案される。
論文 参考訳(メタデータ) (2020-10-18T20:22:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。