論文の概要: Human-AI Interaction Alignment: Designing, Evaluating, and Evolving Value-Centered AI For Reciprocal Human-AI Futures
- arxiv url: http://arxiv.org/abs/2512.21551v1
- Date: Thu, 25 Dec 2025 07:45:38 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-29 11:54:03.204644
- Title: Human-AI Interaction Alignment: Designing, Evaluating, and Evolving Value-Centered AI For Reciprocal Human-AI Futures
- Title(参考訳): 人間-AIインタラクションアライメント: 相互の人間-AI未来のための価値中心AIの設計、評価、進化
- Authors: Hua Shen, Tiffany Knearem, Divy Thakkar, Pat Pataranutaporn, Anoop Sinha, Yike, Shi, Jenny T. Liang, Lama Ahmad, Tanu Mitra, Brad A. Myers, Yang Li,
- Abstract要約: 生成AIを日々の生活に迅速に統合することは、一方向アライメントモデルを超えて動く必要性を浮き彫りにする。
このワークショップは、双方向のヒューマン-AIアライメント、人間とAIが相互作用、評価、価値中心の設計を通じて協調する動的な相互プロセスに焦点を当てている。
- 参考スコア(独自算出の注目度): 27.995784716141767
- License:
- Abstract: The rapid integration of generative AI into everyday life underscores the need to move beyond unidirectional alignment models that only adapt AI to human values. This workshop focuses on bidirectional human-AI alignment, a dynamic, reciprocal process where humans and AI co-adapt through interaction, evaluation, and value-centered design. Building on our past CHI 2025 BiAlign SIG and ICLR 2025 Workshop, this workshop will bring together interdisciplinary researchers from HCI, AI, social sciences and more domains to advance value-centered AI and reciprocal human-AI collaboration. We focus on embedding human and societal values into alignment research, emphasizing not only steering AI toward human values but also enabling humans to critically engage with and evolve alongside AI systems. Through talks, interdisciplinary discussions, and collaborative activities, participants will explore methods for interactive alignment, frameworks for societal impact evaluation, and strategies for alignment in dynamic contexts. This workshop aims to bridge the disciplines' gaps and establish a shared agenda for responsible, reciprocal human-AI futures.
- Abstract(参考訳): 生成的AIを日々の生活に迅速に統合することは、AIを人間の価値に適応させるだけの一方向アライメントモデルを超える必要性を浮き彫りにする。
このワークショップは、双方向のヒューマン-AIアライメント、人間とAIが相互作用、評価、価値中心の設計を通じて協調する動的な相互プロセスに焦点を当てている。
これまでのCHI 2025 BiAlign SIGとICLR 2025 Workshopに基づいて、このワークショップは、HCI、AI、社会科学、さらに多くの分野の学際的な研究者を集結させ、価値中心のAIと互恵的な人間とAIのコラボレーションを促進する。
我々は、人間の価値と社会的価値をアライメント研究に組み込むことに集中し、AIを人間の価値に向けるだけでなく、人間がAIシステムと共に批判的に関与し、進化することを可能にします。
講演、学際的な議論、協調活動を通じて、参加者は対話的なアライメントの方法、社会的影響評価のフレームワーク、動的文脈におけるアライメントの戦略を探求する。
このワークショップは、規律のギャップを埋め、責任と相互の人間-AIの未来のための共通のアジェンダを確立することを目的としています。
関連論文リスト
- Aligning Generalisation Between Humans and Machines [74.120848518198]
AI技術は、科学的発見と意思決定において人間を支援することができるが、民主主義と個人を妨害することもある。
AIの責任ある使用と人間-AIチームへの参加は、AIアライメントの必要性をますます示している。
これらの相互作用の重要かつしばしば見落とされがちな側面は、人間と機械が一般化する異なる方法である。
論文 参考訳(メタデータ) (2024-11-23T18:36:07Z) - Position: Towards Bidirectional Human-AI Alignment [109.57781720848669]
我々は、人間とAIの双方向的・動的関係を説明するために、研究コミュニティは「調整」を明確に定義し、批判的に反映すべきであると主張する。
このフレームワークは、AIと人間の価値を整合させる従来の取り組みを取り入れているだけでなく、人間とAIを整合させるという、重要で未解明の次元も導入しています。
論文 参考訳(メタデータ) (2024-06-13T16:03:25Z) - The Rise of the AI Co-Pilot: Lessons for Design from Aviation and Beyond [22.33734581699234]
我々は、AIが単なるツールではなく、人間の指導の下で働く共同パイロットと見なされるパラダイムを提唱する。
本稿では,AIパートナーシップにおけるアクティブな人間の関与,制御,スキル向上を重視したデザインアプローチを提案する。
論文 参考訳(メタデータ) (2023-11-16T13:58:15Z) - The Road to a Successful HRI: AI, Trust and ethicS-TRAITS [64.77385130665128]
このワークショップの目的は、人間とロボットの効果的で長期にわたるコラボレーションに向けた過去および現在進行中の研究についての洞察の交換を促進することである。
特に、自律的およびプロアクティブなインタラクションを実装するために必要なAI技術に焦点を当てています。
論文 参考訳(メタデータ) (2022-06-07T11:12:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。