論文の概要: AI Alignment Dialogues: An Interactive Approach to AI Alignment in
Support Agents
- arxiv url: http://arxiv.org/abs/2301.06421v2
- Date: Thu, 5 Oct 2023 11:15:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-06 23:05:15.910848
- Title: AI Alignment Dialogues: An Interactive Approach to AI Alignment in
Support Agents
- Title(参考訳): AIアライメント対話:サポートエージェントにおけるAIアライメントの対話的アプローチ
- Authors: Pei-Yu Chen, Myrthe L. Tielman, Dirk K.J. Heylen, Catholijn M. Jonker,
M. Birna van Riemsdijk
- Abstract要約: 本稿では,AIアライメントに対する新たなアプローチとして,ユーザとエージェントが対話を通じてアライメントを実現し,維持しようとするアライメント対話を提案する。
我々は、アライメント・ダイアログはデータ駆動アプローチと比較して多くの利点があると主張している。
アライメントダイアログの利点は、ユーザーがエージェントに直接高度な概念を伝達できるようにすること、エージェントをより透明で信頼性の高いものにすることである。
- 参考スコア(独自算出の注目度): 3.0731004832223796
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AI alignment is about ensuring AI systems only pursue goals and activities
that are beneficial to humans. Most of the current approach to AI alignment is
to learn what humans value from their behavioural data. This paper proposes a
different way of looking at the notion of alignment, namely by introducing AI
Alignment Dialogues: dialogues with which users and agents try to achieve and
maintain alignment via interaction. We argue that alignment dialogues have a
number of advantages in comparison to data-driven approaches, especially for
behaviour support agents, which aim to support users in achieving their desired
future behaviours rather than their current behaviours. The advantages of
alignment dialogues include allowing the users to directly convey higher-level
concepts to the agent, and making the agent more transparent and trustworthy.
In this paper we outline the concept and high-level structure of alignment
dialogues. Moreover, we conducted a qualitative focus group user study from
which we developed a model that describes how alignment dialogues affect users,
and created design suggestions for AI alignment dialogues. Through this we
establish foundations for AI alignment dialogues and shed light on what
requires further development and research.
- Abstract(参考訳): AIアライメントとは、AIシステムが人間にとって有益な目標と活動のみを追求することである。
AIアライメントの現在のアプローチのほとんどは、人間が行動データから何を評価するかを学ぶことです。
本稿では,AIアライメント対話(AI Alignment Dialogues: ユーザとエージェントが対話を通じてアライメントを達成・維持しようとする対話)を導入することで,アライメントの概念の異なる方法を提案する。
我々は、アライメント・ダイアログはデータ駆動型アプローチと比較して、特に行動支援エージェントにおいて多くの利点があると主張している。
アライメント対話の利点は、ユーザーがエージェントに直接ハイレベルな概念を伝えることを可能にし、エージェントをより透明で信頼できるものにすることである。
本稿では,アライメント対話の概念と高レベル構造について概説する。
さらに,アライメント・ダイアログがユーザに与える影響を記述したモデルを開発し,AIアライメント・ダイアログの設計提案を行った。
これにより、aiアライメント対話の基礎を確立し、さらなる開発と研究を必要とするものを明らかにする。
関連論文リスト
- Interactive Dialogue Agents via Reinforcement Learning on Hindsight Regenerations [58.65755268815283]
多くの実際の対話は対話的であり、つまりエージェントの発話が会話の相手に影響を与えるか、情報を引き出すか、意見を変えるかである。
この事実を利用して、既存の最適データを書き直し、拡張し、オフライン強化学習(RL)を介してトレーニングする。
実際の人間によるユーザ調査の結果、我々のアプローチは既存の最先端の対話エージェントを大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-07T21:37:51Z) - Towards Bidirectional Human-AI Alignment: A Systematic Review for Clarifications, Framework, and Future Directions [101.67121669727354]
近年のAIの進歩は、AIシステムを意図された目標、倫理的原則、個人とグループの価値に向けて導くことの重要性を強調している。
人間のAIアライメントの明確な定義とスコープの欠如は、このアライメントを達成するための研究領域間の共同作業を妨げる、大きな障害となる。
我々は、2019年から2024年1月までに400以上の論文を体系的にレビューし、HCI(Human-Computer Interaction)、自然言語処理(NLP)、機械学習(ML)といった複数の分野にまたがって紹介する。
論文 参考訳(メタデータ) (2024-06-13T16:03:25Z) - Interactive AI Alignment: Specification, Process, and Evaluation Alignment [30.599781014726823]
現代のAIは、ハイレベルで宣言的なインタラクションの形式を可能にする。
ユーザは、AIが生成したいと望む意図した結果を記述するが、実際には結果自体を作らない。
論文 参考訳(メタデータ) (2023-10-23T14:33:11Z) - Dialogue Agents 101: A Beginner's Guide to Critical Ingredients for Designing Effective Conversational Systems [29.394466123216258]
本研究は,対話エージェントの主要な特徴,対応するオープンドメインデータセット,およびこれらのデータセットをベンチマークする手法について概説する。
我々は,既存のデータセットの会話から構築された統一dIalogue dataseTであるUNITを提案する。
論文 参考訳(メタデータ) (2023-07-14T10:05:47Z) - Target-Guided Dialogue Response Generation Using Commonsense and Data
Augmentation [32.764356638437214]
ターゲット誘導応答生成のための新しい手法を提案する。
また,既存の対話データセットをターゲット誘導生成のために再利用する手法を提案する。
我々の作業は、一般的に、対話システムの設計者が、システムが生み出す会話をより制御できるようにします。
論文 参考訳(メタデータ) (2022-05-19T04:01:40Z) - Interacting with Non-Cooperative User: A New Paradigm for Proactive
Dialogue Policy [83.61404191470126]
インタラクティブな環境下でプロアクティブなポリシーを学習できるI-Proという新しいソリューションを提案する。
具体的には,4つの要因からなる学習目標重みを通じてトレードオフを学習する。
実験の結果,I-Proは,有効性と解釈性において,ベースラインを著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2022-04-07T14:11:31Z) - Is this Dialogue Coherent? Learning from Dialogue Acts and Entities [82.44143808977209]
スイッチボード・コヒーレンス・コーパス(SWBD-Coh)コーパス(Switchboard Coherence corpus,SWBD-Coh)を作成する。
コーパスの統計的分析は、ターンコヒーレンス知覚がエンティティの分布パターンによってどのように影響を受けるかを示している。
DA情報とエンティティ情報を組み合わせたモデルでは,応答選択とターンコヒーレンス評価の両面で最高の性能が得られることがわかった。
論文 参考訳(メタデータ) (2020-06-17T21:02:40Z) - Contextual Dialogue Act Classification for Open-Domain Conversational
Agents [10.576497782941697]
会話におけるユーザ発話の一般的な意図を分類することは、会話エージェントのための自然言語理解(NLU)の重要なステップである。
本稿では,文脈対話行為分類のための簡易かつ効果的な深層学習手法であるCDAC(Contextual Dialogue Act)を提案する。
我々は、人-機械対話における対話行動を予測するために、トランスファーラーニングを用いて人間-機械対話で訓練されたモデルを適用する。
論文 参考訳(メタデータ) (2020-05-28T06:48:10Z) - Will I Sound Like Me? Improving Persona Consistency in Dialogues through
Pragmatic Self-Consciousness [62.55060760615656]
一貫性に対処する最近のモデルは、しばしば追加の自然言語推論(NLI)ラベルでトレーニングするか、あるいは一貫性を維持するためにトレーニングされた追加モジュールを生成エージェントにアタッチする。
社会的認知と実用性に触発されて、私たちは既存の対話エージェントに、想像上のリスナーを通して、公的な自己意識を持たせました。
我々のアプローチは、Rational Speech Actsフレームワークに基づいて、会話エージェントに矛盾の発声を控えるように強制することができる。
論文 参考訳(メタデータ) (2020-04-13T08:16:16Z) - You Impress Me: Dialogue Generation via Mutual Persona Perception [62.89449096369027]
認知科学の研究は、理解が高品質なチャット会話に不可欠なシグナルであることを示唆している。
そこで我々は,P2 Botを提案する。このP2 Botは,理解を明示的にモデル化することを目的とした送信機受信者ベースのフレームワークである。
論文 参考訳(メタデータ) (2020-04-11T12:51:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。