論文の概要: Interactive AI Alignment: Specification, Process, and Evaluation Alignment
- arxiv url: http://arxiv.org/abs/2311.00710v2
- Date: Mon, 16 Sep 2024 22:54:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-18 22:50:44.582775
- Title: Interactive AI Alignment: Specification, Process, and Evaluation Alignment
- Title(参考訳): インタラクティブAIアライメント: 仕様、プロセス、評価アライメント
- Authors: Michael Terry, Chinmay Kulkarni, Martin Wattenberg, Lucas Dixon, Meredith Ringel Morris,
- Abstract要約: 現代のAIは、ハイレベルで宣言的なインタラクションの形式を可能にする。
ユーザは、AIが生成したいと望む意図した結果を記述するが、実際には結果自体を作らない。
- 参考スコア(独自算出の注目度): 30.599781014726823
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modern AI enables a high-level, declarative form of interaction: Users describe the intended outcome they wish an AI to produce, but do not actually create the outcome themselves. In contrast, in traditional user interfaces, users invoke specific operations to create the desired outcome. This paper revisits the basic input-output interaction cycle in light of this declarative style of interaction, and connects concepts in AI alignment to define three objectives for interactive alignment of AI: specification alignment (aligning on what to do), process alignment (aligning on how to do it), and evaluation alignment (assisting users in verifying and understanding what was produced). Using existing systems as examples, we show how these user-centered views of AI alignment can be used descriptively, prescriptively, and as an evaluative aid.
- Abstract(参考訳): ユーザは、AIが生成したいと思う結果を記述するが、実際には結果自体を生成しない。
対照的に、従来のユーザーインターフェイスでは、ユーザーは特定の操作を呼び出し、望ましい結果を生み出す。
本稿では、この宣言型インタラクションのスタイルを考慮して、基本的な入出力インタラクションサイクルを再考し、AIアライメントの概念を結合して、AIの対話的アライメントのための3つの目標、すなわち、仕様アライメント(何をすべきかの調整)、プロセスアライメント(どのように行うべきかの調整)、評価アライメント(何が作られたのかの検証と理解を支援する)を定義する。
既存のシステムを例として、AIアライメントのユーザ中心のビューが、記述的、規範的、評価的補助としてどのように使用できるかを示す。
関連論文リスト
- Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Towards Bidirectional Human-AI Alignment: A Systematic Review for Clarifications, Framework, and Future Directions [101.67121669727354]
近年のAIの進歩は、AIシステムを意図された目標、倫理的原則、個人とグループの価値に向けて導くことの重要性を強調している。
人間のAIアライメントの明確な定義とスコープの欠如は、このアライメントを達成するための研究領域間の共同作業を妨げる、大きな障害となる。
論文 参考訳(メタデータ) (2024-06-13T16:03:25Z) - Contestable AI needs Computational Argumentation [15.15970495693702]
最先端のアプローチは、AIシステムが競合する必要性をほとんど無視する。
競合可能なAIには、動的(ヒューマンマシンおよび/またはマシンマシン)の説明可能性と意思決定プロセスが必要である、と我々は主張する。
論文 参考訳(メタデータ) (2024-05-17T12:23:18Z) - The Foundations of Computational Management: A Systematic Approach to
Task Automation for the Integration of Artificial Intelligence into Existing
Workflows [55.2480439325792]
本稿では,タスク自動化の体系的アプローチである計算管理を紹介する。
この記事では、ワークフロー内でAIを実装するプロセスを開始するための、ステップバイステップの手順を3つ紹介する。
論文 参考訳(メタデータ) (2024-02-07T01:45:14Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - A Human-Centric Assessment Framework for AI [11.065260433086024]
説明可能なAIシステムをどのように評価すべきかに関して合意された基準はない。
チューリングテストに触発されて,人間中心のアセスメントフレームワークを導入する。
このセットアップは、広範囲の人間中心のAIシステムアセスメントのためのフレームワークとして機能する。
論文 参考訳(メタデータ) (2022-05-25T12:59:13Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Artificial Intelligence, Values and Alignment [2.28438857884398]
AIアライメント問題の規範的および技術的側面は相互に関連している。
アライメントの目標を明確にすることが重要です。
理論家にとっての中心的な課題は、AIの「真の」道徳原則を特定することではない。
論文 参考訳(メタデータ) (2020-01-13T10:32:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。