論文の概要: Value-based Fast and Slow AI Nudging
- arxiv url: http://arxiv.org/abs/2307.07628v1
- Date: Fri, 14 Jul 2023 20:57:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-18 18:57:09.572067
- Title: Value-based Fast and Slow AI Nudging
- Title(参考訳): 価値に基づく高速低速AI看護
- Authors: Marianna B. Ganapini, Francesco Fabiano, Lior Horesh, Andrea Loreggia,
Nicholas Mattei, Keerthiram Murugesan, Vishal Pallagani, Francesca Rossi,
Biplav Srivastava, Brent Venable
- Abstract要約: 看護とは、人々の思考や行動に影響を与える行動戦略である。
本稿では,AIシステムが人間を虐待する,価値に基づくAIと人間による協調的な枠組みを提案し,議論する。
- 参考スコア(独自算出の注目度): 37.53694593692918
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Nudging is a behavioral strategy aimed at influencing people's thoughts and
actions. Nudging techniques can be found in many situations in our daily lives,
and these nudging techniques can targeted at human fast and unconscious
thinking, e.g., by using images to generate fear or the more careful and
effortful slow thinking, e.g., by releasing information that makes us reflect
on our choices. In this paper, we propose and discuss a value-based AI-human
collaborative framework where AI systems nudge humans by proposing decision
recommendations. Three different nudging modalities, based on when
recommendations are presented to the human, are intended to stimulate human
fast thinking, slow thinking, or meta-cognition. Values that are relevant to a
specific decision scenario are used to decide when and how to use each of these
nudging modalities. Examples of values are decision quality, speed, human
upskilling and learning, human agency, and privacy. Several values can be
present at the same time, and their priorities can vary over time. The
framework treats values as parameters to be instantiated in a specific decision
environment.
- Abstract(参考訳): 看護とは、人々の思考や行動に影響を与える行動戦略である。
ナジング技術は私たちの日常生活の多くの状況で見られますが、これらのナジング技術は、例えば、イメージを使って恐怖を発生させたり、より慎重で労力のかかる遅い思考、例えば、私たちの選択を反映させる情報を公開したりすることで、人間の高速で無意識な思考をターゲットとすることができます。
本稿では,AIシステムが人間を虐待する,価値に基づくAI-ヒューマン協調フレームワークを提案し,議論する。
人間にレコメンデーションが提示されるときに基づく3つの異なるニューディングモダリティは、人間の速い思考、遅い思考、メタ認知を刺激することを目的としている。
特定の決定シナリオに関連する値を使用して、これらのヌーディングモダリティのそれぞれをいつ、どのように使用するかを決定する。
価値の例としては、意思決定の品質、スピード、人間のスキルアップと学習、人間代理店、プライバシーなどがある。
いくつかの値が同時に存在し、その優先度は時間とともに変化する。
このフレームワークは、特定の決定環境でインスタンス化されるパラメータとして値を扱う。
関連論文リスト
- Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - A Framework for Effective AI Recommendations in Cyber-Physical-Human
Systems [3.066266438258146]
多くのサイバー物理人間システム(CPHS)は、人工知能(AI)プラットフォームからレコメンデーションを受けることができる人間の意思決定者を含んでいる。
このようなCPHSアプリケーションでは、人間の意思決定者は最適な推奨決定から離脱し、代わりに様々な理由で異なる決定を実装できる。
我々は、AIプラットフォームとは異なる方法でシステムの状態を知覚し、解釈することにより、人間がAIレコメンデーションから逸脱する可能性があると考えている。
論文 参考訳(メタデータ) (2024-03-08T23:02:20Z) - Learning Human-like Representations to Enable Learning Human Values [11.236150405125754]
我々は,人間とAIエージェントの表現的アライメントが人的価値の学習に与える影響を考察する。
このような表現的アライメントは、パーソナライゼーションの文脈において、人間の価値を安全に学習し、探索する上で有効であることを示す。
論文 参考訳(メタデータ) (2023-12-21T18:31:33Z) - Promptable Behaviors: Personalizing Multi-Objective Rewards from Human
Preferences [53.353022588751585]
本稿では,ロボットエージェントの多種多様な嗜好に対する効率的なパーソナライズを促進する新しいフレームワークであるPromptable Behaviorsを紹介する。
我々は、異なるタイプの相互作用を活用することによって、人間の嗜好を推測する3つの異なる方法を紹介した。
本稿では,ProcTHOR と Robothor のナビゲーションタスクをパーソナライズしたオブジェクトゴールナビゲーションおよびエスケープナビゲーションタスクにおいて,提案手法の評価を行う。
論文 参考訳(メタデータ) (2023-12-14T21:00:56Z) - From DDMs to DNNs: Using process data and models of decision-making to
improve human-AI interactions [1.1510009152620668]
人工知能(AI)の研究は、意思決定が時間とともにどのように現れるかについての洞察に強い焦点をあてることから恩恵を受けるだろう、と私たちは主張する。
まず,ノイズの蓄積による決定を前提とした,高度に確立された計算フレームワークを提案する。
次に、マルチエージェントAIにおける現在のアプローチが、プロセスデータや意思決定のモデルをどの程度取り入れているかについて議論する。
論文 参考訳(メタデータ) (2023-08-29T11:27:22Z) - Indecision Modeling [50.00689136829134]
AIシステムは人間の価値観に合わせて行動することが重要である。
人々はしばしば決定的ではなく、特に彼らの決定が道徳的な意味を持つときです。
論文 参考訳(メタデータ) (2020-12-15T18:32:37Z) - Inverse Active Sensing: Modeling and Understanding Timely
Decision-Making [111.07204912245841]
我々は,内因性,文脈依存型時間圧下でのエビデンスに基づく意思決定の一般的な設定のための枠組みを開発する。
意思決定戦略において、サプライズ、サスペンス、最適性の直感的な概念をモデル化する方法を実証する。
論文 参考訳(メタデータ) (2020-06-25T02:30:45Z) - Implications of Human Irrationality for Reinforcement Learning [26.76732313120685]
人間の意思決定は、機械学習の問題がどのように定義されているかを制限するためのアイデアのより良い源であるかもしれない、と私たちは主張する。
ある有望なアイデアは、選択コンテキストの明らかに無関係な側面に依存する人間の意思決定に関するものである。
本研究では,文脈選択タスクのための新しいPOMDPモデルを提案する。
論文 参考訳(メタデータ) (2020-06-07T07:44:53Z) - A Case for Humans-in-the-Loop: Decisions in the Presence of Erroneous
Algorithmic Scores [85.12096045419686]
本研究では,児童虐待のホットラインスクリーニング決定を支援するアルゴリズムツールの採用について検討した。
まず、ツールがデプロイされたときに人間が行動を変えることを示します。
表示されたスコアが誤ったリスク推定である場合、人間はマシンの推奨に従わない可能性が低いことを示す。
論文 参考訳(メタデータ) (2020-02-19T07:27:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。