論文の概要: Strategic Advice in the Age of Personal AI
- arxiv url: http://arxiv.org/abs/2603.02055v1
- Date: Mon, 02 Mar 2026 16:45:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.977595
- Title: Strategic Advice in the Age of Personal AI
- Title(参考訳): パーソナルAI時代の戦略的アドバイス
- Authors: Yueyang Liu, Wichinpong Park Sinchaisri,
- Abstract要約: 我々は、個人が焦点を絞った助言を予測可能なパーソナルAIを相談できる新たな戦略環境について検討する。
パーソナルAIはこの戦略的環境に、どれだけの頻度で相談されるか、そして相談されたときの人間の決定においてどれくらいの重量を受けるかという2つの側面に沿って参入する。
- 参考スコア(独自算出の注目度): 0.7792020418343021
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Personal AI assistants have changed how people use institutional and professional advice. We study this new strategic setting in which individuals may stochastically consult a personal AI whose recommendation is predictable to the focal advisor. Personal AI enters this strategic environment along two dimensions: how often it is consulted and how much weight it receives in the human's decision when consulted. Anticipating this, the advisor responds by counteracting the personal AI recommendation. Counteraction becomes more aggressive as personal AI is consulted more often. Yet advisor performance is non-monotone: equilibrium loss is highest at intermediate levels of adoption and vanishes when personal AI is never used or always used. Trust affects performance through a single relative influence index, and greater relative influence of personal AI increases advisor vulnerability. Extending the framework to costly credibility building, we characterize how personal AI adoption reshapes incentives to invest in trust.
- Abstract(参考訳): パーソナルAIアシスタントは、人々が制度的および専門的なアドバイスを使う方法を変えました。
我々は、個人が焦点助言者に対して予測可能なパーソナルAIを確率論的に相談することのできる、この新たな戦略環境について検討する。
パーソナルAIはこの戦略的環境に、どれだけの頻度で相談されるか、そして相談されたときの人間の決定でどれくらいの重量を受けるかという2つの側面に沿って参入する。
これを予想して、アドバイザーはパーソナルAIレコメンデーションを無効にすることで対応します。
パーソナルAIがより頻繁に相談されるにつれて、カウンターアクションはより積極的になる。
均衡損失は中間レベルの採用において最大であり、パーソナルAIが使われなかったり、常に使用されている場合、消滅する。
信頼は単一の相対的影響指標を通じてパフォーマンスに影響を与え、個人AIの相対的影響はアドバイザの脆弱性を増加させる。
フレームワークを信頼性構築に拡張することで、個人的AIの採用が、信頼に投資するインセンティブをいかに特徴づけるかを特徴付けます。
関連論文リスト
- When is using AI the rational choice? The importance of counterfactuals in AI deployment decisions [0.0]
偽造ミスは、AIデプロイメント決定者に対して不当な不利をもたらす可能性がある。
本稿では, 有効性評価に反実的な結果を含める方法について検討する。
論文 参考訳(メタデータ) (2025-04-04T14:59:29Z) - Engineering Trustworthy AI: A Developer Guide for Empirical Risk Minimization [53.80919781981027]
信頼できるAIのための重要な要件は、経験的リスク最小化のコンポーネントの設計選択に変換できる。
私たちは、AIの信頼性の新たな標準を満たすAIシステムを構築するための実用的なガイダンスを提供したいと思っています。
論文 参考訳(メタデータ) (2024-10-25T07:53:32Z) - How Performance Pressure Influences AI-Assisted Decision Making [52.997197698288936]
我々は、プレッシャーと説明可能なAI(XAI)技術がAIアドバイステイク行動とどのように相互作用するかを示す。
我々の結果は、圧力とXAIの異なる組み合わせで複雑な相互作用効果を示し、AIアドバイスの行動を改善するか、悪化させるかのどちらかを示す。
論文 参考訳(メタデータ) (2024-10-21T22:39:52Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - The Ethics of Advanced AI Assistants [53.89899371095332]
本稿では,高度AIアシスタントがもたらす倫理的・社会的リスクについて論じる。
我々は、高度なAIアシスタントを自然言語インタフェースを持つ人工知能エージェントとして定義し、ユーザに代わってアクションのシーケンスを計画し実行することを目的としている。
先進的なアシスタントの社会規模での展開を考察し、協力、株式とアクセス、誤情報、経済的影響、環境、先進的なAIアシスタントの評価方法に焦点をあてる。
論文 参考訳(メタデータ) (2024-04-24T23:18:46Z) - Beyond Recommender: An Exploratory Study of the Effects of Different AI
Roles in AI-Assisted Decision Making [48.179458030691286]
Recommender、Analyzer、Devil's Advocateの3つのAIの役割について検討する。
以上の結果から,各役割のタスクパフォーマンス,信頼性の適切性,ユーザエクスペリエンスにおける長所と短所が明らかとなった。
これらの洞察は、異なる状況に応じて適応的な機能的役割を持つAIアシスタントを設計する上で、貴重な意味を提供する。
論文 参考訳(メタデータ) (2024-03-04T07:32:28Z) - Knowing About Knowing: An Illusion of Human Competence Can Hinder
Appropriate Reliance on AI Systems [13.484359389266864]
本稿では、Dunning-Kruger Effect(DKE)がAIシステムへの適切な依存を妨げているかどうかを論じる。
DKEは、能力の低い個人が自身のスキルやパフォーマンスを過大評価しているため、メタ認知バイアスである。
その結果、パフォーマンスを過大評価する参加者は、AIシステムへの信頼度が低い傾向にあることがわかった。
論文 参考訳(メタデータ) (2023-01-25T14:26:10Z) - Should I Follow AI-based Advice? Measuring Appropriate Reliance in
Human-AI Decision-Making [0.0]
私たちは、人間がAIアドバイスを盲目的に頼らず、その品質を区別し、より良い意思決定を行うために行動できるようにすることを目標としています。
現在の研究では、ケースバイケースベースでAIアドバイスに対する適切な信頼(AR)の基準が欠如している。
我々は、ARをアドバイス品質を識別し、それに応じて振る舞う能力を測定する2次元構成体として見ることを提案する。
論文 参考訳(メタデータ) (2022-04-14T12:18:51Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Do Humans Trust Advice More if it Comes from AI? An Analysis of Human-AI
Interactions [8.785345834486057]
人間は、仲間の人間のグループからの同等の提案に対して、AIの提案をどのように利用するかの特徴付けをする。
特定のタスクにおける人間対AIのパフォーマンスに対する参加者の信念が、アドバイスをハイドするかどうかに影響を及ぼすことがわかった。
論文 参考訳(メタデータ) (2021-07-14T21:33:14Z) - The corruptive force of AI-generated advice [0.0]
AIによるアドバイスが人を傷つけるかどうかをテストします。
また、AIの存在に関する透明性が潜在的な害を軽減するかどうかをテストします。
結果、AIの腐敗力は人間と同じくらい強いことが判明」
論文 参考訳(メタデータ) (2021-02-15T13:15:12Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。