論文の概要: Invisible failures in human-AI interactions
- arxiv url: http://arxiv.org/abs/2603.15423v1
- Date: Mon, 16 Mar 2026 15:32:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 18:28:58.544532
- Title: Invisible failures in human-AI interactions
- Title(参考訳): 人間とAIの相互作用における不可視的障害
- Authors: Christopher Potts, Moritz Sudhof,
- Abstract要約: 人間とAIの相互作用を定量的に分析したところ、AIの失敗の78%は目に見えないことがわかった。
これらの目に見えない障害は8つのアーカイタイプにまとめられ、AIシステムがユーザーのニーズを満たすことができない場所と方法を特定するのに役立ちます。
- 参考スコア(独自算出の注目度): 28.34945398004834
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: AI systems fail silently far more often than they fail visibly. In a large-scale quantitative analysis of human-AI interactions from the WildChat dataset, we find that 78% of AI failures are invisible: something went wrong but the user gave no overt indication that there was a problem. These invisible failures cluster into eight archetypes that help us characterize where and how AI systems are failing to meet users' needs. In addition, the archetypes show systematic co-occurrence patterns indicating higher-level failure types. To address the question of whether these archetypes will remain relevant as AI systems become more capable, we also assess failures for whether they are primarily interactional or capability-driven, finding that 91% involve interactional dynamics, and we estimate that 94% of such failures would persist even with a more capable model. Finally, we illustrate how the archetypes help us to identify systematic and variable AI limitations across different usage domains. Overall, we argue that our invisible failure taxonomy can be a key component in reliable failure monitoring for product developers, scientists, and policy makers. Our code and data are available at https://github.com/bigspinai/bigspin-invisible-failure-archetypes
- Abstract(参考訳): AIシステムは視覚的に失敗するよりも、静かに失敗することが多い。
WildChatデータセットから人間とAIのインタラクションを定量的に分析したところ、AIの失敗の78%が見えないことがわかった。
これらの目に見えない障害は8つのアーカイタイプにまとめられ、AIシステムがユーザのニーズを満たすことができない場所と方法を特定するのに役立ちます。
さらに、アーキタイプは、より高いレベルの障害タイプを示す体系的な共起パターンを示す。
AIシステムがより有能になるにつれて、これらのアーチタイプが関連性を維持するかどうかという問題に対処するために、主に相互作用型か能力駆動型かという問題も評価し、91%が相互作用力学に関わることを発見し、そのような失敗の94%がより有能なモデルであっても持続すると推定する。
最後に、アーチェタイプが、さまざまな利用領域にわたる体系的および可変的なAI制限を特定するのにどのように役立つかを説明します。
全体として、当社の目に見えない障害分類は、製品開発者、科学者、および政策立案者にとって、信頼性の高い障害監視の鍵となるコンポーネントである、と我々は主張する。
私たちのコードとデータはhttps://github.com/bigspinai/bigspin-invisible-failure-archetypesで公開されています。
関連論文リスト
- The Hot Mess of AI: How Does Misalignment Scale With Model Intelligence and Task Complexity? [53.15349353876531]
AIがより有能になるにつれて、より汎用的で簡潔なタスクを委任します。
我々はAIモデルによる誤りのバイアス分散分解を用いてこの問題を運用する。
より有能なAIはより困難なタスクを追求し、よりシーケンシャルな行動と思考を必要とするので、私たちの結果は失敗がより一貫性のない行動を伴うことを予測します。
論文 参考訳(メタデータ) (2026-01-30T14:52:03Z) - Scalable Oversight via Partitioned Human Supervision [47.001801756596926]
優れた人間の専門家でさえ、単一の狭い領域でしか知識がない。
人間は弱い信号、すなわち、誤ったオプションを示す補完的なラベルを提供することができる。
我々は,フロンティアAIシステムを評価するためのスケーラブルな監視フレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-26T02:42:03Z) - Neurodivergent Influenceability as a Contingent Solution to the AI Alignment Problem [1.3905735045377272]
AIアライメント問題は、人工知能(AI)システムが人間の価値観に従って行動することを保証することに重点を置いている。
狭義のAIからAI(Artificial General Intelligence, AGI)やスーパーインテリジェンス(Superintelligence, 超知能)への進化に伴い、制御に対する恐怖と現実的なリスクがエスカレートした。
ここでは、避けられないAIのミスアライメントを受け入れることが、競合するエージェントの動的なエコシステムを育むための緊急戦略であるかどうかを検討する。
論文 参考訳(メタデータ) (2025-05-05T11:33:18Z) - Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Examining the Differential Risk from High-level Artificial Intelligence
and the Question of Control [0.0]
将来のAI能力の範囲と範囲は、依然として重要な不確実性である。
AIの不透明な意思決定プロセスの統合と監視の程度には懸念がある。
本研究では、AIリスクをモデル化し、代替先分析のためのテンプレートを提供する階層的な複雑なシステムフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-06T15:46:02Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - On Adversarial Examples and Stealth Attacks in Artificial Intelligence
Systems [62.997667081978825]
本稿では,汎用人工知能(AI)システムに対する2種類の多元性行動の評価と分析を行うための公式な枠組みを提案する。
最初のクラスは、逆例を含み、誤分類を引き起こす入力データの小さな摂動の導入を懸念する。
第2のクラスは、ここで初めて導入され、ステルス攻撃と名付けられたもので、AIシステム自体に対する小さな摂動を伴う。
論文 参考訳(メタデータ) (2020-04-09T10:56:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。