論文の概要: A moving target in AI-assisted decision-making: Dataset shift, model updating, and the problem of update opacity
- arxiv url: http://arxiv.org/abs/2504.05210v1
- Date: Mon, 07 Apr 2025 15:58:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-08 14:15:45.324886
- Title: A moving target in AI-assisted decision-making: Dataset shift, model updating, and the problem of update opacity
- Title(参考訳): AIによる意思決定の移動目標:データセットシフト、モデル更新、更新不透明度の問題
- Authors: Joshua Hatherley,
- Abstract要約: 機械学習(ML)システムは、データセットシフトによるパフォーマンス低下に対して脆弱である。
専門家はしばしば、継続的なパフォーマンスの安定性を保証するため、MLシステムは定期的に更新されるべきであると提案する。
本稿では、モデル更新がML支援意思決定に新しい不透明なサブタイプを導入することを論じる。
- 参考スコア(独自算出の注目度): 1.6317061277457001
- License:
- Abstract: Machine learning (ML) systems are vulnerable to performance decline over time due to dataset shift. To address this problem, experts often suggest that ML systems should be regularly updated to ensure ongoing performance stability. Some scholarly literature has begun to address the epistemic and ethical challenges associated with different updating methodologies. Thus far, however, little attention has been paid to the impact of model updating on the ML-assisted decision-making process itself, particularly in the AI ethics and AI epistemology literatures. This article aims to address this gap in the literature. It argues that model updating introduces a new sub-type of opacity into ML-assisted decision-making -- update opacity -- that occurs when users cannot understand how or why an update has changed the reasoning or behaviour of an ML system. This type of opacity presents a variety of distinctive epistemic and safety concerns that available solutions to the black box problem in ML are largely ill-equipped to address. A variety of alternative strategies may be developed or pursued to address the problem of update opacity more directly, including bi-factual explanations, dynamic model reporting, and update compatibility. However, each of these strategies presents its own risks or carries significant limitations. Further research will be needed to address the epistemic and safety concerns associated with model updating and update opacity going forward.
- Abstract(参考訳): 機械学習(ML)システムは、データセットシフトによるパフォーマンス低下に対して脆弱である。
この問題に対処するため、専門家はしばしば、継続的なパフォーマンスの安定性を保証するために、MLシステムは定期的に更新されるべきである、と提案する。
いくつかの学術文献は、異なる更新方法に関連する疫学的および倫理的課題に対処し始めている。
しかし、これまでのところ、ML支援意思決定プロセスそのもの、特にAI倫理やAI認識学文学におけるモデル更新の影響にはほとんど注意が払われていない。
この記事は、文学におけるこのギャップに対処することを目的としている。
モデル更新は、MLが支援する意思決定 -- 更新の不透明さ -- に新たなサブタイプの不透明さを導入している、と氏は主張する。
この種の不透明度は、MLのブラックボックス問題に対するソリューションがほとんど対応できないという、様々な特徴ある疫学および安全性上の懸念を呈している。
より直接的に更新不透明性の問題に対処するために、バイファクトの説明、動的モデルレポート、更新互換性など、様々な代替戦略が開発または追求されることがある。
しかし、これらの戦略はそれぞれのリスクを提示したり、重大な制限を課す。
今後、モデルの更新と更新の不透明度に関連する疫学と安全性の懸念に対処するためには、さらなる研究が必要である。
関連論文リスト
- Effective ML Model Versioning in Edge Networks [2.867517731896504]
性能,応答時間,セキュリティ,信頼性に制約があることから,エッジネットワーク環境について検討する。
サーバの負荷値のあらゆる範囲において、セキュリティ、信頼性、および/またはMLモデルの正確性を改善する適切なバージョニングを見つけることができることを示す。
論文 参考訳(メタデータ) (2024-11-01T23:19:05Z) - Privacy Implications of Explainable AI in Data-Driven Systems [0.0]
機械学習(ML)モデルは、解釈可能性の欠如に悩まされる。
透明性の欠如は、しばしばMLモデルのブラックボックスの性質と呼ばれ、信頼を損なう。
XAI技術は、内部の意思決定プロセスを説明するためのフレームワークと方法を提供することによって、この問題に対処する。
論文 参考訳(メタデータ) (2024-06-22T08:51:58Z) - Verbalized Machine Learning: Revisiting Machine Learning with Language Models [63.10391314749408]
言語化機械学習(VML)の枠組みを紹介する。
VMLはパラメータ空間を人間の解釈可能な自然言語に制限する。
我々は,VMLの有効性を実証的に検証し,VMLがより強力な解釈可能性を実現するためのステップストーンとして機能することを期待する。
論文 参考訳(メタデータ) (2024-06-06T17:59:56Z) - Machine Learning Robustness: A Primer [12.426425119438846]
この議論はロバストネスの詳細な定義から始まり、MLモデルが様々な環境条件と予期せぬ環境条件で安定した性能を維持する能力であることを示している。
この章では、データバイアスやモデル複雑性、未特定のMLパイプラインの落とし穴など、堅牢性を阻害する要因について詳しく説明している。
議論は、デバイアスや拡張といったデータ中心のアプローチから始まる、堅牢性を促進するための改善戦略を探求する。
論文 参考訳(メタデータ) (2024-04-01T03:49:42Z) - The Frontier of Data Erasure: Machine Unlearning for Large Language Models [56.26002631481726]
大規模言語モデル(LLM)はAIの進歩の基礎となっている。
LLMは機密情報、偏見情報、著作権情報を記憶し、広めることによってリスクを生じさせる。
機械学習は、これらの懸念を軽減するための最先端のソリューションとして現れます。
論文 参考訳(メタデータ) (2024-03-23T09:26:15Z) - Automatically Correcting Large Language Models: Surveying the landscape
of diverse self-correction strategies [104.32199881187607]
大規模言語モデル(LLM)は、幅広いNLPタスクで顕著な性能を示した。
これらの欠陥を正すための有望なアプローチは自己補正であり、LLM自体が自身の出力で問題を修正するために誘導される。
本稿では,この新技術について概観する。
論文 参考訳(メタデータ) (2023-08-06T18:38:52Z) - Practical Machine Learning Safety: A Survey and Primer [81.73857913779534]
自動運転車のような安全クリティカルなアプリケーションにおける機械学習アルゴリズムのオープンワールド展開は、さまざまなML脆弱性に対処する必要がある。
一般化エラーを低減し、ドメイン適応を実現し、外乱例や敵攻撃を検出するための新しいモデルと訓練技術。
我々の組織は、MLアルゴリズムの信頼性を異なる側面から向上するために、最先端のML技術を安全戦略にマッピングする。
論文 参考訳(メタデータ) (2021-06-09T05:56:42Z) - Learning by Design: Structuring and Documenting the Human Choices in
Machine Learning Development [6.903929927172917]
本稿では,機械学習モデル作成における熟考と規範的選択を概説する8つの設計質問からなる手法を提案する。
本手法は,方法論的透明性を通じた批判的評価を支援するなど,いくつかの利点がある。
本手法は,MLモデルの開発において,ML実践者が選択や仮定を構造化し,正当化する上で有効であると考えている。
論文 参考訳(メタデータ) (2021-05-03T08:47:45Z) - An Optimal Control Approach to Learning in SIDARTHE Epidemic model [67.22168759751541]
本研究では,疫病データから動的コンパートメンタルモデルの時間変化パラメータを学習するための一般的な手法を提案する。
我々はイタリアとフランスの疫病の進化を予報する。
論文 参考訳(メタデータ) (2020-10-28T10:58:59Z) - Transfer Learning without Knowing: Reprogramming Black-box Machine
Learning Models with Scarce Data and Limited Resources [78.72922528736011]
そこで我々は,ブラックボックス・アタベラル・リプログラミング (BAR) という新しい手法を提案する。
ゼロオーダー最適化とマルチラベルマッピング技術を用いて、BARは入力出力応答のみに基づいてブラックボックスMLモデルをプログラムする。
BARは最先端の手法より優れ、バニラ対逆プログラミング法に匹敵する性能を得る。
論文 参考訳(メタデータ) (2020-07-17T01:52:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。