論文の概要: Trustworthy Machine Learning under Distribution Shifts
- arxiv url: http://arxiv.org/abs/2512.23524v1
- Date: Mon, 29 Dec 2025 15:02:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-30 22:37:30.553344
- Title: Trustworthy Machine Learning under Distribution Shifts
- Title(参考訳): 分散シフト下における信頼できる機械学習
- Authors: Zhuo Huang,
- Abstract要約: これらの課題に動機づけられた私の研究は、分散シフト下でのTextitTrustworthy Machine Learningに焦点を当てています。
本研究では,(1)摂動シフト,(2)ドメインシフト,(3)モダリティシフトの3つの共通分布シフトについて検討する。
これらの次元に基づいて,効率性,適応性,安全性といった重要なML問題を強化することを目的とした,効果的な解法と基本的な洞察を提案する。
- 参考スコア(独自算出の注目度): 8.366824976517272
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Machine Learning (ML) has been a foundational topic in artificial intelligence (AI), providing both theoretical groundwork and practical tools for its exciting advancements. From ResNet for visual recognition to Transformer for vision-language alignment, the AI models have achieved superior capability to humans. Furthermore, the scaling law has enabled AI to initially develop general intelligence, as demonstrated by Large Language Models (LLMs). To this stage, AI has had an enormous influence on society and yet still keeps shaping the future for humanity. However, distribution shift remains a persistent ``Achilles' heel'', fundamentally limiting the reliability and general usefulness of ML systems. Moreover, generalization under distribution shift would also cause trust issues for AIs. Motivated by these challenges, my research focuses on \textit{Trustworthy Machine Learning under Distribution Shifts}, with the goal of expanding AI's robustness, versatility, as well as its responsibility and reliability. We carefully study the three common distribution shifts into: (1) Perturbation Shift, (2) Domain Shift, and (3) Modality Shift. For all scenarios, we also rigorously investigate trustworthiness via three aspects: (1) Robustness, (2) Explainability, and (3) Adaptability. Based on these dimensions, we propose effective solutions and fundamental insights, meanwhile aiming to enhance the critical ML problems, such as efficiency, adaptability, and safety.
- Abstract(参考訳): 機械学習(ML)は、人工知能(AI)の基礎的なトピックであり、そのエキサイティングな進歩のために理論的基礎と実践的なツールの両方を提供する。
ResNetの視覚認識から、視覚言語アライメントのためのTransformerまで、AIモデルは人間に優れた能力を提供している。
さらに、拡張法則により、Large Language Models (LLM) が示すように、AIは当初は汎用インテリジェンスを開発することができた。
この段階では、AIは社会に多大な影響を与え、いまだに人類の未来を形作っている。
しかしながら、分散シフトは、MLシステムの信頼性と一般的な有用性を根本的に制限する、永続的な ‘Achilles' heel'' のままである。
さらに、分散シフトの下での一般化は、AIの信頼問題も引き起こす。
これらの課題に動機づけられた私の研究は、AIの堅牢性、汎用性、そしてその責任と信頼性を拡張することを目的として、 \textit{Trustworthy Machine Learning under Distribution Shifts} に焦点を当てています。
1)摂動シフト,(2)ドメインシフト,(3)モダリティシフトの3つの共通分布シフトを慎重に検討する。
いずれのシナリオにおいても,(1)ロバスト性,(2)説明可能性,(3)適応性という3つの側面を通じて信頼性を厳格に調査する。
これらの次元に基づいて、効率性、適応性、安全性といった重要なML問題を強化することを目的として、効果的な解法と基本的な洞察を提案する。
関連論文リスト
- Beyond Statistical Learning: Exact Learning Is Essential for General Intelligence [59.07578850674114]
音の誘惑的推論は、一般知能の必然的に望ましい側面である。
もっとも先進的なフロンティアシステムでさえ、定期的かつ一貫して容易に解決可能な推論タスクに干渉していることは、よく文書化されている。
彼らの不健全な振る舞いは、彼らの発展を支えている統計的学習のアプローチの結果である、と我々は主張する。
論文 参考訳(メタデータ) (2025-06-30T14:37:50Z) - Position Paper: Bounded Alignment: What (Not) To Expect From AGI Agents [0.0]
このポジションペーパーの目的は、AIと機械学習(AI/ML)コミュニティにおけるAGIの現在支配的なビジョンが進化する必要がある、と論じることである。
この視点の変化は、より現実的な技術観をもたらし、より良い政策決定を可能にします。
論文 参考訳(メタデータ) (2025-05-17T06:17:57Z) - Epistemic Artificial Intelligence is Essential for Machine Learning Models to Truly 'Know When They Do Not Know' [10.098470725619384]
AIの素晴らしい成果にもかかわらず、不確実性を扱うAIシステムの能力には大きなギャップがある。
従来の機械学習アプローチは、データ適合性の過大評価のため、この問題に対処するのに苦労している。
このポジションペーパーは、認識論的人工知能へのパラダイムシフトを示し、モデルが知っていることから学ぶ必要性を強調している。
論文 参考訳(メタデータ) (2025-05-08T05:10:38Z) - A Multi-Layered Research Framework for Human-Centered AI: Defining the Path to Explainability and Trust [2.4578723416255754]
人間中心型AI(HCAI)は人間の価値観との整合性を強調し、説明可能なAI(XAI)はAI決定をより理解しやすくすることで透明性を高める。
本稿では,HCAI と XAI を橋渡し,構造的説明可能性パラダイムを確立する新しい3層フレームワークを提案する。
我々の発見は、透明性、適応性、倫理的に整合したAIシステムを育成するHCXAI(Human-Centered Explainable AI)を前進させた。
論文 参考訳(メタデータ) (2025-04-14T01:29:30Z) - An Overview of Large Language Models for Statisticians [109.38601458831545]
大規模言語モデル(LLM)は人工知能(AI)の変換ツールとして登場した。
本稿では, 統計学者がLLMの開発に重要な貢献できる可能性について考察する。
我々は不確実性定量化、解釈可能性、公正性、プライバシー、透かし、モデル適応といった問題に焦点を当てる。
論文 参考訳(メタデータ) (2025-02-25T03:40:36Z) - Hype, Sustainability, and the Price of the Bigger-is-Better Paradigm in AI [67.58673784790375]
AIパラダイムは、科学的に脆弱なだけでなく、望ましくない結果をもたらすものだ、と私たちは主張する。
第一に、効率の改善にもかかわらず、その計算要求はモデルの性能よりも速く増加するため、持続可能ではない。
第二に、健康、教育、気候などの重要な応用は別として、他人を犠牲にして特定の問題に焦点をあてることである。
論文 参考訳(メタデータ) (2024-09-21T14:43:54Z) - AI and Social Theory [0.0]
我々は、人工知能(AI)が意味するものを定義することから始まる、AI駆動型社会理論のプログラムをスケッチする。
そして、AIベースのモデルがデジタルデータの可用性を増大させ、予測力に基づいて異なる社会的理論の有効性をテストするためのモデルを構築します。
論文 参考訳(メタデータ) (2024-07-07T12:26:16Z) - Human-Timescale Adaptation in an Open-Ended Task Space [56.55530165036327]
大規模にRLエージェントを訓練することで、オープンエンドの新規な3D問題に人間と同じくらい早く適応できる一般的なコンテキスト内学習アルゴリズムが実現可能であることを示す。
我々の研究は、より大規模で適応的なRLエージェントの基礎を築いた。
論文 参考訳(メタデータ) (2023-01-18T15:39:21Z) - Explainable, Interpretable & Trustworthy AI for Intelligent Digital Twin: Case Study on Remaining Useful Life [0.5115559623386964]
エネルギーとエンジニアリングシステムにおけるAIの信頼性に自信を持つことは重要だ。
診断の正確な予測には、説明可能なAI(XAI)と解釈可能な機械学習(IML)が不可欠である。
論文 参考訳(メタデータ) (2023-01-17T03:17:07Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。