論文の概要: Generative AI for Social Impact
- arxiv url: http://arxiv.org/abs/2601.04238v1
- Date: Mon, 05 Jan 2026 02:44:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 17:01:52.810812
- Title: Generative AI for Social Impact
- Title(参考訳): ソーシャルインパクトのためのジェネレーティブAI
- Authors: Lingkai Kong, Cheol Woo Kim, Davin Choo, Milind Tambe,
- Abstract要約: AI for Social Impact(AI4SI)は、公衆衛生、保護、セキュリティにおいて魅力的な成果を上げている。
我々は,このボトルネックを,限られたデータや信頼できないデータから生じる観察的不足,決定や非定常性に関わる政策課題,人間とAIの整合性の摩擦という3つのギャップを通じて特徴づける。
我々は、生成AIがこれらのギャップを埋める統一的な経路を提供すると主張する。
- 参考スコア(独自算出の注目度): 37.37093679341245
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AI for Social Impact (AI4SI) has achieved compelling results in public health, conservation, and security, yet scaling these successes remains difficult due to a persistent deployment bottleneck. We characterize this bottleneck through three coupled gaps: observational scarcity resulting from limited or unreliable data; policy synthesis challenges involving combinatorial decisions and nonstationarity; and the friction of human-AI alignment when incorporating tacit expert knowledge and dynamic constraints. We argue that Generative AI offers a unified pathway to bridge these gaps. LLM agents assist in human-AI alignment by translating natural-language guidance into executable objectives and constraints for downstream planners, while diffusion models generate realistic synthetic data and support uncertainty-aware modeling to improve policy robustness and transfer across deployments. Together, these tools enable scalable, adaptable, and human-aligned AI systems for resource optimization in high-stakes settings.
- Abstract(参考訳): AI for Social Impact(AI4SI)は、公衆衛生、保護、セキュリティにおいて魅力的な成果を上げている。
我々は,このボトルネックを,限定的あるいは信頼できないデータから生じる観察的不足,組合せ的決定と非定常性を含む政策合成課題,暗黙の知識と動的制約を取り入れた人間のAIアライメントの摩擦という,3つの組み合わせのギャップによって特徴づける。
我々は、生成AIがこれらのギャップを埋める統一的な経路を提供すると主張する。
LLMエージェントは、自然言語ガイダンスを下流プランナーの実行可能な目的や制約に翻訳することで、人間とAIのアライメントを支援する一方、拡散モデルは現実的な合成データを生成し、不確実性を考慮したモデリングをサポートし、ポリシーの堅牢性を改善し、デプロイメント間での転送を支援する。
これらのツールを併用すれば、スケーラブルで適応性があり、かつ人間に整合したAIシステムが、ハイテイクな設定でリソース最適化に役立てられる。
関連論文リスト
- Approaches to Analysis and Design of AI-Based Autonomous Vehicles [12.672967565682724]
AIベースのフィードバックを通じてループを閉じると、自律運転の信頼性に重大なリスクが生じる可能性がある。
本稿では,AIに基づくAVクラスのためのモデリング,解析,合成のためのツールを開発することを目的とする。
論文 参考訳(メタデータ) (2025-09-15T17:32:29Z) - Rethinking Data Protection in the (Generative) Artificial Intelligence Era [138.07763415496288]
現代の(生産的な)AIモデルやシステムに生じる多様な保護ニーズを捉える4段階の分類法を提案する。
当社のフレームワークは、データユーティリティとコントロールのトレードオフに関する構造化された理解を提供し、AIパイプライン全体にわたっています。
論文 参考訳(メタデータ) (2025-07-03T02:45:51Z) - Epistemic Artificial Intelligence is Essential for Machine Learning Models to Truly 'Know When They Do Not Know' [10.098470725619384]
AIの素晴らしい成果にもかかわらず、不確実性を扱うAIシステムの能力には大きなギャップがある。
従来の機械学習アプローチは、データ適合性の過大評価のため、この問題に対処するのに苦労している。
このポジションペーパーは、認識論的人工知能へのパラダイムシフトを示し、モデルが知っていることから学ぶ必要性を強調している。
論文 参考訳(メタデータ) (2025-05-08T05:10:38Z) - LLMpatronous: Harnessing the Power of LLMs For Vulnerability Detection [0.0]
脆弱性検出のための大規模言語モデル(LLM)には、ユニークな課題がある。
脆弱性検出に機械学習モデルを使用した以前の試みは、効果がないことが証明されている。
我々は、これらの制限を緩和することに焦点を当てた、堅牢なAI駆動アプローチを提案する。
論文 参考訳(メタデータ) (2025-04-25T15:30:40Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。