論文の概要: A Survey of AI Reliance
- arxiv url: http://arxiv.org/abs/2408.03948v2
- Date: Sat, 30 Aug 2025 14:03:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-03 20:08:26.154142
- Title: A Survey of AI Reliance
- Title(参考訳): AIの信頼性に関する調査
- Authors: Sven Eckhardt, Niklas Kühl, Mateusz Dolata, Gerhard Schwabe,
- Abstract要約: この調査は、AI依存に関する新しい包括的な社会技術的視点を提示する。
この調査は、厳格なAI依存の研究をガイドする形態的ボックスをもたらす分類フレームワークを紹介している。
- 参考スコア(独自算出の注目度): 10.930678550455568
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Although artificial intelligence (AI) systems are becoming increasingly indispensable, research into how humans rely on these systems (AI reliance) is lagging behind. To advance this research, this survey presents a novel, comprehensive sociotechnical perspective on AI reliance, essential to fully understand the phenomenon. To address these challenges, the survey introduces a categorization framework resulting in a morphological box, which guides rigorous AI reliance research. Further, the survey identifies the core influences on AI reliance within the components of a sociotechnical system and discusses current limitations alongside emerging future research avenues to form a research agenda.
- Abstract(参考訳): 人工知能(AI)システムはますます不可欠になりつつあるが、人間がどのようにこれらのシステム(AI依存)に依存しているかの研究は遅れつつある。
この研究を進めるために、この調査は、この現象を完全に理解するために欠かせない、AI依存に関する新しい総合的な社会技術的視点を提示する。
これらの課題に対処するため、この調査では、厳格なAI依存の研究をガイドする形態的ボックスをもたらす分類フレームワークを導入している。
さらに、この調査は、社会技術システムのコンポーネントにおけるAI依存に対する中核的な影響を特定し、今後の研究課題と並行して、研究課題を形成するための現在の制限について論じている。
関連論文リスト
- ResearcherBench: Evaluating Deep AI Research Systems on the Frontiers of Scientific Inquiry [22.615102398311432]
我々は、ディープAI研究システムの能力を評価することに焦点を当てた最初のベンチマークであるResearcherBenchを紹介する。
現実の科学的シナリオから専門的に選択された65の質問のデータセットを収集した。
OpenAI Deep ResearchとGemini Deep Researchは、他のシステムよりも格段に優れており、オープンエンドのコンサルティングの質問では特に強みがある。
論文 参考訳(メタデータ) (2025-07-22T06:51:26Z) - AI4Research: A Survey of Artificial Intelligence for Scientific Research [55.5452803680643]
我々はAI for Research(AI4Research)に関する総合的な調査を行う。
まず、AI4Researchの5つの主要なタスクを分類する系統分類を導入する。
主要な研究ギャップを特定し、将来有望な方向性を明らかにする。
論文 参考訳(メタデータ) (2025-07-02T17:19:20Z) - The AI Imperative: Scaling High-Quality Peer Review in Machine Learning [49.87236114682497]
AIによるピアレビューは、緊急の研究とインフラの優先事項になるべきだ、と私たちは主張する。
我々は、事実検証の強化、レビュアーのパフォーマンスの指導、品質改善における著者の支援、意思決定におけるAC支援におけるAIの具体的な役割を提案する。
論文 参考訳(メタデータ) (2025-06-09T18:37:14Z) - Open and Sustainable AI: challenges, opportunities and the road ahead in the life sciences [50.9036832382286]
我々は、AI研究成果に対する信頼の侵食の増加についてレビューする。
我々は、AIエコシステムの断片化されたコンポーネントと、OpenとSustainable AIを最大限にサポートするためのガイドパスの欠如について論じる。
私たちの研究は、研究者と関連するAIリソースを結びつけることで、持続可能な、再利用可能な、透過的なAIの実装を容易にします。
論文 参考訳(メタデータ) (2025-05-22T12:52:34Z) - AI-Driven Automation Can Become the Foundation of Next-Era Science of Science Research [58.944125758758936]
科学科学(Science of Science, SoS)は、科学的発見の基礎となるメカニズムを探求する。
人工知能(AI)の出現は、次世代のSoSに変革の機会をもたらす。
我々は、従来の手法よりもAIの利点を概説し、潜在的な制限について議論し、それらを克服するための経路を提案する。
論文 参考訳(メタデータ) (2025-05-17T15:01:33Z) - Agentic AI for Scientific Discovery: A Survey of Progress, Challenges, and Future Directions [0.0]
エージェントAIシステムは推論、計画、自律的な意思決定を行うことができる。
彼らは、科学者が文献のレビューを行い、仮説を作成し、実験を行い、結果を分析する方法を変えようとしている。
論文 参考訳(メタデータ) (2025-03-12T01:00:05Z) - Raising the Stakes: Performance Pressure Improves AI-Assisted Decision Making [57.53469908423318]
日常の人が共通のAI支援タスクを完了すると、パフォーマンスプレッシャーがAIアドバイスへの依存に与える影響を示す。
利害関係が高い場合には、AIの説明の有無にかかわらず、利害関係が低い場合よりもAIアドバイスを適切に使用することが分かりました。
論文 参考訳(メタデータ) (2024-10-21T22:39:52Z) - Rolling in the deep of cognitive and AI biases [1.556153237434314]
我々は、AIが設計、開発、デプロイされる状況とは切り離せない社会技術システムとして理解する必要があると論じる。
我々は、人間の認知バイアスがAIフェアネスの概観の中核となる急進的な新しい方法論に従うことで、この問題に対処する。
我々は、人間にAIバイアスを正当化する新しいマッピングを導入し、関連する公正度と相互依存を検出する。
論文 参考訳(メタデータ) (2024-07-30T21:34:04Z) - Trust in AI: Progress, Challenges, and Future Directions [6.724854390957174]
私たちの日常生活における人工知能(AI)システムの利用の増加は、ユーザの視点からAIにおける信頼と不信の重要性を説明してくれます。
AIにおける信頼/不信は規制官の役割を担い、この拡散のレベルを著しく制御することができる。
論文 参考訳(メタデータ) (2024-03-12T20:26:49Z) - Testing autonomous vehicles and AI: perspectives and challenges from cybersecurity, transparency, robustness and fairness [53.91018508439669]
この研究は、人工知能を自律走行車(AV)に統合する複雑さを探求する
AIコンポーネントがもたらした課題と、テスト手順への影響を調べます。
本稿は、重要な課題を特定し、AV技術におけるAIの研究・開発に向けた今後の方向性を提案する。
論文 参考訳(メタデータ) (2024-02-21T08:29:42Z) - From Google Gemini to OpenAI Q* (Q-Star): A Survey of Reshaping the
Generative Artificial Intelligence (AI) Research Landscape [5.852005817069381]
生成人工知能(AI)の現状と今後の動向について批判的考察
GoogleのGeminiや、予想されるOpenAI Q*プロジェクトといったイノベーションが、さまざまなドメインにわたる研究の優先順位とアプリケーションをどう変えているのかを調査した。
この研究は、倫理的および人間中心の手法をAI開発に取り入れることの重要性を強調し、社会規範と福祉の整合性を確保した。
論文 参考訳(メタデータ) (2023-12-18T01:11:39Z) - Analyzing Character and Consciousness in AI-Generated Social Content: A
Case Study of Chirper, the AI Social Network [0.0]
この研究はAIの振る舞いを包括的に調査し、多様な設定がチャーパーの反応に与える影響を分析している。
一連の認知テストを通じて、この研究はチャーパーズの自己認識とパターン認識の能力を評価する。
この研究の興味深い側面は、チャーパーのハンドルやパーソナリティのタイプがパフォーマンスに与える影響を探ることである。
論文 参考訳(メタデータ) (2023-08-30T15:40:18Z) - AI empowering research: 10 ways how science can benefit from AI [0.0]
本稿では,人工知能(AI)が科学的研究に与える影響について考察する。
強力な参照ツール、研究問題の理解の改善、研究質問生成の改善、最適化された研究設計、スタブデータ生成、データ変換、高度なデータ分析、AI支援レポートなど、AIが科学者の仕事に革命をもたらす10の方法を強調している。
論文 参考訳(メタデータ) (2023-07-17T18:41:18Z) - Enhancing Artificial intelligence Policies with Fusion and Forecasting:
Insights from Indian Patents Using Network Analysis [0.0]
本稿では,人工知能(AI)技術の相互接続性と相互依存性について述べる。
異なる時間窓を通して技術を分析し、その重要性を定量化することで、AIのランドスケープを形成する重要なコンポーネントに関する重要な洞察を明らかにしました。
論文 参考訳(メタデータ) (2023-04-20T18:37:11Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Characterising Research Areas in the field of AI [68.8204255655161]
トピックの共起ネットワーク上でクラスタリング分析を行うことで,主要な概念テーマを特定した。
その結果は、ディープラーニングや機械学習、物のインターネットといった研究テーマに対する学術的関心の高まりを浮き彫りにしている。
論文 参考訳(メタデータ) (2022-05-26T16:30:30Z) - On the Influence of Explainable AI on Automation Bias [0.0]
我々は、説明可能なAI(XAI)によって自動化バイアスに影響を与える可能性に光を当てることを目指している。
ホテルのレビュー分類に関するオンライン実験を行い、最初の結果について議論する。
論文 参考訳(メタデータ) (2022-04-19T12:54:23Z) - Should I Follow AI-based Advice? Measuring Appropriate Reliance in
Human-AI Decision-Making [0.0]
私たちは、人間がAIアドバイスを盲目的に頼らず、その品質を区別し、より良い意思決定を行うために行動できるようにすることを目標としています。
現在の研究では、ケースバイケースベースでAIアドバイスに対する適切な信頼(AR)の基準が欠如している。
我々は、ARをアドバイス品質を識別し、それに応じて振る舞う能力を測定する2次元構成体として見ることを提案する。
論文 参考訳(メタデータ) (2022-04-14T12:18:51Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Stakeholder Participation in AI: Beyond "Add Diverse Stakeholders and
Stir" [76.44130385507894]
本稿では、既存の文献の参加と現在の実践の実証分析を通じて、AI設計における「参加的転換」を掘り下げることを目的としている。
本稿では,本論文の文献合成と実証研究に基づいて,AI設計への参加的アプローチを解析するための概念的枠組みを提案する。
論文 参考訳(メタデータ) (2021-11-01T17:57:04Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。