論文の概要: Autonomation, Not Automation: Activities and Needs of European Fact-checkers as a Basis for Designing Human-Centered AI Systems
- arxiv url: http://arxiv.org/abs/2211.12143v3
- Date: Thu, 04 Sep 2025 15:52:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-05 20:21:09.826975
- Title: Autonomation, Not Automation: Activities and Needs of European Fact-checkers as a Basis for Designing Human-Centered AI Systems
- Title(参考訳): 自動化ではなく自動化 - 人中心AIシステム設計の基盤としてのヨーロッパのファクトチェッカーの活動とニーズ
- Authors: Andrea Hrckova, Robert Moro, Ivan Srba, Jakub Simko, Maria Bielikova,
- Abstract要約: 我々は中央ヨーロッパのファクトチェッカーに詳しいインタビューを行った。
我々の貢献には、非英語圏における事実確認作業の多様性に関する詳細な調査が含まれる。
我々は,ファクトチェッカーの活動に関する知見をマッピングし,AI研究に必要な課題について考察した。
- 参考スコア(独自算出の注目度): 7.654738260420559
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To mitigate the negative effects of false information more effectively, the development of Artificial Intelligence (AI) systems to assist fact-checkers is needed. Nevertheless, the lack of focus on the needs of these stakeholders results in their limited acceptance and skepticism toward automating the whole fact-checking process. In this study, we conducted semi-structured in-depth interviews with Central European fact-checkers. Their activities and problems were analyzed using iterative content analysis. The most significant problems were validated with a survey of European fact-checkers, in which we collected 24 responses from 20 countries, i.e., 62% of active European signatories of the International Fact-Checking Network (IFCN). Our contributions include an in-depth examination of the variability of fact-checking work in non-English-speaking regions, which still remained largely uncovered. By aligning them with the knowledge from prior studies, we created conceptual models that help to understand the fact-checking processes. In addition, we mapped our findings on the fact-checkers' activities and needs to the relevant tasks for AI research, while providing a discussion on three AI tasks that were not covered by previous similar studies. The new opportunities identified for AI researchers and developers have implications for the focus of AI research in this domain.
- Abstract(参考訳): 偽情報のネガティブな影響をより効果的に軽減するためには,ファクトチェックを支援する人工知能(AI)システムの開発が必要である。
それでも、ステークホルダーのニーズに焦点が当てられていないため、ファクトチェックプロセス全体を自動化するための受け入れが限定され、懐疑的になる。
本研究では,中央ヨーロッパファクトチェッカーを対象とした半構造化インディーインタビューを行った。
彼らの活動と問題は反復的コンテンツ分析を用いて分析された。
IFCN(International Fact-Checking Network)のアクティブな欧州署名者の62%にあたる20カ国から24の回答を収集した。
我々の貢献には、英語を話さない地域でのファクトチェック作業の多様性に関する詳細な調査が含まれています。
それらを先行研究の知識と整合させることで、ファクトチェックプロセスを理解するのに役立つ概念モデルを作成しました。
さらに、我々は、ファクトチェッカーの活動とAI研究に関連するタスクに対するニーズに関する知見をマッピングし、以前の類似研究ではカバーされなかった3つのAIタスクに関する議論を行った。
AI研究者と開発者が特定する新たな機会は、この分野におけるAI研究の焦点に影響を及ぼす。
関連論文リスト
- Opting Out of Generative AI: a Behavioral Experiment on the Role of Education in Perplexity AI Avoidance [0.0]
本研究は,形式教育の違いがCAIの回避に結びついているかどうかを考察する。
発見は、AI導入における教育の中心的役割と、AI関連の研究における自己選択バイアスの役割を浮き彫りにする。
論文 参考訳(メタデータ) (2025-07-10T16:05:11Z) - AI4Research: A Survey of Artificial Intelligence for Scientific Research [55.5452803680643]
我々はAI for Research(AI4Research)に関する総合的な調査を行う。
まず、AI4Researchの5つの主要なタスクを分類する系統分類を導入する。
主要な研究ギャップを特定し、将来有望な方向性を明らかにする。
論文 参考訳(メタデータ) (2025-07-02T17:19:20Z) - The AI Imperative: Scaling High-Quality Peer Review in Machine Learning [49.87236114682497]
AIによるピアレビューは、緊急の研究とインフラの優先事項になるべきだ、と私たちは主張する。
我々は、事実検証の強化、レビュアーのパフォーマンスの指導、品質改善における著者の支援、意思決定におけるAC支援におけるAIの具体的な役割を提案する。
論文 参考訳(メタデータ) (2025-06-09T18:37:14Z) - From Assistance to Autonomy -- A Researcher Study on the Potential of AI Support for Qualitative Data Analysis [2.2010811029011474]
大規模言語モデルのようなAIツールの出現は、質的データ分析(QDA)の新しい可能性をもたらした。
大規模言語モデルのようなAIツールの出現は、QDAの新たな可能性を導入し、機会と課題の両方を提供している。
QDAにAIの責任ある統合をナビゲートするために、QDAに経験した15人のHCI研究者と半構造化インタビューを行った。
参加者はQDAでAIサポートを受けていましたが、データプライバシの自律性とAI出力の品質に関する懸念を表明しました。
私たちは、最小限のAI関与から高いAI関与まで、具体的なシナリオを提供するフレームワークを開発しました。
論文 参考訳(メタデータ) (2025-01-31T16:37:19Z) - ML Research Benchmark [0.0]
MLRB(ML Research Benchmark)は,最近の機械学習カンファレンスのトラックから派生した7つの競合レベルタスクからなる。
本稿では,Claude-3 や GPT-4o などのフロンティアモデルを用いたエージェント足場を用いて,新しいベンチマークを提案し,評価する。
結果は、Claude-3.5 Sonnetエージェントがベンチマーク全体で最高のパフォーマンスを示し、機械学習モデルの設計と開発に優れていたことを示唆している。
論文 参考訳(メタデータ) (2024-10-29T21:38:42Z) - AI Research is not Magic, it has to be Reproducible and Responsible: Challenges in the AI field from the Perspective of its PhD Students [1.1922075410173798]
欧州13カ国から28名のAI博士候補を調査した。
課題は、データセット、モデル、実験などのAIリソースの発見可能性と品質だ。
責任と再現可能なAI研究プラクティスをすぐに採用する必要がある。
論文 参考訳(メタデータ) (2024-08-13T12:19:02Z) - OlympicArena: Benchmarking Multi-discipline Cognitive Reasoning for Superintelligent AI [73.75520820608232]
我々は,11,163のバイリンガル問題を含む,テキストのみとインターリーブされたテキストイメージのモダリティを紹介する。
これらの課題には、7つのフィールドと62の国際オリンピック大会にわたる幅広い規律が含まれており、データ漏洩について厳格に調査されている。
我々の評価によると、GPT-4oのような先進モデルでさえ、複雑な推論とマルチモーダル統合における現在のAI制限を反映して、全体的な精度は39.97%しか達成していない。
論文 参考訳(メタデータ) (2024-06-18T16:20:53Z) - The Impact and Opportunities of Generative AI in Fact-Checking [12.845170214324662]
生成AIは、OpenAIのフラッグシップGPTモデルを使用したフォーチュン500企業の90%以上が、ホワイトカラーの専門職を変革する可能性がある。
しかし、そのような技術は、事実情報の検証と報告を行う組織にどのように影響しますか?
我々は6大陸29のファクトチェック組織で働くN=38人を対象に30回のインタビューを行った。
論文 参考訳(メタデータ) (2024-05-24T23:58:01Z) - Testing autonomous vehicles and AI: perspectives and challenges from cybersecurity, transparency, robustness and fairness [53.91018508439669]
この研究は、人工知能を自律走行車(AV)に統合する複雑さを探求する
AIコンポーネントがもたらした課題と、テスト手順への影響を調べます。
本稿は、重要な課題を特定し、AV技術におけるAIの研究・開発に向けた今後の方向性を提案する。
論文 参考訳(メタデータ) (2024-02-21T08:29:42Z) - The Foundations of Computational Management: A Systematic Approach to
Task Automation for the Integration of Artificial Intelligence into Existing
Workflows [55.2480439325792]
本稿では,タスク自動化の体系的アプローチである計算管理を紹介する。
この記事では、ワークフロー内でAIを実装するプロセスを開始するための、ステップバイステップの手順を3つ紹介する。
論文 参考訳(メタデータ) (2024-02-07T01:45:14Z) - Assessing AI Impact Assessments: A Classroom Study [14.768235460961876]
提案されたAIシステムへの影響を想像するための構造化プロセスを提供するツール群であるAIIA(Artificial Intelligence Impact Assessments)が、AIシステムを管理するための提案としてますます人気が高まっている。
近年、政府や民間団体の取り組みによりAIIAの多様なインスタンス化が提案されている。
我々は,AIの社会的・倫理的意味に焦点をあてた選択科目において,大規模な研究集約大学(R1)で授業研究を行う。
影響評価が参加者の潜在能力に対する認識に影響を及ぼすという予備的証拠を見いだす。
論文 参考訳(メタデータ) (2023-11-19T01:00:59Z) - AI for IT Operations (AIOps) on Cloud Platforms: Reviews, Opportunities
and Challenges [60.56413461109281]
IT運用のための人工知能(AIOps)は、AIのパワーとIT運用プロセスが生成するビッグデータを組み合わせることを目的としている。
我々は、IT運用活動が発信する重要なデータの種類、分析における規模と課題、そしてどのように役立つかについて深く議論する。
主要なAIOpsタスクは、インシデント検出、障害予測、根本原因分析、自動アクションに分類します。
論文 参考訳(メタデータ) (2023-04-10T15:38:12Z) - Towards AI-Empowered Crowdsourcing [27.0404686687184]
本稿では,AIを活用したクラウドソーシングをタスク委譲,労働者のモチベーション,品質管理の3分野に分けた分類法を提案する。
限界と洞察を議論し、これらの領域で研究を行う上での課題を整理し、将来有望な研究方向性を明らかにする。
論文 参考訳(メタデータ) (2022-12-28T05:06:55Z) - Characterising Research Areas in the field of AI [68.8204255655161]
トピックの共起ネットワーク上でクラスタリング分析を行うことで,主要な概念テーマを特定した。
その結果は、ディープラーニングや機械学習、物のインターネットといった研究テーマに対する学術的関心の高まりを浮き彫りにしている。
論文 参考訳(メタデータ) (2022-05-26T16:30:30Z) - Artificial Intelligence for IT Operations (AIOPS) Workshop White Paper [50.25428141435537]
AIOps(Artificial Intelligence for IT Operations)は、マシンラーニング、ビッグデータ、ストリーミング分析、IT運用管理の交差点で発生する、新たな学際分野である。
AIOPSワークショップの主な目的は、アカデミアと産業界の両方の研究者が集まり、この分野での経験、成果、作業について発表することです。
論文 参考訳(メタデータ) (2021-01-15T10:43:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。