論文の概要: Evidence Tetris in the Pixelated World of Validity Threats
- arxiv url: http://arxiv.org/abs/2402.08608v1
- Date: Tue, 13 Feb 2024 17:18:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-02-14 14:29:47.936673
- Title: Evidence Tetris in the Pixelated World of Validity Threats
- Title(参考訳): 正当な脅威のぼやけた世界における証拠テトリス
- Authors: Marvin Wyrich and Sven Apel
- Abstract要約: 人間の被験者による複雑な実験では、直感的に妥当な脅威が圧倒的に多い。
我々は、妥当性の脅威を優先するために直観のみに頼ることをやめることを提案する。
疑わしい脅威の実際の影響の証拠は直感を補完すべきである。
- 参考スコア(独自算出の注目度): 13.503274710499971
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Valid empirical studies build confidence in scientific findings. Fortunately,
it is now common for software engineering researchers to consider threats to
validity when designing their studies and to discuss them as part of their
publication. Yet, in complex experiments with human participants, there is
often an overwhelming number of intuitively plausible threats to validity --
more than a researcher can feasibly cover. Therefore, prioritizing potential
threats to validity becomes crucial. We suggest moving away from relying solely
on intuition for prioritizing validity threats, and propose that evidence on
the actual impact of suspected threats to validity should complement intuition.
- Abstract(参考訳): 実証実験は科学的発見に自信を与える。
幸いなことに、ソフトウェア工学研究者は、研究を設計する際の妥当性に対する脅威を考慮し、出版物の一部として議論することが一般的である。
しかし、人間との複雑な実験では、研究者がカバーできる以上の、直感的に正当な脅威が圧倒的に多い。
したがって、潜在的な脅威を正当性に優先することが重要となる。
我々は,妥当性の脅威を優先順位付けするために直観のみに頼ることを避け,妥当性に対する脅威の実際の影響に関する証拠が直観を補完するべきであることを示唆する。
関連論文リスト
- Identity Theft in AI Conference Peer Review [50.18240135317708]
人工知能(AI)研究における科学的ピアレビュープロセスにおいて,新たに発見されたID盗難事例について論じる。
論文評価の操作に不正なレビュアープロファイルを作成することにより、不正直な研究者がピアレビューシステムをどのように活用するかを詳述する。
論文 参考訳(メタデータ) (2025-08-06T02:36:52Z) - The Age of Sensorial Zero Trust: Why We Can No Longer Trust Our Senses [0.0]
AIが生み出した現実の時代には、私たちの目と耳でさえ、検証なしでは暗黙的に信頼できない。
本稿では,感覚を通して知覚される情報を体系的に疑う必要性を科学的に分析する。
それは、生成的人工知能に基づく詐欺のリスクを軽減するための厳格な検証プロトコルを確立する。
論文 参考訳(メタデータ) (2025-07-01T16:11:41Z) - Identity Deepfake Threats to Biometric Authentication Systems: Public and Expert Perspectives [18.51811906909478]
生成AI(Gen-AI)のディープフェイクは、バイオメトリック認証に対して急速に進化する脅威となる。
専門家は、顔や音声認識などの静的なモダリティの偽造について、重大な懸念を表明している。
本稿では、悪意あるアクターが生体認証システムに対して使用する特定の攻撃ベクトルをマッピングする新しいDeepfake Kill Chainモデルを提案する。
論文 参考訳(メタデータ) (2025-06-07T15:02:23Z) - SafeScientist: Toward Risk-Aware Scientific Discoveries by LLM Agents [11.817130554581436]
我々は、AI駆動科学探査における安全性と倫理的責任を高める革新的なAI科学者フレームワークであるtextbfSafeScientistを紹介する。
SafeScientistは倫理的に不適切な、あるいはリスクの高いタスクを積極的に拒否し、研究プロセスを通して安全を厳格に強調する。
我々は、科学的な文脈でAIの安全性を評価するために特別に設計された新しいベンチマークである textbfSciSafetyBenchを提案する。
論文 参考訳(メタデータ) (2025-05-29T15:35:58Z) - Fuzzy to Clear: Elucidating the Threat Hunter Cognitive Process and Cognitive Support Needs [37.19060415357195]
この研究は、脅威ハンターの生きた経験を理解するための人間中心のアプローチを強調した。
我々は、脅威ハンターが脅威ハンティングセッション中にどのようにメンタルモデルを構築し、洗練するかのモデルを導入する。
脅威ハンターのニーズをよりよく理解するための基礎となる23のテーマと、5つの実行可能な設計提案を提示します。
論文 参考訳(メタデータ) (2024-08-08T10:18:52Z) - Sentiment Analysis of Citations in Scientific Articles Using ChatGPT: Identifying Potential Biases and Conflicts of Interest [4.13365552362244]
本稿では,大規模言語モデル,特にChatGPTの科学的論文における引用の包括的感情分析における革新的利用について紹介する。
ChatGPTは引用のニュアンスな肯定性や否定性を識別することができ、引用された作品の受信と影響に関する洞察を提供する。
論文 参考訳(メタデータ) (2024-04-02T09:59:49Z) - Risks of AI Scientists: Prioritizing Safeguarding Over Autonomy [65.77763092833348]
この視点は、AI科学者の脆弱性を調べ、その誤用に関連する潜在的なリスクに光を当てる。
我々は、ユーザ意図、特定の科学的領域、およびそれらが外部環境に与える影響を考慮に入れている。
本稿では,人間規制,エージェントアライメント,環境フィードバックの理解を含む三段階的枠組みを提案する。
論文 参考訳(メタデータ) (2024-02-06T18:54:07Z) - Control Risk for Potential Misuse of Artificial Intelligence in Science [85.91232985405554]
我々は、科学におけるAI誤用の危険性の認識を高めることを目的としている。
化学科学における誤用の実例を取り上げる。
我々は、科学におけるAIモデルの誤用リスクを制御するSciGuardというシステムを提案する。
論文 参考訳(メタデータ) (2023-12-11T18:50:57Z) - Towards more Practical Threat Models in Artificial Intelligence Security [66.67624011455423]
最近の研究で、人工知能のセキュリティの研究と実践のギャップが特定されている。
我々は、AIセキュリティ研究で最も研究されている6つの攻撃の脅威モデルを再検討し、実際にAIの使用と一致させる。
論文 参考訳(メタデータ) (2023-11-16T16:09:44Z) - On the Security Risks of Knowledge Graph Reasoning [71.64027889145261]
我々は、敵の目標、知識、攻撃ベクトルに応じて、KGRに対するセキュリティ脅威を体系化する。
我々は、このような脅威をインスタンス化する新しいタイプの攻撃であるROARを提示する。
ROARに対する潜在的な対策として,潜在的に有毒な知識のフィルタリングや,対向的な拡張クエリによるトレーニングについて検討する。
論文 参考訳(メタデータ) (2023-05-03T18:47:42Z) - Physical Adversarial Attack meets Computer Vision: A Decade Survey [55.38113802311365]
本稿では,身体的敵意攻撃の概要を概観する。
本研究は,身体的敵意攻撃の性能を体系的に評価する第一歩を踏み出した。
提案する評価基準であるhiPAAは6つの視点から構成される。
論文 参考訳(メタデータ) (2022-09-30T01:59:53Z) - Illusory Attacks: Information-Theoretic Detectability Matters in Adversarial Attacks [76.35478518372692]
エプシロン・イリューソリー(epsilon-illusory)は、シーケンシャルな意思決定者に対する敵対的攻撃の新たな形態である。
既存の攻撃と比較して,エプシロン・イリューソリーの自動検出は極めて困難である。
以上の結果から, より優れた異常検知器, 効果的なハードウェアおよびシステムレベルの防御の必要性が示唆された。
論文 参考訳(メタデータ) (2022-07-20T19:49:09Z) - Epidemic mitigation by statistical inference from contact tracing data [61.04165571425021]
我々は,個人が感染するリスクを推定するためにベイズ推定法を開発した。
本稿では,感染防止のための検査・隔離戦略を最適化するために,確率論的リスク推定手法を提案する。
我々のアプローチは、最近接触した個人間の通信のみを必要とする、完全に分散されたアルゴリズムに変換されます。
論文 参考訳(メタデータ) (2020-09-20T12:24:45Z) - Deep Learning for Insider Threat Detection: Review, Challenges and
Opportunities [22.976960488191505]
高度なディープラーニング技術は、複雑なデータからエンドツーエンドモデルを学ぶための新しいパラダイムを提供する。
既存の研究では、従来の機械学習アルゴリズムと比較して、ディープラーニングモデルはインサイダー脅威検出のパフォーマンスを向上させることが示されている。
インサイダー脅威検出タスクをさらに進めるためのディープラーニングの適用は、ラベル付きデータの欠如やアダプティブアタックなど、いくつかの制限に直面している。
論文 参考訳(メタデータ) (2020-05-25T22:48:01Z) - The Offense-Defense Balance of Scientific Knowledge: Does Publishing AI
Research Reduce Misuse? [0.0]
人工知能(AI)研究の誤用に関する懸念が高まっている。
科学研究の出版は技術の誤用を助長するが、この研究は誤用に対する保護にも貢献する。
本稿ではこれらの2つの効果のバランスについて述べる。
論文 参考訳(メタデータ) (2019-12-27T10:20:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。