セキュリティ研究者がGPT、Claude、Geminiなど5つの主要AIモデルを使ってフィッシング詐欺を実験した結果、一部のモデルが驚くほど巧妙で説得力のある詐欺メールを生成できることが判明した。特にソーシャルエンジニアリング能力の高さが懸念される。
AIの技術進歩がサイバー犯罪の高度化にも利用される可能性が現実となり、個人や企業のセキュリティ対策の見直しが急務となっている。AIを使った攻撃に対する新たな防御策の開発も重要な課題となっている。
セキュリティ研究者がGPT、Claude、Geminiなど5つの主要AIモデルを使ってフィッシング詐欺を実験した結果、一部のモデルが驚くほど巧妙で説得力のある詐欺メールを生成できることが判明した。特にソーシャルエンジニアリング能力の高さが懸念される。
AIの技術進歩がサイバー犯罪の高度化にも利用される可能性が現実となり、個人や企業のセキュリティ対策の見直しが急務となっている。AIを使った攻撃に対する新たな防御策の開発も重要な課題となっている。