近年、人工知能(AI)技術の進歩に伴い、巧妙な偽画像を用いた不正送金事件が相次いで報告されている。企業や個人が標的となり、被害が拡大していることから、専門家は警戒を強めるよう呼びかけている。
AI生成画像による不正の手口
AIを活用した画像生成技術は、実在する人物や書類を精巧に模倣することが可能だ。例えば、取引先の担当者になりすました偽の身分証明書や、偽の請求書を作成し、それを信用させて金銭を振り込ませるケースが確認されている。
これらの偽画像は、一見すると本物と見分けがつかないほど高品質であり、従来のセキュリティ対策では検出が困難な場合がある。特に、ビデオ通話や書類審査の際に、AI生成の顔画像や文書が使用されると、被害に遭うリスクが高まる。
被害事例と影響
実際に、ある企業では、AIで生成された取引先の担当者の顔画像を使ったビデオ通話で指示を受け、数百万円を不正に送金する被害が発生した。また、別のケースでは、偽の請求書がAIで作成され、経理担当者が気付かずに支払いを実行してしまった。
こうした被害は、企業の信用失墜や金銭的損失につながるだけでなく、個人情報の漏洩リスクも伴う。特に中小企業では、セキュリティ対策が不十分な場合が多く、標的になりやすいと指摘されている。
企業が取るべき対策
専門家は、AI生成画像による不正を防ぐために、以下のような対策を推奨している。
- 取引先との連絡手段を複数化し、電話や直接の対面などで確認する。
- AIによる画像検出ツールを導入し、不審な画像を自動的に識別する。
- 従業員への定期的なセキュリティ教育を実施し、最新の手口を周知する。
- 送金手続きの承認プロセスを厳格化し、複数人のチェックを必須とする。
また、個人レベルでも、身分証明書の画像を安易に送信しないことや、不審な連絡があった場合はすぐに確認することが重要だ。
今後の展望
AI技術の進化は今後も続くと見られ、それに伴い偽画像の品質も向上する可能性がある。そのため、セキュリティ対策も常に更新し、最新の脅威に対応できる体制を整えることが求められる。
企業は、サイバーセキュリティの専門家と連携し、リスク評価や対策の見直しを定期的に行うべきだ。また、業界全体での情報共有や、政府による規制強化の動きも期待される。
AI技術は私たちの生活に多くの恩恵をもたらす一方で、悪用されるリスクもはらんでいる。適切な対策を講じることで、安全に技術を活用していくことが重要である。



