スマートフォンを用いた金融取引では、顧客の本人確認手段として、顔の動画や静止画による生体認証が採用されるケースがある。こうした生体認証への脅威として、偽の動画を提示してなりすましを試みる攻撃が想定される。最近では、AI・機械学習によるディープフェイクを用いた攻撃の可能性を示唆する研究成果が複数発表され、現実的な脅威として認識する必要性が高まっている。対策としては、機械学習モデルによってディープフェイクを検知する手法の研究が活発化しており、複数の検知モデルを横並びで評価・比較した研究成果も発表されはじめている。こうした動向を踏まえると、今後、生体認証を採用している金融機関は、ディープフェイクによるリスクを評価し、必要に応じて対策を検討することが必要となるであろう。検知モデルの採用を検討する際には、想定されるディープフェイクや検知モデルの評価基準をまず設定し、公開されている評価・比較の研究事例を参照しながら、評価基準と合致したものを選択することが望ましい。また、ディープフェイクに関する技術の進歩が非常に速く、対策の有効性やリスクが時間とともに変化するため、技術動向のフォローやリスクの再評価を継続的に行うことも重要である。
キーワード:機械学習、生体認証、セキュリティ、ディープフェイク、リスク管理、AI
掲載論文等の内容や意見は、執筆者個人に属し、日本銀行あるいは金融研究所の公式見解を示すものではありません。