創られた“真実”ディープフェイクの時代|2025年3月18日放送
ディープフェイク技術は、AIの進化とともに急速に発展し、私たちの社会に深刻な影響を及ぼし始めています。もともと映画や広告などの分野で活用が期待されていましたが、現在では詐欺やフェイクポルノ、偽情報の拡散などの犯罪に悪用されるケースが増えています。世界各国で被害が拡大しているなか、日本でも法整備が遅れており、今後の対策が求められています。NHKスペシャル『創られた“真実”ディープフェイクの時代』では、世界で起きたディープフェイクによる事件を徹底取材し、実際に日本で起こり得る事態をドラマ化しています。
ディープフェイク詐欺の脅威
最近、企業を狙ったディープフェイク詐欺が急増しています。特にリモートワークの普及に伴い、オンライン会議や音声通話を悪用した詐欺が巧妙化しており、被害額も大きくなっています。2024年に世界中で発生した不正アクセス300万件のうち、21万件がディープフェイクを利用したものと報告され、前年の4倍に増加しました。専門家は、2025年にはさらに倍増すると警告しています。
・リモート会議を利用した詐欺が深刻化
香港の外資系企業では、社員がディープフェイク映像を使った偽のリモート会議に参加させられ、上司になりすました詐欺師から送金指示を受けました。会議に登場した人物は、表情や声の動きまで完璧に再現された偽の映像だったため、社員は不審に思うことなく指示に従い、日本円で約40億円を送金してしまいました。
- 詐欺の手口は年々進化しており、映像や音声を組み合わせた攻撃はよりリアルになっています。
- 企業の経理担当者や財務部門が標的にされやすいため、社内での情報共有とセキュリティ対策が重要です。
- 会議中に送金や契約書への署名を要求された場合は、直接電話やメールでの確認を行うことが必須です。
・音声詐欺の進化と新たなリスク
以前はCEOの音声を偽装した詐欺が主流でしたが、最近では動画まで本物そっくりに作られるようになっています。ディープフェイク技術は人の表情や声の抑揚を正確に再現できるため、映像通話でも相手が偽物だと気づきにくい状況になっています。
- わずか数分の音声データからでも高精度なディープフェイク音声を作成可能になっています。
- 詐欺師はSNSやYouTubeなどからターゲットの音声データを収集し、それをAIで解析して偽の音声を作成しています。
- 企業の従業員だけでなく、一般の個人も標的になり得るため、個人情報の管理がより重要になっています。
ディープフェイク詐欺の脅威は企業だけでなく、個人にも広がっているため、誰もが対策を意識する必要がある時代になっています。被害を防ぐためには、本人確認の強化、セキュリティ対策の徹底、情報の二重確認が欠かせません。
ディープフェイクの“活用”と“悪用”
ディープフェイク技術は、詐欺や偽情報の拡散といった悪用の側面が注目されがちですが、ビジネスやエンターテインメント、さらには個人の生活にも役立つ技術として活用されるケースも増えています。特に、映像制作や広告、故人の再現など、さまざまな分野で応用が進んでいます。
・亡くなった家族をAIで再現するサービス
中国では、亡くなった家族をディープフェイク技術で再現するサービスが広まり、多くの人が利用するようになっています。
- 祖母を励ますために孫が亡き父をディープフェイクで再現したという実例があり、大きな話題になりました。家族との再会が叶わない人にとっては、思い出を形にできる画期的な技術とも言えます。
- オンラインショップで「AIで故人を再現する」サービスが販売されており、個人が手軽に利用できる状況になっています。
- 一方で、プライバシーや倫理的な問題も指摘されており、「本人の許可なく作成することは問題ではないか?」という議論もあります。
・企業の広告や映画制作への応用
イギリスでは、実在の人物をAIに学習させ、バーチャルアバターとして活用する技術が開発されています。
- 企業の広告やPR動画に登場するモデルがすべてAI生成の人物というケースも増えています。これにより、広告費を削減できるメリットがあります。
- リアルタイムで会話ができるAIアバターも開発中で、営業担当者やカスタマーサポートとして導入される可能性があります。人手不足の解消にもつながると期待されています。
- 企業は実在の人物を使わずに広告が作れるため、著作権や肖像権の問題を回避できるという利点もありますが、その一方で、「本物の人間と区別がつかなくなる危険性」も指摘されています。
・映画業界での活用
映画業界でも、ディープフェイク技術を活用した映像制作が進んでいます。
- ハリウッド映画のような高品質な映像を、AIを使って低コストで制作する技術がアメリカで開発されています。
- 俳優の年齢を自由に調整したり、亡くなった俳優を映画に登場させたりすることが可能になっています。これにより、映画制作の自由度が飛躍的に向上しています。
- 低予算の映画やインディーズ映画でも、高品質な映像を作成できるようになるため、映像業界の新たな可能性が広がっています。
ディープフェイク技術は、悪用されるリスクがある一方で、正しく使えば私たちの生活やビジネスに大きなメリットをもたらす技術です。しかし、どこまでを「許容範囲」とするのか、倫理的な議論が求められる場面も増えてきています。今後、技術が進化する中で、どのように利用していくかを社会全体で考えていくことが重要です。
フェイクポルノ被害の深刻化
ディープフェイク技術が最も深刻に悪用されているのが、フェイクポルノの分野です。特に女性をターゲットにした被害が急増しており、一度拡散されると完全に削除することがほぼ不可能という大きな問題を抱えています。
・女性の顔を無断で使用する被害
日本や韓国、アメリカなどでは、女性の顔をポルノ動画に合成するディープフェイク被害が多発しています。
- ターゲットは有名人だけでなく一般人にも拡大しており、SNSに投稿した写真が悪用されるケースも増えています。
- 匿名性の高いメッセンジャーアプリやダークウェブで取引され、動画が違法サイトに流出することで、被害者が知らないうちに拡散されてしまいます。
- 削除を求めても完全に消すことがほぼ不可能であり、一度拡散されると取り返しがつかない状況になります。
・精神的被害の深刻さ
フェイクポルノの被害者は、自分の知らないところで作られた偽の動画が拡散されることによる恐怖や屈辱感を味わいます。
- 周囲の誤解を受ける可能性があるため、職場や学校での人間関係にも影響を及ぼします。
- 「自分の顔が合成されている」と証明することが難しいため、被害者が直接抗議しても信用されないケースがあります。
- 社会的なダメージが大きく、最悪の場合は精神的に追い詰められることもあります。
・韓国では厳しい規制が導入
フェイクポルノの問題に対し、韓国ではディープフェイクで作られた性的コンテンツの所持や視聴すら違法とする法律が施行されました。
- コンテンツを制作・拡散した場合の罰則が強化され、違反者には厳しい刑罰が科されることになっています。
- 被害者の申し立てなしでも捜査が可能となり、警察が積極的に取り締まることができる仕組みが整えられています。
- 削除依頼を迅速に受け付ける専用機関が設立され、被害者の負担を減らす動きが進められています。
・日本の現状と今後の課題
日本でもフェイクポルノの被害が増えていますが、まだ十分な規制が整っていないのが現状です。
- 「名誉毀損罪」や「わいせつ物頒布罪」などを適用するしかなく、ディープフェイク特有の被害には対応しきれていません。
- 被害を受けた側が自ら動かないと削除依頼ができないため、心理的負担が大きい状況です。
- 加害者が特定されにくく、取り締まりが難しいという問題もあります。
ディープフェイク技術の発展によって、誰もがターゲットになり得る時代になりました。今後は、日本でも早急に法整備を進め、被害を未然に防ぐ仕組みを整えることが求められています。また、個人レベルでも、顔写真をむやみにネットに公開しない、プライバシー設定を強化するなどの対策が必要になっています。
ディープフェイク対策の最前線
ディープフェイク技術の進化とともに、その悪用を防ぐための対策も世界中で進められています。AIを活用した検知技術や法整備の強化が求められる中、日本ではまだ十分な規制が整っておらず、早急な対応が必要とされています。
・AIを使ったディープフェイク検知技術
アメリカのベンチャー企業では、AIが作った偽の動画や画像をAIが見抜く技術を開発しています。
- 動画の細かな違和感を解析し、目の動きや顔の表情の不自然な点を識別することで、ディープフェイクを判別する仕組みです。
- 音声のわずかなゆらぎや、話す速度の違いをAIが分析し、本物との違いを検出します。
- 企業や政府機関向けに提供されるケースも増え、特に金融機関では不正送金を防ぐためのディープフェイク検知ツールが導入されています。
・規制の強化
世界各国では、ディープフェイクの悪用を防ぐために、法整備が急ピッチで進められています。
- アメリカでは州ごとにディープフェイク規制が強化され、特に政治家をターゲットにした偽動画の拡散を防ぐ法律が導入されています。
- イギリスでは、性的なディープフェイクの作成や配布を犯罪とする法改正が行われ、加害者には厳しい罰則が科せられるようになりました。
- 韓国では、ディープフェイクで作られたポルノコンテンツの「所持や視聴すら違法」とする厳しい法律が施行され、ディープフェイクの拡散を徹底的に防ぐ動きが進んでいます。
- 中国では、AIで作成された映像には「合成であることを明示する規制」が導入され、ディープフェイクの識別を容易にする取り組みが始まっています。
・日本の課題
日本では、ディープフェイクによる詐欺やフェイクポルノの被害が増加しているにもかかわらず、明確な法律がなく、既存の法律を適用するしかない状況です。
- 「名誉毀損罪」や「わいせつ図画頒布罪」を適用して対処するしかなく、ディープフェイク特有の被害に対応しきれていません。
- 被害者が自ら動かないと削除依頼ができず、精神的負担が大きいという問題があります。
- 加害者を特定するのが難しく、取り締まりが困難なため、被害者が泣き寝入りしてしまうケースが多発しています。
- 企業のセキュリティ対策も十分とは言えず、ディープフェイク詐欺に対する認識が低いままの組織も多いのが現状です。
ディープフェイクの悪用が広がる中で、日本でも法整備の強化や検知技術の導入を急ぐ必要があります。また、個人レベルでも、顔写真や動画をむやみにネット上に公開しない、情報の真偽を見極める力を身につけるといった対策が求められています。今後、ディープフェイク技術とどのように向き合い、どのように防いでいくのか、社会全体での取り組みが重要になってきます。
まとめ
ディープフェイク技術は、社会にさまざまな影響をもたらしています。便利な技術として活用される一方で、詐欺やフェイクポルノ、偽情報拡散といった深刻な問題が発生しており、世界中で規制の動きが加速しています。NHKスペシャル『創られた“真実”ディープフェイクの時代』では、実際に起きた事件や技術の進化、今後の課題について詳しく取り上げています。ディープフェイクがもたらす未来をどう受け止め、どのように対応すべきかを考えるきっかけになるでしょう。私たちも、情報の真偽を確かめる意識を持ち、被害に遭わないための対策を意識していくことが重要です。
コメント