top of page

Stable Diffusion対応のAI生成画像判別システムを開発

Updated: Jun 17

AIによって生成された画像を判別するシステムを開発しました。最新の生成モデルであるStable Diffusionに対応しており、フェイク画像や動画に対抗する技術として、ファクトチェックなどの用途で活用し、社会問題の解決に取り組みます。


■本リリースのサマリー

  • AIが生成した画像を判別可能なシステムを開発

  • 最新モデル「Stable Diffusion」に対応

  • 実写真のようなフェイク画像の検出を得意とする

  • 画像に対してフェイク度を算出し、フェイク画像かどうかを判別する

  • ニーズに合わせたモデルの提供(API形式など)や相談が可能


■モデルの概要

この度開発したAI生成画像の判別システムは、画像生成AI「Stable Diffusion」によって生成された画像を判別する事が可能です。本モデルは実写真のようなフェイク画像の検出において高い性能を発揮しており、フェイクニュース対策やファクトチェックなどの用途での活用が期待されます。当社独自の検知技術を用いて算出されたフェイク度(0~1の範囲で表され、0.5以上がフェイクと見なされます)によってフェイク画像の判別をし、人間の眼ではリアルかフェイクの判別が困難な画像でも高精度に検出します(以下画像を参照)。





■今後の展望

近年の画像生成AIの急速な技術進歩に伴い様々な分野でパラダイムシフトが起きる中、AIによって生成された画像が、フェイク画像や動画として利用されるケースが増加しており、社会的な脅威として様々な産業や社会に与える影響は年々大きくなるばかりです。先の台風15号襲来時には、実際に画像生成AIで作られた偽画像がインターネット上で広く拡散したことで物議を醸しましたが、もはや人間が見て判別することが困難なほど精巧な画像や動画を生成するAI技術が存在します。また、これら画像生成AIの技術やサービスは続々と開発や一般公開が進んでおり、特別な技術が無くても誰もが手軽にフェイク画像や動画を生成することが可能となってきました。NABLASでは、これまでも画像・動画・音声データへのディープフェイク検知技術の開発を行って参りましたが、社会的なインフラとしてのフェイク検知技術へのニーズの高まりに対応し、今後はソーシャルメディアや認証システム、ファクトチェック機構に向けた技術開発などを通じて安心・安全な社会作りに貢献したいと考えています。

Comments


bottom of page