まろブログ

脱オタしたので振り返りの意味を込めてなんか書くブログ

ChatGPT の画像生成規制のお話

 

f:id:marokoron:20250501141929p:image

 

今日はChatGPTの画像生成を使ってるみんなに、どうしても伝えたいことがある。 

 

――視覚参照、使えなくなりました。

 

実はこれ、画像生成界隈ではちょっとした衝撃だった。

 

僕自身、LoRA作ったり、プロンプト組んだりしてる時に「視覚参照」ってめちゃくちゃ使ってたからね。

 

なのに、ある日突然「その機能は使えません」ってなったら…そりゃ混乱するって。

 

……いや、マジで突然すぎんか?って思ったんよ。

 

ということで今回は、「視覚参照禁止」って何が起きたのか、なぜそんなことになったのか、僕なりに整理してまとめてみた。あと、これから画像生成やっていく中で気をつけた方がいいことも。

 

 

 

そもそも「視覚参照」って何?

画像生成やってる人なら分かると思うけど、「この画像を参考にして」って感じで、AIに画像をアップロードして似たものを作ってもらう――それが視覚参照。

LoRAのトレーニングに使うベース画像とか、「この顔の角度で」とか「このポーズを真似して」とか、普通に使ってたよね?

でも、2025年4月末ごろから突然それがブロックされ始めた。

 

何が起きたのか?

僕の観測範囲で言うと、4月26日を境に急激に規制が強まった。

今まで普通に通ってた「視覚参照あり」のプロンプトが、急に「生成できません」ってエラーになる。しかも、リアルタイム生成だけじゃなく、過去にできてたリクエストまで弾かれる。

ChatGPTのシステム側でアップデートが入ったのか、それともポリシー変更が裏であったのか…。明言はされてないけど、明らかに挙動が変わった。

 

 

どこまでがアウトなのか

今のところアウトとされているのは主にこの4つ:

  • 実在人物(有名人・一般人問わず)を視覚参照で生成
  • 画像アップロードによる参照プロンプト(特定顔・姿勢)
  • LoRA生成時の「標準顔付きテンプレ」を使った画像指定
  • 評価基準とセットで特定人物に近づける行為

特にChatGPTで生成するリアルタイム画像に関しては、完全に「顔バレ防止モード」みたいなロックがかかってる感じ。

 

なぜこうなったのか?

たぶん原因はこれ:

  • ディープフェイク問題の世界的な規制強化
  • 著名人の肖像権・プライバシー保護
  • 商用利用への影響とOpenAIのリスク回避

つまり、「似すぎてる画像」が作れちゃうことが、逆に問題になったってわけ。

 

 

僕らはどうすればいいのか?

画像生成やってる身からすると、「それがやりたかったんだけど!?」って気持ちになるよね。僕もそう。

でも、今の状況でできることは限られてる:

  • 完全オリジナルキャラを使う
  • 写真ではなくイラストタッチの生成に寄せる
  • LoRA学習はローカルツール(SD系)に移行する
  • ChatGPTは文章生成メインに戻して使う

 

まとめ:やっぱり使い分けが大事

僕自身、ChatGPTでLoRA検証したり、テンプレ精査したりするのが好きだったから、ちょっと寂しい。でも、これが今のルールなんよね。

というわけで、ChatGPTはChatGPTなりの使い方にシフトするのが良さそう。これからも試行錯誤しながら、僕らなりの楽しみ方を探していこう。

…って話でした。誰か共感してくれる?

 

 

視覚参照がなくても工夫できることはある?

正直、完全に視覚参照ができなくなると「お手上げ」って思うかもしれんけど、実はそれでもできる工夫ってある。

たとえば、「タグの精度」を上げること。顔の角度、目の開き方、笑顔の種類、服装やシチュエーション――これらを適切に言語で指定するだけでも、かなりアウトプットは変わる。

つまり、「似せる」から「雰囲気を再構成する」方向への進化なんよね。

 

ChatGPTに期待すること

こういう規制が入るってことは、それだけ精度が高まってる証拠でもある。

だから、「今の環境でどう遊ぶか」って方に視点を向けたほうが楽しいと思う。

 

今後どうなる?(ちょっとだけ未来の話)

もしかすると、今後は「本人の許可がある場合だけ視覚参照OK」とか、「クリエイター登録制で限定的に解除」とか、そういう未来もあるかもしれん。

 

ChatGPTと他ツールの“住み分け”が大事かも

今って「なんでもAIで完結する時代」じゃなくて、「用途ごとにツールを使い分ける時代」なんよね。

  • ChatGPT:文章生成、プロンプト設計、構成案出しに最強
  • Stable Diffusion:LoRAや構図の自由度が高い。ローカルで自由に調整可
  • Midjourney:ビジュアルインパクト重視の作品作りに最適

 

他のみんなはどう感じた?

Threadsなんかでも、「視覚参照できなくなった」って声はけっこう上がってる。

 

 

中には「もうChatGPTじゃ無理」と割り切ってSDに完全移行した人もいれば、「プロンプト力で何とかする」って奮闘してる人も。

この記事を読んでくれたあなたは、どう思った?

ぜひコメントやSNSで、あなたの考えも聞かせてほしい。

 

ChatGPTの画像生成、「不便になった」だけじゃない

たしかに、今のChatGPTの画像生成はかなり制限が多くなった。

「顔を似せたいのに似せられない」とか、「構図を視覚的に示せない」とか、やりづらい部分は正直ある。

でも、一方で「プロンプトだけでここまで出せるの!?」って驚く瞬間も多い。

特にシーン描写とか、全体の雰囲気作りはめちゃくちゃ得意。

プロンプトを工夫すれば、単なる“画像生成AI”じゃなくて、“演出までしてくれるアートディレクター”みたいな存在になってくれるんよ。

 

似せられないなら、どう戦う?

視覚参照が封じられた今、どうやって狙った雰囲気や人物感を出していくか。

僕が試してるのは、ざっくり言うとこの3つ:

  • 1. タグ精度の徹底:英語なら「front view」や「round face」など具体的タグを丁寧に
  • 2. キャプション設計:「この人は◯◯な雰囲気」と説明的に書く
  • 3. 出力と比較の反復:毎回「どこが惜しいのか」をメモして微修正

 

これを何度も繰り返して、「似せる」というより“再現精度を高める”って意識に変えてる。

 

一発勝負で狙い通りの顔を出すのはもう難しい。でも、「精度を上げていく」方向ならまだ戦えると思ってる。

 

本当に怖いのは“規制”より“油断”かもしれん

今回の件、正直「またか…」って感じだった。

でも、こうやってルールが変わるたびに一喜一憂して、全部AI任せにしてしまうのって、逆に危ういなって思ったんよね。

AIはツールであって、目的じゃない。

だからこそ、どんなツールでも“振り回されずに楽しむ技術”の方が大事なんよね。

…そんなことを思いながら、今日もプロンプトとにらめっこしてます。

 

ほんとのほんとに最後に

規制、ルール、変化――AIと付き合ってるとほんとに色々ある。

でも、「何ができなくなったか」より、「じゃあ今どう遊ぶか」を一緒に模索していこうや。

AIとの付き合い方も、人生と同じで“適応力”が大事やから。

 

 

 

…ってことで、またね。