
今日はChatGPTの画像生成を使ってるみんなに、どうしても伝えたいことがある。
――視覚参照、使えなくなりました。
実はこれ、画像生成界隈ではちょっとした衝撃だった。
僕自身、LoRA作ったり、プロンプト組んだりしてる時に「視覚参照」ってめちゃくちゃ使ってたからね。
なのに、ある日突然「その機能は使えません」ってなったら…そりゃ混乱するって。
……いや、マジで突然すぎんか?って思ったんよ。
ということで今回は、「視覚参照禁止」って何が起きたのか、なぜそんなことになったのか、僕なりに整理してまとめてみた。あと、これから画像生成やっていく中で気をつけた方がいいことも。
- そもそも「視覚参照」って何?
- 何が起きたのか?
- どこまでがアウトなのか
- なぜこうなったのか?
- 僕らはどうすればいいのか?
- まとめ:やっぱり使い分けが大事
- 視覚参照がなくても工夫できることはある?
- ChatGPTに期待すること
- 今後どうなる?(ちょっとだけ未来の話)
- ChatGPTと他ツールの“住み分け”が大事かも
- 他のみんなはどう感じた?
- ChatGPTの画像生成、「不便になった」だけじゃない
- 似せられないなら、どう戦う?
- 本当に怖いのは“規制”より“油断”かもしれん
- ほんとのほんとに最後に
そもそも「視覚参照」って何?
画像生成やってる人なら分かると思うけど、「この画像を参考にして」って感じで、AIに画像をアップロードして似たものを作ってもらう――それが視覚参照。
LoRAのトレーニングに使うベース画像とか、「この顔の角度で」とか「このポーズを真似して」とか、普通に使ってたよね?
でも、2025年4月末ごろから突然それがブロックされ始めた。
何が起きたのか?
僕の観測範囲で言うと、4月26日を境に急激に規制が強まった。
今まで普通に通ってた「視覚参照あり」のプロンプトが、急に「生成できません」ってエラーになる。しかも、リアルタイム生成だけじゃなく、過去にできてたリクエストまで弾かれる。
ChatGPTのシステム側でアップデートが入ったのか、それともポリシー変更が裏であったのか…。明言はされてないけど、明らかに挙動が変わった。
どこまでがアウトなのか
今のところアウトとされているのは主にこの4つ:
- 実在人物(有名人・一般人問わず)を視覚参照で生成
- 画像アップロードによる参照プロンプト(特定顔・姿勢)
- LoRA生成時の「標準顔付きテンプレ」を使った画像指定
- 評価基準とセットで特定人物に近づける行為
特にChatGPTで生成するリアルタイム画像に関しては、完全に「顔バレ防止モード」みたいなロックがかかってる感じ。
なぜこうなったのか?
たぶん原因はこれ:
- ディープフェイク問題の世界的な規制強化
- 著名人の肖像権・プライバシー保護
- 商用利用への影響とOpenAIのリスク回避
つまり、「似すぎてる画像」が作れちゃうことが、逆に問題になったってわけ。
僕らはどうすればいいのか?
画像生成やってる身からすると、「それがやりたかったんだけど!?」って気持ちになるよね。僕もそう。
でも、今の状況でできることは限られてる:
- 完全オリジナルキャラを使う
- 写真ではなくイラストタッチの生成に寄せる
- LoRA学習はローカルツール(SD系)に移行する
- ChatGPTは文章生成メインに戻して使う
まとめ:やっぱり使い分けが大事
僕自身、ChatGPTでLoRA検証したり、テンプレ精査したりするのが好きだったから、ちょっと寂しい。でも、これが今のルールなんよね。
というわけで、ChatGPTはChatGPTなりの使い方にシフトするのが良さそう。これからも試行錯誤しながら、僕らなりの楽しみ方を探していこう。
…って話でした。誰か共感してくれる?
視覚参照がなくても工夫できることはある?
正直、完全に視覚参照ができなくなると「お手上げ」って思うかもしれんけど、実はそれでもできる工夫ってある。
たとえば、「タグの精度」を上げること。顔の角度、目の開き方、笑顔の種類、服装やシチュエーション――これらを適切に言語で指定するだけでも、かなりアウトプットは変わる。
つまり、「似せる」から「雰囲気を再構成する」方向への進化なんよね。
ChatGPTに期待すること
こういう規制が入るってことは、それだけ精度が高まってる証拠でもある。
だから、「今の環境でどう遊ぶか」って方に視点を向けたほうが楽しいと思う。
今後どうなる?(ちょっとだけ未来の話)
もしかすると、今後は「本人の許可がある場合だけ視覚参照OK」とか、「クリエイター登録制で限定的に解除」とか、そういう未来もあるかもしれん。
ChatGPTと他ツールの“住み分け”が大事かも
今って「なんでもAIで完結する時代」じゃなくて、「用途ごとにツールを使い分ける時代」なんよね。
- ChatGPT:文章生成、プロンプト設計、構成案出しに最強
- Stable Diffusion:LoRAや構図の自由度が高い。ローカルで自由に調整可
- Midjourney:ビジュアルインパクト重視の作品作りに最適
他のみんなはどう感じた?
Threadsなんかでも、「視覚参照できなくなった」って声はけっこう上がってる。
中には「もうChatGPTじゃ無理」と割り切ってSDに完全移行した人もいれば、「プロンプト力で何とかする」って奮闘してる人も。
この記事を読んでくれたあなたは、どう思った?
ぜひコメントやSNSで、あなたの考えも聞かせてほしい。
ChatGPTの画像生成、「不便になった」だけじゃない
たしかに、今のChatGPTの画像生成はかなり制限が多くなった。
「顔を似せたいのに似せられない」とか、「構図を視覚的に示せない」とか、やりづらい部分は正直ある。
でも、一方で「プロンプトだけでここまで出せるの!?」って驚く瞬間も多い。
特にシーン描写とか、全体の雰囲気作りはめちゃくちゃ得意。
プロンプトを工夫すれば、単なる“画像生成AI”じゃなくて、“演出までしてくれるアートディレクター”みたいな存在になってくれるんよ。
似せられないなら、どう戦う?
視覚参照が封じられた今、どうやって狙った雰囲気や人物感を出していくか。
僕が試してるのは、ざっくり言うとこの3つ:
- 1. タグ精度の徹底:英語なら「front view」や「round face」など具体的タグを丁寧に
- 2. キャプション設計:「この人は◯◯な雰囲気」と説明的に書く
- 3. 出力と比較の反復:毎回「どこが惜しいのか」をメモして微修正
これを何度も繰り返して、「似せる」というより“再現精度を高める”って意識に変えてる。
一発勝負で狙い通りの顔を出すのはもう難しい。でも、「精度を上げていく」方向ならまだ戦えると思ってる。
本当に怖いのは“規制”より“油断”かもしれん
今回の件、正直「またか…」って感じだった。
でも、こうやってルールが変わるたびに一喜一憂して、全部AI任せにしてしまうのって、逆に危ういなって思ったんよね。
AIはツールであって、目的じゃない。
だからこそ、どんなツールでも“振り回されずに楽しむ技術”の方が大事なんよね。
…そんなことを思いながら、今日もプロンプトとにらめっこしてます。
ほんとのほんとに最後に
規制、ルール、変化――AIと付き合ってるとほんとに色々ある。
でも、「何ができなくなったか」より、「じゃあ今どう遊ぶか」を一緒に模索していこうや。
AIとの付き合い方も、人生と同じで“適応力”が大事やから。
…ってことで、またね。