「せっかくMidjourneyで気に入った画像が生成できたのに、次に似た雰囲気で作ろうとしたらまったく別物になってしまった……」そんな経験、ありませんか? 実はこの悩みを一発で解決してくれるのが、スタイルリファレンス(–sref)という機能です。数字のコードをひとつ入力するだけで、色味やタッチ、ライティングの雰囲気まで丸ごと再現してくれるこの仕組みは、2025年6月のv7デフォルト化以降さらに大幅に進化しました。そして2026年3月17日にはV8アルファ版が公開され、Midjourneyの世界はまた新たなステージに突入しています。
この記事では、初心者でもすぐに使いこなせるように、Midjourneyのスタイルリファレンスv7の基本から応用テクニック、さらにはV8時代を見据えた最新情報まで徹底的にお伝えします。
- Midjourneyのスタイルリファレンスv7における–srefコードの基本的な使い方と–svパラメータの違いを網羅的に解説。
- スタイルウェイト調整やコードの組み合わせなど、絵柄を狙い通りにコントロールする実践テクニックの紹介。
- 2026年3月公開のV8アルファ版との互換性や、スタイルクリエイター機能を含む最新動向の徹底分析。
- そもそもMidjourneyのスタイルリファレンスv7とは何なのか?
- Srefコードの基本的な使い方をマスターしよう
- v7で変わった!–svパラメータとスタイルバージョンの全体像
- スタイルウェイト(–sw)で影響度を繊細にコントロールする
- スタイルクリエイターで自分だけのオリジナルコードを作る
- Niji7モデルとスタイルリファレンスの相性が抜群な理由
- 2026年3月最新!V8アルファ版でSrefはどう変わるのか?
- 実践で差がつく!Srefコード活用の上級テクニック
- 現場で本当に困る「Srefあるある問題」とその具体的な解決手順
- そのまま使える!Srefを活かすシーン別プロンプトテンプレート集
- プロが密かにやっている「Srefコード管理術」と効率化ワークフロー
- ドラフトモードを活用してSrefの試行錯誤コストを半額にする方法
- Srefコードと–noパラメータの併用で「望まない要素」を排除する実践例
- Sref×パーソナライゼーション×ムードボードの三位一体を使いこなす順番
- GPU時間を賢く使う!コスト意識を持ったSref活用のリアルな計算
- ぶっちゃけこうした方がいい!
- Midjourneyのスタイルリファレンスv7に関する疑問解決
- まとめ
そもそもMidjourneyのスタイルリファレンスv7とは何なのか?

画像生成AIのイメージ
Midjourneyにおけるスタイルリファレンスとは、生成する画像の「見た目の雰囲気」を指定できる機能のことです。具体的には、プロンプトの末尾に–srefというパラメータを付け、その後に数値コードか画像URLを入力することで、色調やテクスチャ、筆致、照明の方向性といったスタイル要素だけを抽出して新しい画像に反映させます。
ここで重要なのは、スタイルリファレンスが参照するのはあくまで「画風」であって「被写体」ではないという点です。たとえば水彩画風の猫の画像をスタイルリファレンスとして設定し、プロンプトで「城」と入力すれば、水彩画風の城が生成されます。被写体は完全に切り替わりつつも、色使いやブラシストロークの雰囲気は維持される。これがスタイルリファレンスの真骨頂です。
v7ではこのスタイルリファレンスのシステムが根本的に刷新されました。2025年6月16日の公式アップデートにより、v7がデフォルトモデルとなると同時に、新しいSrefアルゴリズム(–sv 6)が標準搭載されています。従来のv6時代に収集したSrefコードはそのままでは互換性がないケースもあるため、この仕組みを正しく理解しておくことが、思い通りの画像を生成するための第一歩になります。
Srefコードの基本的な使い方をマスターしよう
Srefコードの入力方法はとてもシンプルです。通常のプロンプトを書いたあと、半角スペースを空けて–srefと入力し、さらに半角スペースのあとにコード番号を記述します。たとえば「A serene mountain landscape –sref 123456789 –v 7」のように書けば、その数値コードに対応するスタイルが適用された山の風景が生成されるわけです。
コード番号は0から約42億までの整数が使え、それぞれの数字がまったく異なるビジュアルスタイルを持っています。お気に入りのスタイルを見つけたら番号をメモしておけば、いつでも同じ画風を再現できるのが最大のメリットです。プロンプトの文面を長々と工夫しなくても、数字ひとつで世界観を統一できるのは、シリーズものの制作やブランドの一貫性維持にとって革命的なことだといえます。
ランダムSrefで偶然の出会いを楽しむ
まだ自分好みのSrefコードを見つけていない方には、–sref randomというコマンドが特におすすめです。これを使うと、Midjourneyが42億以上あるスタイルライブラリのなかからランダムにひとつ選んで適用してくれます。生成後には実際に使われたコード番号が表示されるので、気に入ったスタイルがあればその番号をすぐに控えておけます。まさにガチャ感覚で新しいスタイルとの出会いを楽しめる、探索好きにはたまらない機能です。
複数のSrefコードを組み合わせて独自のスタイルを作る
ひとつのプロンプトに複数のSrefコードを並べて書くことも可能です。たとえば「Anime girl –sref 4198857621 1971392496 –v 7」のように、スペース区切りで複数の番号を列挙すると、両方のスタイル要素がブレンドされた画像が生成されます。さらに、各コードの後ろにコロンと数字(例4198857621:2 1971392496:1)を付加すれば、スタイルごとの影響度合いに重み付けをすることもできます。数値が大きいほどそのスタイルの影響が強くなるため、微妙なニュアンスの調整が可能になるのです。
v7で変わった!–svパラメータとスタイルバージョンの全体像
v7のスタイルリファレンスを語るうえで避けて通れないのが、–sv(スタイルバージョン)パラメータの存在です。v7では画像ベースのスタイルリファレンスに対して6つのバージョン(–sv 1から–sv 6)が用意されており、デフォルトは–sv 6に設定されています。一方、2025年6月16日以前の旧v7テスト版で使われていたシステムは–sv 4に相当します。
ここで注意すべき重要なポイントがあります。Srefコード(数値コード)が使えるのは–sv 4と–sv 6の2つだけです。–sv 1、–sv 2、–sv 3、–sv 5では数値コードは機能しません。そのため、v6時代に集めたお気に入りのSrefコードをv7でもなるべく近い雰囲気で使いたい場合は、プロンプトに–sv 4を追加してみてください。完全な互換性は保証されませんが、旧システムでの解釈に近い結果が得られる可能性が高くなります。
各–svバージョンはスタイルの解釈の仕方がそれぞれ異なるため、同じ参照画像やコードを使っても出力結果に違いが出ます。公式もこの点を認めており、「実験してみて自分に合うものを探してほしい」と推奨しています。つまり、–svを変えながら生成を繰り返すこと自体が、表現の幅を広げるクリエイティブなプロセスの一部なのです。
| パラメータ | 概要 | Srefコード対応 |
|---|---|---|
| –sv 1 | 初代のスタイルリファレンスアルゴリズムで、直感的で雰囲気重視の解釈をする | 非対応 |
| –sv 2 | 2番目のイテレーションで、やや精密さが向上している | 非対応 |
| –sv 3 | –sv 1の進化版で、雰囲気重視ながらも安定性が増している | 非対応 |
| –sv 4 | 旧v7(2025年6月以前)のSrefシステムで、過去のコードの互換性に使う | 対応 |
| –sv 5 | 画像ベース参照のみ対応で、独自の解釈スタイルを持つ | 非対応 |
| –sv 6 | v7現行デフォルトのスタイルリファレンスで、精度と一貫性が最も高い | 対応 |
スタイルウェイト(–sw)で影響度を繊細にコントロールする
Srefコードやスタイル画像の影響度合いを調整するためのパラメータが、–sw(スタイルウェイト)です。0から1000までの範囲で設定でき、デフォルト値は100となっています。数値を上げるほどスタイルリファレンスの影響が強まり、下げるほどプロンプトのテキスト内容が優先されるようになります。
たとえば、繊細な水墨画のようなスタイルコードを指定しつつ、プロンプトで「鮮やかなネオン街」と書いた場合、–swを低く設定すればネオン街の色彩が優先され、高く設定すれば水墨画のトーンに引っ張られた落ち着いた表現になるといった具合です。v7のアップデート以降、特に数値コードとの組み合わせにおいてスタイルウェイトの効き方が明確になったと公式ドキュメントでも言及されています。
実際に使いこなすコツとしては、まず–sw 100(デフォルト)で生成してみて、スタイルの効きが弱いと感じたら200〜500まで段階的に上げていくアプローチがおすすめです。逆にスタイルが強すぎてプロンプトの指示が無視されてしまう場合は、50や25まで下げてバランスを取りましょう。
スタイルクリエイターで自分だけのオリジナルコードを作る
2025年のアップデートで追加されたスタイルクリエイターは、Midjourneyのウェブサイト上で使える非常に強力なツールです。仕組みとしては、まずプロンプトを入力するとスタイルのサンプル画像がグリッド状に表示され、その中から自分の好みに近いものを選んでいきます。するとAIがあなたの美的嗜好を学習し、あなた専用のSrefコードを自動生成してくれるのです。
ここで重要なのは、スタイルクリエイターで選ぶときの基準は「画像の内容」ではなく「スタイル(雰囲気や画風)」だという点です。表示されるサンプルの被写体がプロンプトと一致しないことも多いですが、それは仕様です。あくまでスタイルの方向性をAIに伝えるためのプロセスなので、「この色使いがいいな」「このテクスチャ感が好きだな」という視点で選んでいきましょう。
生成されたカスタムSrefコードは通常のコードと同じように使えます。さらに、すでにSrefコードを含むプロンプトからスタイルクリエイターを起動すると、既存のコードの上に新しいコードが追加で重ねられる仕組みになっています。このスタック構造を理解しておくと、より複雑で独自性の高いスタイルを構築できるようになります。
Niji7モデルとスタイルリファレンスの相性が抜群な理由
アニメやイラスト系の画像を生成したいなら、Niji7モデルとSrefコードの組み合わせは見逃せません。2026年1月9日にリリースされたNiji7は、Spellbrushとの共同開発による東洋的な美意識とアニメ表現に特化したモデルです。特筆すべきは、Srefコードを使った際のスタイルドリフト(意図しないスタイルのブレ)が大幅に低減されている点です。
v7の通常モデルでも十分に美しい結果が得られますが、Niji7はフラットな線画表現や透明感のある色彩、瞳の輝きといったアニメ特有のディテールの処理が格段に上手です。同じSrefコードを使っても、v7モデルとNiji7モデルでは出力の印象がかなり変わるため、両方で試してみると思わぬ発見があります。
使い方はシンプルで、プロンプトの末尾に–niji 7と記述するだけです。たとえば「Anime girl –sref 33247585 –niji 7」のように書けば、Niji7モデルでそのSrefコードが適用されたアニメ風イラストが生成されます。線画風やセル画風、パステル調など、さまざまなテイストのSrefコードとの組み合わせで、プロのイラストレーターが描いたかのようなクオリティの画像を手軽に作れるのは、このモデルならではの強みです。
2026年3月最新!V8アルファ版でSrefはどう変わるのか?
2026年3月17日、MidjourneyはついにV8アルファ版をalpha.midjourney.comで公開しました。これは完全に書き換えられた新アーキテクチャで、従来比約5倍の生成速度、ネイティブ2K解像度出力(–hdパラメータ)、テキストレンダリングの大幅改善など、まさに世代交代を感じさせるアップデートです。
スタイルリファレンスに関して最も重要な情報は、v7で作成したパーソナライゼーションプロファイル、ムードボード、Srefコードの下位互換性がV8でも維持されることが公式に確認されている点です。つまり、いまv7で積み上げているスタイルの資産が無駄になることはありません。
ただし、アルファ版の時点ではいくつかの制約があります。–hdモードや–q 4モードとSrefコードを同時に使うと4倍のGPU消費が発生すること、またRelaxモードがまだ未対応であることなどが挙げられます。V8アルファ版の公式アナウンスでは、「パーソナライゼーションとスタイリゼーションのシステムを積極的に活用してほしい。–stylize 1000まで上げることも推奨する」とされており、V8はスタイル制御機能をこれまで以上に重視した設計になっていることがうかがえます。
現時点ではV7が引き続きメインサイトとDiscordのデフォルトモデルとして稼働しているため、今のうちにv7のSref機能をしっかりマスターしておくことが、V8時代をスムーズに迎えるための最善の準備になります。
実践で差がつく!Srefコード活用の上級テクニック
プロンプトの書き方でSrefの効きが変わる
v7ではプロンプトの解釈が自然言語ベースに大きく進化しました。そのため、Srefと組み合わせる際のプロンプトは「キーワードの羅列」よりも「文章として明確に状況を描写する」ほうがよい結果につながります。たとえば「cat, watercolor, beautiful」ではなく「A fluffy orange cat sitting on a windowsill during a rainy afternoon」のように、場面を具体的に描写してみてください。スタイルの部分はSrefコードに任せて、プロンプトでは被写体とシチュエーションの記述に集中するのがコツです。
–chaosと–weirdを組み合わせてスタイルの幅を広げる
Srefコードで画風を固定しつつも、毎回まったく同じような画像になってしまうのが物足りないという方は、–chaosや–weirdパラメータとの併用を試してみましょう。–chaosは生成結果のバリエーション幅を広げるもので、0から100の値が設定できます。–weirdは出力の「奇妙さ」を加味するパラメータで、AIっぽさが薄れた独特な雰囲気が生まれやすくなります。Srefでベースの画風は安定させながら、–chaosや–weirdで適度な揺らぎを加える。このバランス感覚こそが、量産感のないオリジナリティあふれる作品を生み出す秘訣です。
ムードボードとSrefの合わせ技で世界観を極める
v7ではムードボード機能も強化されており、Srefコードと組み合わせて使うことができます。ムードボードは複数の画像をまとめて雰囲気の方向性をAIに伝える機能で、Srefコードとは異なるアプローチで「世界観」を定義します。たとえばムードボードで全体の色調や質感の方向性を大まかに指示し、Srefコードで具体的な画風のディテールを固定するといった使い分けが効果的です。両者を組み合わせることで、一段上の一貫性と表現の深みが実現できます。
現場で本当に困る「Srefあるある問題」とその具体的な解決手順

画像生成AIのイメージ
Srefコードの仕組みを知っていても、いざ実際に使い始めると「なぜかうまくいかない」場面に何度もぶつかります。ネット上の解説記事はたいてい「こう書けば使えます」で終わってしまいますが、ここでは実際のユーザーが高確率で遭遇するトラブルと、その場でできる具体的な対処法を手順つきで解説します。どれも「知っていれば30秒で解決するけど、知らなければ何時間でも沼にハマる」類の問題ばかりです。
問題その1ネットで拾ったSrefコードを入れたのにまったく違うスタイルになる
これはv7ユーザーが最も頻繁にぶち当たる壁です。SNSやブログで「この番号を使えばエモい水彩風になります!」と紹介されていたコードをコピペしたのに、自分の画面ではまったく別のテイストが出てくる。原因はほぼ100%、そのコードがv6時代(もしくは旧v7テスト期間中)に発見されたものであることに起因します。v7の現行デフォルトである–sv 6と、旧システムの–sv 4では、同じ番号でもまったく異なるスタイルが生成されます。
解決手順はこうです。
- まず、そのSrefコードがいつ頃公開された情報なのかを確認してください。2025年6月16日以前のものであれば、旧システム前提のコードである可能性が非常に高いです。
- プロンプトの末尾に–sv 4を明示的に追加してください。たとえば「A dreamy landscape –sref 287298887 –sv 4 –v 7」のように書きます。
- それでもイメージと違う場合は、–sv 4と–sv 6の両方で生成してみて、より近い方を採用してください。完全一致はしなくても、片方がかなり近い結果を返すことが多いです。
- 最終手段として、モデルそのものを–v 6に切り替えれば、当時の環境に最も近い状態で再現できます。
ちなみに、逆のパターンも注意が必要です。v7のデフォルト(–sv 6)で生成したプロンプトを保存しておいたのに、次に使うときになぜか–sv 4が自動的に付加されてスタイルが変わってしまうケースが報告されています。これはMidjourneyのウェブサイト側の挙動によるもので、以前のバージョンではSrefコードを使うと自動的に–sv 4が付くようになっていた時期がありました。過去のプロンプトを再利用するときは、–svパラメータが意図通りになっているかを必ず目視確認する習慣をつけましょう。
問題その2Srefを使っているのに被写体のスタイルに関係ない要素が混入する(サブジェクトリーケージ)
画像ベースのスタイルリファレンス(URLを指定する方式)を使ったときに起きやすい問題です。たとえば、ファッション誌の写真をスタイル参照にして「花」を生成したのに、出力された画像に人の顔やモデルのシルエットがうっすらと混ざっている。これがサブジェクトリーケージ(被写体漏れ)と呼ばれる現象です。
v7の新しいSrefシステム(–sv 6)ではこの問題が大幅に改善されていますが、完全にゼロにはなっていません。対処法は3つあります。
- 画像URLではなく数値のSrefコードを使う。数値コードはMidjourney内部のスタイルライブラリから純粋にスタイル情報だけを取り出すため、被写体が混入するリスクが構造的にゼロです。
- 画像URLを使いたい場合は、–sw(スタイルウェイト)を50〜80程度に下げる。スタイルの影響度を下げることで、参照画像の被写体情報がリークする量も抑えられます。
- プロンプト側で被写体を強く主張する。「A single red rose on a dark background, no human elements」のように、不要な要素の排除を–noパラメータと合わせて指定しましょう。たとえば「–no person, face, human」を追加するだけで劇的に改善することがあります。
問題その3ウェブサイト上で「v7のはず」なのにv6.1で生成されてしまう
意外と多くのユーザーが見落としているのがこの問題です。Midjourneyのウェブサイトはv7がデフォルトになっているはずなのに、設定が勝手にv6.1に戻ってしまうことがあります。特にブラウザのキャッシュが残っている場合や、設定を変更したあとにページをリロードした場合に起きやすいようです。
確実な対策は至ってシンプルで、プロンプトの末尾に毎回「–v 7」を明示的に書くだけです。これを習慣にしてしまえば、サイトの設定がどうなっていようと確実にv7で生成されます。特にSrefコードを使うときはスタイルの解釈がモデルバージョンによってまったく変わるため、「–v 7を書かなくても大丈夫だろう」という油断が一番の敵です。
そのまま使える!Srefを活かすシーン別プロンプトテンプレート集
Srefコードの威力を最大限に引き出すには、プロンプトの書き方にもコツがあります。ここでは実際にコピー&ペーストしてすぐに使えるプロンプトテンプレートを、用途別に紹介します。すべてv7に最適化した書き方です。–srefのあとの数字部分を自分の好みのコードに差し替えて使ってください。
ブログのアイキャッチ画像を統一したいとき
ブログやSNS投稿のサムネイルに統一感を持たせたい場合、以下のテンプレートが便利です。被写体の説明をシンプルに保ち、スタイルの指定はSrefコードに一任するのがポイントです。
テンプレートA clean illustration of [被写体の説明], soft lighting, white background –sref [お気に入りのコード] –sw 200 –ar 16:9 –v 7
たとえば「A clean illustration of a coffee cup and notebook, soft lighting, white background –sref 33247585 –sw 200 –ar 16:9 –v 7」のように使います。–sw 200にしているのは、背景を白に保ちつつもスタイルの色味を適度に反映させるバランスを取るためです。–arを16:9にすることでブログのアイキャッチに適した横長比率になります。
キャラクターの連作イラストを統一したいとき
同じキャラクターの表情や場面を変えて複数枚生成したいケースでは、SrefとOmniリファレンス(–oref)を組み合わせるのが最も効果的です。
テンプレート[キャラクターの行動や表情の説明] –oref [キャラクター画像のURL] –sref [スタイルコード] –sw 150 –ar 3:4 –v 7
Omniリファレンスがキャラクターの外見的特徴(髪型や服装など)を維持し、Srefコードが画風全体のトーンを統一してくれます。ここでの注意点は、–orefはGPU消費が通常の2倍になるということです。テスト段階ではまず–draftモードで素早くバリエーションを確認し、気に入った方向性が決まってから通常モードで本生成するとコストを大幅に節約できます。
Srefのスタイルを試し打ちするための最小プロンプト
新しいSrefコードのスタイルを純粋に確認したいとき、凝ったプロンプトは不要です。むしろシンプルなほうがスタイルの本質が見えやすくなります。
テンプレート“” –sref [確認したいコード] –v 7
プロンプト欄にダブルクォーテーションだけ(空プロンプト)を入力すると、被写体の指定なしで純粋にスタイルコードだけの効果を確認できます。これは多くのSrefコードライブラリサイトでも採用されている手法で、スタイルの「素の姿」を見るには最も正確な方法です。気に入ったスタイルが見つかったら、そこから被写体やシチュエーションを足していくという順序で進めると、無駄な試行錯誤が激減します。
動画制作のカラーグレーディングを統一したいとき
RunwayやKlingなどの動画生成ツールと組み合わせる場合、素材画像のトーンがバラバラだと動画全体の統一感が崩れます。Srefコードで色味の方向性を揃えた静止画を先に作り、それを動画ツールに渡すワークフローが有効です。
テンプレート[動画のシーン説明], cinematic composition, [照明の指定] –sref [統一コード] –sw 300 –ar 16:9 –v 7
ここで–swを300と高めに設定しているのは、動画素材として色調のブレを極力なくすためです。シーンが変わっても同じSrefコードと高めのスタイルウェイトで通せば、後工程のカラーグレーディングの手間を大きく削減できます。
プロが密かにやっている「Srefコード管理術」と効率化ワークフロー
Srefコードを日常的に使い始めると、あっという間に数十から数百のお気に入りコードが溜まっていきます。ここで多くの人がぶつかるのが「どのコードがどんなスタイルだったか思い出せない」という管理の問題です。Midjourneyのウェブサイトにはスタイルエクスプローラーでのお気に入り保存(ハートボタン)機能がありますが、数が増えるとそれだけでは追いつきません。
効率的な管理のために、シンプルなスプレッドシートを1枚つくることをおすすめします。カラムは「コード番号」「ジャンル(水彩/線画/サイバーパンクなど)」「適合する–sv(4か6か)」「メモ(どんな雰囲気か一言で)」の4列だけで十分です。生成した画像のスクリーンショットを横に貼り付けておけば、視覚的にも一発で見つけられるようになります。
さらに一歩進んだワークフローとして、スタイルクリエイターとスプレッドシート管理を組み合わせる方法があります。スタイルクリエイターで5〜10ラウンドの選択を行ってカスタムコードを生成したら、そのコードと「どんな方向性で選択したか」をメモしておく。こうすると、後から微調整したい場合に「あのとき水彩寄りで選んだやつ」「あのときサイバーパンク寄りで選んだやつ」とすぐに参照でき、再度ゼロからスタイルクリエイターを回す手間がなくなります。スタイルクリエイターはラウンドごとにGPU時間を消費するため、この記録の有無が長期的なコスト差に直結します。
ドラフトモードを活用してSrefの試行錯誤コストを半額にする方法
Srefコードを試すとき、毎回通常モードで生成していてはGPU時間がどんどん減っていきます。v7で導入されたドラフトモード(–draft)は、通常の半分のコストで約10倍速の生成が可能な、まさにSref探索のために生まれたような機能です。
画質は通常モードより落ちますが、スタイルの方向性を確認する目的なら十分すぎるクオリティです。実際のワークフローとしては、こう進めるのが最も効率的です。まず–draftで5〜10個のSrefコード候補をざっと流し、方向性の合うものを2〜3個に絞り込む。次にその2〜3個だけを通常モードで生成して最終品質を確認する。この2段階方式を徹底するだけで、同じ品質の最終画像を得るまでのGPU消費量が体感で3分の1程度まで下がります。
スタイルクリエイターでも同じ考え方が使えます。公式ドキュメントでも「GPU時間を節約したい場合は、プロンプトに–draftを追加してプレビューを高速化できる」と明記されています。スタイルクリエイターの初期ラウンドは特にスタイルが安定しないため、ドラフトモードで高速に回して5〜10ラウンド目以降から通常モードに切り替えるのが賢いやり方です。
Srefコードと–noパラメータの併用で「望まない要素」を排除する実践例
Srefコードを適用すると、そのスタイルに引きずられて意図しない要素が画像に追加されてしまうことがあります。たとえば、パステルカラーのSrefコードを使うと人物画に花冠が自動的に追加されたり、ゴシック風のコードを使うと背景に必ずコウモリが現れたりするケースです。これはスタイルコードが持つ潜在的な「被写体バイアス」で、特に強い個性を持つコードで起きやすくなります。
この場合、–noパラメータで不要な要素を明示的に排除するのが最も直接的な対処法です。たとえばパステルカラーのSrefコードで花冠なしの人物画を生成したいなら、「A portrait of a young woman, urban background –sref [コード] –no flower crown, floral, petals –v 7」のように書きます。–noのあとにカンマ区切りで複数の除外ワードを並べることで、精度が上がります。
もうひとつ効果的なのが、プロンプトの冒頭で被写体と環境を非常に具体的に描写する方法です。v7は自然言語の理解力が高いため、「何が画面にあるべきか」をしっかり書けば、Srefコード由来の余計な要素がテキストプロンプトに押し出される形で抑制されます。漠然と「A girl」と書くよりも「A teenage girl standing in a school hallway, wearing a blue blazer, holding textbooks」と書くほうが、Srefコードの「飾りたがり」な傾向を制御できるのです。
Sref×パーソナライゼーション×ムードボードの三位一体を使いこなす順番
v7にはスタイルを制御する機能が3つあります。パーソナライゼーション(–p / –profile)、ムードボード、そしてSrefコード(–sref)です。それぞれが異なるレイヤーでスタイルに影響を与えるのですが、3つを同時に使ったときにどれが優先されるのか、どう組み合わせるのが正解なのか、公式ドキュメントを読んだだけでは正直わかりにくい部分です。
実際の挙動から整理すると、影響の優先度は大まかにSrefコードが最も直接的 → ムードボードがその次 → パーソナライゼーションが最も「底流的」という関係になっています。パーソナライゼーションは全体の美的傾向(色温度や構図の好みなど)をほんのり染め、ムードボードが雰囲気やテーマの大枠を定め、Srefコードが具体的なテクスチャやブラシストロークの表現を決定づけるイメージです。
これを踏まえた実践的な使い分けのコツをお伝えします。まず、自分のパーソナライゼーションプロファイルは常時オンにしておいて問題ありません。200枚程度の評価を終えていれば十分安定しており、邪魔になることはほぼないからです。そのうえでプロジェクトごとにムードボードを作り、「このプロジェクト全体の色調はこの方向」と定義します。最後にSrefコードで個別の画像ごとの細かい画風を指定する。この3段階のレイヤー構造を意識するだけで、10枚の画像を生成しても100枚生成しても、驚くほど統一感のあるビジュアルが出てきます。
重要な注意点として、ムードボードは–sw(スタイルウェイト)や–sv(スタイルバージョン)とは併用できないという制約があります。つまり、ムードボードとSrefコードを同時に使うときは、Sref側の–swや–svは指定しないでください。指定してもエラーにはなりませんが、ムードボードの効果が無効化されてしまいます。この仕様は公式ドキュメントにも記載されているものの、見落としやすいポイントです。
GPU時間を賢く使う!コスト意識を持ったSref活用のリアルな計算
Midjourneyはサブスクリプションプランごとに月間のGPU時間が決まっています。Srefコードを使った通常のv7画像生成であれば追加コストはかかりませんが、ムードボードやスタイルクリエイター、Omniリファレンスなどを組み合わせるとGPU消費が加速します。
特に気をつけたいのは以下のポイントです。Omniリファレンス(–oref)は通常の2倍のGPU消費。スタイルクリエイターのプレビュー画像はラウンドごとにGPU時間を消費。さらにV8アルファ版では、Srefコードやムードボードを使ったジョブが通常の4倍のGPU消費になっている状態です。
ベーシックプラン(月額10ドル)のユーザーが最も効率的にSrefを楽しむための戦略は明確です。新しいSrefコードの探索には–draftモードと空プロンプト(””)を使って最小コストで試し、本命が決まったら通常モードで1〜2回生成する。スタイルクリエイターは「本当にオリジナルのスタイルが欲しい場面」に限定して使い、既存のSrefコードライブラリで間に合うなら積極的にそちらを活用する。この割り切りが、限られたGPU予算のなかでSrefを最大限に楽しむ秘訣です。
ぶっちゃけこうした方がいい!
ここまで読んでくれた方に、専門家として率直な話をします。
スタイルリファレンス周りの情報って、ネットを調べるとやたら細かいパラメータ解説やSrefコードの一覧がたくさん出てきますよね。でも、ぶっちゃけ大事なのは「パラメータを全部暗記すること」じゃないんです。自分なりの「スタイル探索→選別→固定」のサイクルを確立すること、これに尽きます。
個人的にはこうした方が、ぶっちゃけ楽だし効率的だと思います。まず、–sref randomを毎日5〜10回だけ回してください。コーヒーを淹れてる間にポチポチやるだけでいいです。そのなかで「おっ」と思ったコードだけメモしておく。これを1〜2週間続けるだけで、自分の好みのスタイルが20〜30個は貯まります。この「自分だけのSrefコード資産」こそが、どんなパラメータの知識よりもあなたの作品の質を底上げしてくれるんです。
パラメータの細かいチューニングは、その後でいくらでもできます。–svを4にするか6にするか、–swを上げるか下げるか、ムードボードと組み合わせるか。こういう調整は「これを仕上げたい!」という具体的な画像がある段階で初めて意味を持ちます。逆にいえば、コードのストックがない状態でパラメータだけ詳しくなっても、料理でいえば「調味料の知識は豊富だけど冷蔵庫に食材がない」状態と同じです。
それから、もうひとつ大事なこと。V8アルファ版が出たからといって、慌ててV8に移行する必要はまったくありません。V8は確かに速いし高解像度ですが、まだアルファ版です。デフォルトの美的方向性すら公式が「調整中」と言っている段階です。しかもV8でSrefコードやムードボードを使うとGPU消費が4倍になるわけで、探索フェーズをV8でやるのはコスト的にかなりもったいない。v7で思う存分Srefを探索して自分のスタイル資産を積み上げておいて、V8が安定したらその資産をそのまま持ち込む。これが現時点で最もコスパの良い戦略です。公式もv7のSref資産はV8に引き継げると明言していますから、いまv7で積んだ努力は一切無駄になりません。
最後に、初心者の方にひとつだけ覚えておいてほしいことがあります。Srefコードは42億個以上あって、その全部を把握している人なんて地球上に一人もいません。だからこそ、自分で見つけたお気に入りの10個のコードは、それだけで世界に一つだけのクリエイティブ資産になるんです。スタイル探索を「面倒な作業」ではなく「宝探し」だと思えたら、Midjourneyでの画像生成がめちゃくちゃ楽しくなりますよ。
Midjourneyのスタイルリファレンスv7に関する疑問解決
v6時代のSrefコードはv7でそのまま使えるの?
残念ながら、v7のデフォルトシステム(–sv 6)では、v6時代に集めたSrefコードがそのまま同じスタイルを再現するとは限りません。Srefアルゴリズム自体が刷新されているためです。ただし、プロンプトに–sv 4を追加することで旧システムに近い解釈で生成することが可能です。完全な一致は保証されませんが、かなり近い結果が得られるケースが多いと報告されています。もうひとつの方法としては、モデルバージョン自体を–v 6に切り替えて使うことも引き続きサポートされています。
自分で撮影した写真からSrefコードを生成することはできる?
現時点では、ユーザーがアップロードした画像を数値のSrefコードに変換する公式機能は提供されていません。Srefコードとしてライブラリ化されているのはMidjourney内部のプリセットスタイルのみです。ただし、自分の画像のスタイルを使いたい場合は、コードではなく画像のURLを直接–srefパラメータに指定するか、ウェブ版のスタイルリファレンス欄に画像をドラッグ&ドロップすることで、同様の効果を得ることができます。
Srefコードとパーソナライゼーション機能の違いは何か?
パーソナライゼーションは、ユーザーが画像ペアの評価(好みの選択)を繰り返すことでAIがあなたの美的嗜好を学習する機能です。v7ではデフォルトでオンになっており、すべての生成結果にあなたの好みが反映されます。一方、Srefコードは特定のスタイルを明示的に指定するものです。両者は併用可能で、パーソナライゼーションが「あなたらしさの底流」をつくり、Srefコードが「今回の作品の具体的なスタイル」を指定するという関係性で理解するとわかりやすいでしょう。
V8アルファ版が出たいまv7のSrefを学ぶ意味はある?
大いにあります。V8はまだアルファ版であり、Midjourney公式サイトやDiscordでのデフォルトは引き続きv7です。さらに、V8はv7のSrefコードやパーソナライゼーションプロファイルとの下位互換性を明確に保っています。つまり、v7でSrefの仕組みや活用法をしっかり身につけておけば、その知識と資産はV8にそのまま引き継げます。むしろ今がSrefのスキルを磨く絶好のタイミングだといえるでしょう。
まとめ
Midjourneyのスタイルリファレンスv7は、数字のコードひとつで画風を統一し、ブレのないビジュアル制作を実現する極めて強力な機能です。–svパラメータによるバージョン切り替え、–swによる影響度の微調整、スタイルクリエイターでのオリジナルコード生成、そしてNiji7モデルとの組み合わせまで、活用の幅は想像以上に広がっています。
2026年3月17日に公開されたV8アルファ版は生成速度やプロンプト理解力で大きな飛躍を見せていますが、v7のSref資産はしっかりと引き継がれます。だからこそ、いまv7でスタイルリファレンスの基本と応用をしっかり押さえておくことが、これからのAI画像生成において最大のアドバンテージになるはずです。
まずは–sref randomでランダムなスタイルとの出会いを楽しんでみてください。そこから好みのコードを見つけ、スタイルウェイトで微調整し、やがてスタイルクリエイターで自分だけのコードをつくる。この流れを体験すれば、Midjourneyでの画像生成がまったく違う次元のものになりますよ。


コメント