「また違うキャラになった……」AIで画像を生成するたびに、そんなため息をついたことはありませんか?せっかく理想のキャラクターやオブジェクトが完成したのに、次のプロンプトを打ち込んだ瞬間に全く別物になってしまう。これはMidjourneyを使い続けているほぼすべてのユーザーが直面してきた、根深い悩みです。でも、もうその悩みとはサヨナラできます。Midjourneyが2025年4月のV7リリースとともに投入したオムニリファレンス(Omni Reference)は、まさにその問題を正面から解決するために設計された機能です。
この記事では、オムニリファレンスとは何か、どう使うのか、そしてどうすれば本当に使いこなせるのかを、2026年3月時点の最新情報を交えながら徹底的に解説します。
- オムニリファレンスはMidjourney V7の目玉機能で、1枚の参照画像からキャラクターや物体の外見を複数の画像に渡って一貫して再現できる
- –owパラメーターで0〜1000の範囲で参照強度を細かくコントロールでき、スタイル変換から忠実な複製まで幅広い用途に対応する
- 2026年3月17日にV8アルファが公開されたが、現時点でオムニリファレンスはV7の代表機能として引き続き活躍中
オムニリファレンスとは何か?キャラクター参照との決定的な違い

画像生成AIのイメージ
オムニリファレンスをひと言で説明するなら、「この画像に映っているものを、そのまま私の新しい画像に入れて」とAIに伝える仕組みです。–orefというパラメーター(またはウェブUIのドラッグ&ドロップ操作)で参照画像を1枚指定するだけで、Midjourneyはそのビジュアルの特徴を読み取り、新しいシーンや構図に忠実に落とし込んでくれます。
V6まではキャラクター参照(Character Reference、–cref)という似た機能がありましたが、オムニリファレンスはその上位互換です。V6のキャラクター参照が主に人物のキャラクター再現に特化していたのに対して、オムニリファレンスは人物・乗り物・動物・機械・物体・アニメキャラクターなど、あらゆる被写体に対応しています。公式ドキュメントでもV7ではキャラクター参照の代わりにオムニリファレンスを使うよう明記されており、実質的な後継機能として位置づけられています。
もう一つ重要な違いがあります。以前のLora(LoRA)モデルや複数の参照画像を組み合わせる方法と比べて、オムニリファレンスは参照画像が1枚だけでよいという点です。複雑な準備なしに、すぐに使い始められる手軽さがクリエイターに支持されている理由です。
–owパラメーターの使い方と数値の意味を完全攻略!
オムニリファレンスの核心はオムニウェイト(–ow)という強度調整パラメーターにあります。0〜1000の範囲で設定でき、デフォルト値は100です。この数値がどう変わると結果がどう変わるのか、理解しておくことが使いこなしの第一歩です。
| –owの値 | 効果・適した用途 |
|---|---|
| 25前後(低い) | 参照画像の雰囲気だけを借りたいとき。写真をアニメ風に変換するスタイルトランスファーに最適。 |
| 100(デフォルト) | 参照と新しいシーンのバランスが取れた標準設定。まずここから試すのが正解。 |
| 200〜400(高い) | キャラクターの顔、服装、特定の色を強く再現したいとき。ほとんどの場面でこの範囲が実用的な上限。 |
| 400超(非常に高い) | 極端に忠実な再現を求めるとき。ただし高すぎると構図の自由度が失われることもある。 |
注意点として、–stylizeや–exp(実験的スタイル調整)はオムニリファレンスと影響を奪い合います。たとえば–stylize 1000のような高い値を設定しているときは、–owも同様に高く(400前後)設定しないと参照画像の影響が薄れてしまいます。逆に言えば、スタイルを大きく変えたいときはあえて–owを低く設定するのが正解です。
実際の使い方ステップウェブUIとDiscordの両方で解説
使い方は大きく2つのルートに分かれます。どちらの方法を選んでも同じ機能を使えますが、操作感が異なります。
ウェブインターフェースの場合は、まずモデル設定をV7に変更します。次にプロンプトバーの画像アイコンをクリックし、画像パネルを開きます。アップロードした参照画像を「Omni Reference」と書かれたエリアにドラッグ&ドロップすれば設定完了です。強度はスライダーで直感的に調整でき、ロックアイコンを使えば複数のプロンプトに同じ参照画像を使い回すことも可能です。
Discordの場合はプロンプトの末尾に–oref [画像URL]を追加します。画像URLはDiscordにアップロードした画像のリンクを使うのが最も確実です。強度は–ow [数値]で指定します。例えば「a young woman walking in Tokyo streets –oref https://example.com/ref.jpg –ow 200」のような形です。
いくつかの制約も把握しておくと失敗しません。オムニリファレンスは参照画像を1枚しか使えません。複数の要素(人物と武器など)を同時に参照したい場合は、それらを1枚の画像にまとめる必要があります。またGPU消費量が通常の2倍になるため、サブスクリプションの使用量に注意が必要です。さらに現時点ではFast Mode・Draft Mode・Vary Region・Pan・Zoom Outとは互換性がありません。
プロのような結果を出すための5つの実践テクニック
オムニリファレンスを使い始めたばかりのユーザーが陥りがちな失敗と、その解決策をまとめます。
まずテキストプロンプトを必ず添えることが重要です。参照画像だけでなく、何をしているシーンなのかを言葉でも伝えることで、AIが文脈を理解して適切な構図を生成します。「a character holding a sword」のように、画像に映っていない要素もプロンプトで補足するのが基本です。
スタイルを変えたい場合はプロンプトの冒頭と末尾の両方にスタイルを明記します。「Illustration of a young woman with short gray hair, drawn by a comic book artist」のように、スタイルの言葉をサンドイッチするように配置すると効果的です。
細かいディテール(そばかす、服のロゴなど)は完全には再現されないことを念頭に置きましょう。オムニリファレンスは全体的な特徴や雰囲気の一貫性に優れていますが、ミクロなディテールまでは保証されません。プロンプトテキストで補完するのが賢明です。
参照画像の背景を除去してからJPEGで書き出すと、AIが被写体だけに集中しやすくなります。透過PNG(アルファチャンネルあり)はMidjourneyが正しく読み込めないことがあるため、単色背景のJPEGを使うのがベストプラクティスです。
–owが高すぎると正面からのショットしか生成されなくなる、という現象が報告されています。横顔や後ろ姿など異なるアングルを指定したいときは–owを下げ、その分テキストプロンプトで特徴を補足しましょう。
V8アルファ登場で、オムニリファレンスはどうなる?
2026年3月17日、MidjourneyはV8アルファをalpha.midjourney.comで公開しました。V8は生成速度が従来比で約4〜5倍高速化し、ネイティブ2K解像度(–hdパラメーター)にも対応しています。
ただし現時点では、オムニリファレンスはV7の機能として提供されています。V8アルファはまだメインサイトやDiscordには展開されておらず、V7が引き続きデフォルトモデルです。V7のパーソナライゼーションプロファイル、ムードボード、スタイル参照はV8でも互換性が維持されていますが、オムニリファレンスのV8対応については今後のアップデートを待つ必要があります。
V7のオムニリファレンスとドラフトモードはV7を象徴する看板機能として評価されており、V8はそれとは別の方向性(速度・解像度・プロンプト精度)で進化しています。今しばらくはV7でオムニリファレンスを使い倒すのが最も現実的な選択肢です。
現実でぶつかる「あるある失敗」と、その具体的な解決手順

画像生成AIのイメージ
オムニリファレンスを実際に使い始めると、必ずといっていいほど同じ壁にぶつかります。「試してみたけど思ったより全然違う」「顔が毎回変わる」「なんか全体的にぼやける」――そういった体験ベースの悩みに、ここでは具体的な解決手順を添えて答えていきます。
失敗パターン①顔が毎回別人になる問題
最もよく聞く悩みです。–owを100のままにして何度リトライしても顔がバラバラになる場合、原因はほぼ「参照画像の質と構図」にあります。解決のステップは以下のとおりです。
- 参照画像をMidjourney自身で生成した画像に切り替える。スマホで撮った写真ではなく、まず「a woman with short black hair, neutral background, facing camera, soft studio lighting –v 7」のようなプロンプトでベースキャラクターを生成する。
- 生成したキャラクター画像をそのままオムニリファレンスに設定し、–owを200〜300に引き上げる。
- テキストプロンプトにもキャラクターの特徴を明記する。「a woman with short black hair and blue eyes, walking in a park」のように、参照画像の特徴をプロンプトでも補強する。
- それでも顔がぶれる場合は–owを400まで引き上げ、さらに–stylizeの値を下げる(–s 100以下に設定)。
Midjourneyが自分自身の出力を参照として処理するとき、モデルは内部の「潜在空間」でその特徴を最も正確に理解します。外部の写真よりもMidjourney生成画像のほうが一貫性が高い理由はここにあります。
失敗パターン②参照したオブジェクトが背景に溶け込む・消える問題
「このロゴ入りバッグを画像に入れたい」「このデザインの車を使いたい」と思って試しても、気づいたらバッグはどこかに行ってしまっていた……という経験は多いはずです。これはオブジェクトの輪郭が背景と混ざっているせいで、AIが何を参照すべきか迷ってしまうことが原因です。
解決策は参照画像の背景を単色に整えてからJPEGで書き出すことです。具体的な手順は次のとおりです。
- 参照したいオブジェクトの画像を用意し、Remove.bgやAdobe Expressなどの背景除去ツールで背景を取り除く。
- 背景を白か明るいグレーなど単色で塗りつぶし、透過PNG(アルファチャンネルあり)は避けてJPEGで保存する。Midjourneyはアルファチャンネルを正しく処理できないことがあるため、JPEGが安全。
- このJPEGをオムニリファレンスに使い、テキストプロンプトにはオブジェクトの特徴と、それが画像のどこにどう配置されるかを明示する。
- –owは150〜250程度から試し、オブジェクトが安定して現れるよう調整する。
失敗パターン③「正面顔しか出てこない」問題
–owを高く設定すると、どんなアングルを指定してもキャラクターが正面を向いた画像ばかり出てくることがあります。これは参照画像への拘束力が強すぎて、AIが構図の自由を失っている状態です。
この場合の解決策は–owを下げて、プロンプトで失われた特徴を補う方法です。–owを100〜150に戻し、「from the side, profile view」「shot from behind, looking over shoulder」などのアングル指定をプロンプトに加えます。同時に、キャラクターの髪色・服装・特徴的なアクセサリーなどをプロンプトでも詳しく記述して、–owが下がった分の情報をテキストで補完します。
失敗パターン④GPU消費が激しくてサブスクリプションがすぐ枯れる問題
オムニリファレンスはGPU消費が通常の2倍です。さらに試行錯誤で何度もリトライしていると、あっという間に月のクレジットが尽きます。これを防ぐ現実的な方法があります。
まずパラメーターを試すときは、最初に–ar 1:1でアスペクト比を正方形に固定します。横長・縦長の生成はデフォルトの正方形より処理が重くなる場合があり、テスト段階では正方形が最もコスパが良いです。次に、大量に試したいときはDiscordのRelaxモード(スタンダードプラン以上)を活用しますが、オムニリファレンスはFast ModeとRelaxモードの制約があるため注意が必要です。最もGPUを節約するには、まずDraft Mode(オムニリファレンス非対応)でシーンの構図だけを確認してから、気に入った構図のプロンプトにオムニリファレンスを加えて本番生成するという二段階アプローチが実用的です。
シーン別・目的別のすぐ使えるプロンプト集
オムニリファレンスの効果を最大化するには、プロンプトの設計が決め手になります。以下は実際の用途に合わせてそのまま使えるプロンプトのテンプレートです。画像URLの部分はご自身の参照画像に差し替えてください。
キャラクターをアニメ風に変換したいとき
ウェブ版やDiscordで以下のように入力します。スタイルをプロンプトの冒頭と末尾で挟むのがポイントです。
「Anime illustration of a young woman with short black hair and red jacket, vibrant colors, cel shading, drawn by a top anime studio –oref [URL] –ow 50 –s 300」
–owを50まで下げることでスタイル変換の自由度を確保しつつ、「short black hair」「red jacket」などの特徴をプロンプトで補強します。
同じキャラクターを複数のシーンで使い回したいとき
「A woman with short black hair and blue eyes, sitting in a cozy cafe, warm afternoon light, photorealistic –oref [URL] –ow 250」
「A woman with short black hair and blue eyes, running through a rainy street at night, cinematic lighting –oref [URL] –ow 250」
このようにシーンだけを変えて、キャラクターの特徴記述と–owの値を固定すると、シリーズ感のある一貫したビジュアルが生まれます。
商品・プロダクトを別のシーンに配置したいとき
ECサイトや広告素材の作成に特に便利な使い方です。
「A sleek black smartwatch placed on a wooden table, natural light, product photography style, white background –oref [商品画像URL] –ow 300」
「A person wearing a black smartwatch while hiking in the mountains, golden hour lighting –oref [商品画像URL] –ow 200」
–owを200〜300の範囲に保ちつつ、テキストで「black smartwatch」と明示することで商品の存在感を確保します。
スタイル参照と組み合わせて世界観を統一したいとき
オムニリファレンス(被写体の固定)とスタイル参照(–sref、雰囲気の固定)を組み合わせると、被写体もスタイルも両方一貫した画像が作れます。
「A warrior standing on a cliff at sunset, dramatic clouds –oref [キャラクターURL] –ow 200 –sref [スタイル参照URL] –sw 150」
この組み合わせはグラフィックノベルやコンセプトアート制作で特に威力を発揮します。–owと–swのバランスは、キャラクターを優先したいなら–owを高めに、雰囲気・スタイルを優先したいなら–swを高めに設定します。
オムニリファレンスを活かす「参照画像ライブラリ」の作り方
長期的にオムニリファレンスを使い続けるなら、参照画像のライブラリを体系的に整理することが、実は最も効率的な投資です。これは多くのチュートリアルが触れない部分ですが、実際の制作現場では大きな差がつくポイントです。
考え方はシンプルで、「キャラクターシート」を最初に1枚作るということです。正面・側面・後ろ、そして複数の表情を含む1枚の画像をMidjourney内で生成し、それを固定の参照画像として使い続けます。複数アングルを1枚にまとめることで、AIがそのキャラクターの立体的な理解を持ちやすくなり、横顔・後ろ姿なども安定して再現されやすくなります。
Discordを使っているなら専用のDMチャンネルやプライベートサーバーにキャラクターごとのURLを貼り付けて管理するのが便利です。ウェブ版ならアップロードライブラリにキャラクター名をつけた画像を整理しておくと、ロックアイコンで固定する操作も素早くできます。
オムニリファレンス×パーソナライゼーションの上級活用法
多くの人が見落としがちな組み合わせが、オムニリファレンスとMidjourneyのパーソナライゼーション機能(–p)の併用です。
パーソナライゼーションは、過去に「好き」と評価した画像の傾向をAIが学習し、あなたの好みに近いスタイルで生成してくれる機能です。これをオムニリファレンスと組み合わせると「この被写体を、あなた好みのスタイルで生成する」という、非常に個性的な結果が得られます。
Discordでは「–oref [URL] –ow 200 –p」のように末尾に–pを加えるだけです。ウェブ版ではパーソナライゼーションをオンにした状態でオムニリファレンスを使えば自動的に組み合わさります。V8アルファでもV7のパーソナライゼーションプロファイルは互換性が維持されているため、将来的なアップグレードを見据えてもこのテクニックは有効です。
ぶっちゃけこうした方がいい!
ここまで読んでくれた方には、正直にひとつ核心を言わせてください。
オムニリファレンスについての情報は「–owをこう設定しよう」「パラメーターはこうだ」という話で溢れています。でも実際に使い込んでみてわかるのは、「参照画像を何にするか」の選択が、パラメーター調整の10倍重要だということです。
どんなに–owを精密に調整しても、元の参照画像がスマホで撮った逆光写真だったり、複数人が写り込んでいたりすると、結果はまず安定しません。逆に、Midjourneyで生成したクリーンなキャラクター画像を1枚しっかり用意すれば、–owはデフォルトの100でも驚くほど一貫した結果が出ます。
個人的に楽だと思うのは、最初の10分を参照画像の準備に全振りするというやり方です。まず「このキャラクターのベース画像を作る」という目的だけでMidjourneyを使い、納得のいく1枚ができてからオムニリファレンスのセッションを本格的に始める。この順番を守るだけで、無駄なリトライが激減して結果的にGPUの節約にもなります。
もう一つ、あまり言われていないことをぶっちゃけると、–owは高ければ高いほど良いわけではないという真実があります。400を超えたあたりから「参照への執着」が「プロンプトの無視」に変わり始め、「横顔を描いて」と書いても正面ばかり出てくるという現象が頻発します。多くのユーザーが「もっと高くすれば精度が上がる」という思い込みで失敗しています。実際には200〜300の範囲がほとんどの用途で最適で、そこからプロンプトの記述を充実させる方向で調整するのが、ずっと効率的です。
つまり、オムニリファレンスの使いこなしの本質は「高度なパラメーター設定を極める」ことではなく、「良質な参照画像を1枚用意し、適切な範囲の–owとともに、丁寧なテキストプロンプトで補う」というシンプルな原則に帰結します。道具の複雑さに圧倒されず、この原則だけ覚えておけば、初日から安定した結果を出すことができます。
オムニリファレンスに関するよくある質問
オムニリファレンスで実在の人物の顔を完全に再現できますか?
残念ながら完璧な複製は難しいです。公式ドキュメントでも「実在の人物は完全に本人に似せることはできない」と明記されています。オムニリファレンスはあくまでビジュアル的な特徴の一貫性を保つための機能であり、人物の同一性を完全に保証するものではありません。Midjourneyで生成したキャラクター画像を参照として使う場合に最も精度が高くなります。
オムニリファレンスとスタイル参照(–sref)の違いは何ですか?
大きく異なる点は何を参照するかです。オムニリファレンスは被写体そのもの(人物・物体・キャラクター)を参照します。一方のスタイル参照は、色調・光の質感・画風・雰囲気といったビジュアルスタイルだけを抽出します。被写体を再現したいならオムニリファレンス、同じ雰囲気の絵を作りたいならスタイル参照、という使い分けが基本です。また両者は組み合わせて使うこともできます。
参照画像を複数使うことはできますか?
現仕様ではオムニリファレンスに設定できる参照画像は1枚のみです。ただし、複数のキャラクターや要素を1枚にまとめた画像を使えば実質的に複数の要素を参照できます。また、スタイル参照(–sref)と組み合わせることで、被写体とスタイルを別々の参照画像から引っ張ることは可能です。
–owの数値はどこから試せばいいですか?
まずはデフォルトの100で試してみましょう。思ったより参照が弱い場合は200〜300へ上げ、スタイルを大きく変えたい・雰囲気だけ借りたい場合は25〜50まで下げる、という調整が実践的なアプローチです。400を超える設定は特殊な目的がある場合を除き、かえって結果が悪化することもあります。
まとめ
Midjourneyのオムニリファレンスは、AIによる画像生成の「一貫性問題」を根本から解決する機能です。1枚の参照画像から被写体の特徴を読み取り、人物・物体・キャラクター・乗り物など幅広いジャンルで視覚的な一貫性を実現します。–owパラメーターで参照の強さを細かく調整できるため、スタイルを大きく変えながら同じキャラクターを使うことも、逆に忠実に再現することも、ひとつの機能で対応できます。
2026年3月現在、V8アルファが公開されMidjourneyの進化は続いていますが、オムニリファレンスはV7の代表的な機能として今も最前線で活躍しています。まだ使ったことがない方は、ぜひ今日から試してみてください。一度コツをつかめば、キャラクター設計やビジュアルブランディングの精度が格段に上がるはずです。


コメント