「プロンプトを入力しても、なんかイメージと違う画像が出てくる…」「アニメ風にしたいのに、なぜかリアル寄りになってしまう…」そんな悩みを抱えながら、Midjourneyを使い続けていませんか?実は、プロンプトの書き方をちょっと変えるだけで、出力結果が劇的に変わります。この記事では、Midjourney v6とv6.1のプロンプトのコツを徹底的に解説しながら、2026年1月にリリースされたばかりの最新モデル「Niji 7」の情報まで丸ごとカバーします。初心者でもすぐに使えるプロンプトのテンプレートも豊富に紹介するので、読み終わったらすぐ試したくなるはずです!
- Midjourney v6のプロンプトは「キーワードの羅列」より「自然な文章形式」が正解で、具体的な描写が高品質な画像を生み出す鍵。
- アニメ・漫画系イラストを作りたいなら「–niji 6」か最新の「–niji 7」パラメータが必須で、それぞれの特徴を理解して使い分けることが重要。
- ライティング・アスペクト比・スタイライズ値などのパラメータを正しく設定するだけで、同じプロンプトでも仕上がりのクオリティが大きく変わる。
Midjourney v6のプロンプトで何が変わったのか?

画像生成AIのイメージ
Midjourney v6は、それ以前のバージョンと比べてプロンプトの解釈方法がガラッと変わりました。以前のバージョンでは「beautiful woman, long hair, sunset, photorealistic」のようなキーワードをカンマで区切って並べる「キーワード型」の書き方が主流でしたが、v6からは文章を書くように、より自然な言い回しでプロンプトを書いた方が精度が上がるように設計されています。
具体的に言うと、v6はプロンプトの文脈や意図を深く読み取る能力が格段に向上しています。たとえば「beautiful woman」と書くよりも「A professional woman in her 30s, warm natural window light, soft smile, relaxed posture」と書いた方が、意図した画像に近いものが生成されます。これはv6が単語の羅列ではなく、文章全体の意味を理解しようとするようになったからです。
また、v6以前では「award-winning」「photorealistic」「8K」「ultra HD」といった修飾語を入れると画質が上がると思われていましたが、v6ではこれらのキーワードはほとんど意味を持たず、むしろ画像の方向性を乱す可能性があります。v6のデフォルトの出力品質はすでに非常に高く、こうした漠然とした品質指定語は不要です。代わりに「golden hour lighting」「cinematic depth of field」「sharp focus」のように具体的な視覚情報として伝えるのが正解です。
v6とv6.1の違いを正確に把握しよう
よく混同されがちですが、v6とv6.1には明確な違いがあります。v6が2023年12月にリリースされたのに対し、v6.1は2024年7月30日にリリースされました。v6.1ではv6と比べてより細かいテクスチャの描写が可能になり、画像の生成速度もおよそ25%高速化されています。長くて複雑なプロンプトに対する理解力もv6.1の方が優れており、複数の要素が絡み合うシーンでも意図通りの構図を出しやすくなっています。
2026年3月現在、Midjourneyのデフォルトモデルはv7(2025年4月リリース)に移行していますが、v6.1は依然として多くのクリエイターに愛用されています。v6.1を使いたい場合はプロンプトの末尾に「–v 6.1」と付けることで指定できます。v7の方が全体的な品質は高いですが、v6.1ならではのスタイルや表現が好みの場合は積極的に使い分けましょう。
プロンプト構成の基本公式をマスターしよう
Midjourney v6で最高の結果を出すためには、プロンプトに盛り込む要素の順番と内容を意識することが大切です。プロンプトの構成には「黄金の公式」と呼ばれるものがあり、これを覚えておくだけでクオリティが一段階上がります。
基本的な構成は「被写体の描写」→「環境・背景の描写」→「ライティングの指定」→「スタイル・雰囲気の指定」→「パラメータ」という流れです。たとえばこんな感じです。「A young woman reading a book by the window, cozy library interior with wooden shelves, soft afternoon light filtering through sheer curtains, warm and peaceful atmosphere, watercolor illustration style –ar 3:4 –v 6.1」
この公式のポイントは、まず「何を」描くかを明確にしてから、「どこで」「どんな光で」「どんな雰囲気で」という順番で肉付けしていくことです。被写体の説明が曖昧なまま雰囲気ばかり書いても、AIは迷子になります。逆に被写体だけ細かく書いて背景やライティングの情報がなければ、のっぺりした画像になりがちです。
ライティング指定がプロンプトのクオリティを決める
プロ級の画像を出力するための最大の秘密のひとつが、ライティングの指定です。「golden hour(黄金時間帯の柔らかい光)」「dramatic shadows(ドラマチックな影)」「studio lighting(スタジオ照明)」「natural window light(自然窓光)」「soft diffused lighting(柔らかく拡散した光)」「Rembrandt lighting(レンブラント照明)」といったキーワードをプロンプトに加えるだけで、同じ被写体を描いても全く異なる雰囲気が生まれます。
人物ポートレートであれば「natural window light」や「soft diffused lighting」が自然な仕上がりになりやすく、バトルシーンやファンタジー系なら「dramatic backlight」「volumetric light rays」が迫力を増してくれます。風景なら「golden hour」や「cinematic atmospheric haze」がフォトリアルな美しさを引き出します。ライティング指定は必ずプロンプトに入れる習慣をつけてください。
アスペクト比の設定も絶対に忘れずに
意外と見落とされがちなのがアスペクト比の設定です。デフォルトは正方形(1:1)ですが、これは多くの用途でベストではありません。SNSやWebバナーなら「–ar 16:9」、Instagramの縦長投稿なら「–ar 4:5」、ポートレートや書籍カバー風なら「–ar 2:3」か「–ar 3:4」、スマホ壁紙なら「–ar 9:16」が最適です。アスペクト比が変わると構図そのものが変わるため、正しいサイズを最初から指定することで、狙い通りの構図に近づきやすくなります。
アニメ・漫画風に仕上げるプロンプトの書き方
日本のアニメや漫画スタイルのイラストを生成したい場合、大きく分けて2つのアプローチがあります。ひとつは通常のv6やv6.1に「anime style」や「manga style」といったキーワードを加える方法、もうひとつはアニメ・漫画に特化したモデルであるNijiシリーズを使う方法です。
通常のv6.1にアニメ風キーワードを加えた場合、リアル寄りのアニメ調というか、どこか「実写とアニメの中間」のような質感になりやすいです。これはこれで独特の魅力があり、「アニメっぽいけどフォトリアルな質感も残したい」というニーズには合っています。
一方でNijiモデルを使うと、日本のアニメや漫画の作画スタイルに本当に近い画像が生成されます。Nijiモデルはミッドジャーニーとゲーム・AIデベロッパーのSpellbrushが共同開発したもので、アニメ特有の大きな瞳の描写、髪のハイライト表現、鮮やかな色彩など、細部にわたってアニメらしさを忠実に再現する能力があります。
Niji 6とNiji 7の決定的な違いとは
2024年に主流だったNiji 6と、2026年1月9日にリリースされたばかりのNiji 7では、プロンプトの扱い方に大きな違いがあります。Niji 6は比較的自由度が高く、シーンの背景やライティングなどをAIが自動補完してくれる傾向がありました。「雰囲気を伝えるとあとはAIがいい感じにしてくれる」という感覚に近いです。
Niji 7は「プレシジョン・プロンプティング(精密プロンプティング)」と開発チームが呼ぶほど、プロンプトに書いた内容を極めて忠実に描画するという特徴があります。ヘアカラー、瞳の色、服のデザイン、ポーズ、持ち物など、指定した要素をほぼ漏れなく画像に反映します。これは複数の要素を同時に指定したい上級ユーザーにとって非常に強力です。反面、プロンプトに書いていないことはAIが勝手に補完しないため、背景が欲しい場合は明示的に「indoors」「outdoors」「city background」などと書く必要があります。
Niji 7を使う場合はプロンプトの末尾に「–niji 7」を付けます。また、Niji 7は瞳の描写・線画の清潔感・色彩の鮮明さが大幅に向上しており、キャラクターの顔のクオリティが格段に上がっています。一方でキャラクターリファレンス機能(–cref)はNiji 7では現時点で非対応なため、同一キャラクターを複数枚生成したい場合はスタイルリファレンス(–sref)を活用するか、v6.1での生成を検討しましょう。
ジャンル別アニメプロンプトの実例
以下に、ジャンル別の具体的なプロンプト例を紹介します。そのままコピー&ペーストしてすぐに使えるので参考にしてください。
学園ラブコメ系の場合は「A cheerful high school girl with shoulder-length brown hair, wearing a navy blue blazer uniform, smiling in a sunlit hallway, big expressive eyes, warm pastel colors, slice-of-life vibe –niji 7 –ar 3:4」がおすすめです。「slice-of-life vibe」という表現が日常系の温かみを引き出してくれます。
バトル・少年漫画系なら「A fierce anime swordswoman with silver spiky hair, unleashing a powerful slash, intense expression, dynamic pose, dramatic lightning background, bold line art, shonen battle style –niji 7 –ar 9:16」が迫力のある画像を生成します。アクションの勢いを出すには「dynamic pose」と「dramatic lighting」の組み合わせが非常に有効です。
ダークファンタジー・ホラー系なら「A dark warrior with a mysterious aura, gothic armor, intricate details, deep shadows, candlelit atmosphere, fantasy manga style –niji 7 –stylize 150 –ar 2:3」という形で「deep shadows」と「gothic」キーワードが重厚さを演出します。
SF・サイバーパンク系は「A futuristic cyborg girl with glowing neon implants, highly detailed mechanical design, rainy cyberpunk cityscape at night, neon reflections on wet asphalt, sci-fi manga style –niji 7 –ar 16:9」が映画的なビジュアルを生み出します。
スタイライズ・カオス・シードなどパラメータの使い方
Midjourney v6のプロンプトを書くとき、文章の内容だけでなく、末尾に付けるパラメータも重要です。主要なパラメータを理解しておくだけで、画像のコントロール精度が大幅に上がります。
–stylize(–s)は、AIがどのくらい「自分なりの解釈」を加えるかを決めるパラメータです。デフォルト値は100で、数値を下げるほどプロンプトに忠実な出力になり、上げるほどAIの芸術的解釈が加わります。フォトリアルな画像を作りたい場合は「–s 50」程度に下げると良く、抽象的・芸術的な表現をしたいなら「–s 300〜500」程度に上げると面白い結果が出やすいです。
–chaos(–c)は出力のランダム性を制御します。0〜100の範囲で指定でき、デフォルトは0です。同じプロンプトで毎回似たような画像を生成したい場合は0のままにし、バリエーションを探りたい場合は20〜40程度に設定するのがおすすめです。
–seedは画像生成の乱数シードを固定するパラメータです。同じシード値と同じプロンプトを使うと、毎回ほぼ同じ画像が生成されます。気に入ったキャラクターや構図を基にバリエーションを作りたい場合に活用してください。Discordでは画像に封筒の絵文字でリアクションすることでシード値を確認できます。
–noは特定の要素を除外するパラメータです。たとえばテキストが画像に入ってしまうことを防ぎたいなら「–no text」を追加します。ただし「–no blur」のようなネガティブな指定は思ったほど効果がなく、むしろ「sharp focus, crystal clear」とポジティブな形で望む状態を書いた方が確実です。
–style rawで余計な加工をなくす
v6.1には「–style raw」というオプションがあります。これを付けると、AIの「いい感じに仕上げる」という傾向が抑えられ、プロンプトにより忠実でクリーンな出力が得られます。フォトリアルな仕上がりや、余分なアーティスティック効果を排除したい場合に特に有効です。ただしv7では「–style raw」の挙動が異なるため、v6.1使用時のオプションとして覚えておくと良いでしょう。
失敗しないためのプロンプト改善サイクル
Midjourneyで理想の画像を生成するには、最初から完璧なプロンプトを書こうとするよりも、反復改善のサイクルを回す発想が大切です。まず大まかなプロンプトで4枚生成し、その中から最も方向性が近いものを選びます。そこから「Vary (Subtle)」か「Vary (Strong)」ボタンを使ってバリエーションを作り、さらに良いものを選んでいく…というプロセスが最も効率的です。
一般的に3〜5回の反復で満足度の高い画像が得られます。プロンプトを一気に大幅修正するのではなく、一度に変える要素をひとつかふたつに絞ることで、「何が変化したのか」が分かりやすくなり、学習効率も上がります。特に構図・ライティング・スタイルの3要素を別々に調整していく方法がおすすめです。
また、オンラインで見つけたプロンプトは「そのまま同じ画像が出るわけではない」という点を覚えておきましょう。Midjourneyは意図的にランダム性を持たせているため、同じプロンプトでも毎回異なる画像が生成されます。公開されているプロンプトはあくまで「起点」であり、そこから自分なりにカスタマイズする前提で活用するのが正解です。
キャラクターの統一感を出す!–crefと–srefの使い分け完全解説

画像生成AIのイメージ
Midjourneyを使い込んでいくと、誰もが必ず直面する壁があります。それが「同じキャラクターを複数の画像で使い続けられない」という問題です。せっかく理想の女の子キャラクターが生成できたのに、次のプロンプトで全然別人みたいな顔になってしまう…これ、本当にあるあるですよね。この問題を根本的に解決するのが–cref(キャラクターリファレンス)と–sref(スタイルリファレンス)という2つのパラメータです。
まず両者の役割をひと言で整理すると、–crefは「同じ俳優(キャラクター)を使い回す」ためのもので、–srefは「同じカメラや美術スタイルを使い回す」ためのものです。漫画のキャラクターで言えば、–crefは「主人公の顔・髪・体型を保持する」機能で、–srefは「その作品の画風・色調・タッチを保持する」機能に相当します。この区別を最初に理解しておくだけで、使う場面に迷わなくなります。
–crefの正しい使い方とキャラクターウェイトの調整術
–crefを使うには、まずMidjourneyで生成した画像のURLが必要です。生成した画像をDiscordで右クリックして「画像リンクをコピー」するか、Midjourneyのウェブ版であれば画像をプロンプトバーにドラッグするだけで設定できます。基本的な書き方は「(新しいシーンの説明) –cref (参照画像のURL) –v 6.1」という形です。
注意したいのが–cw(キャラクターウェイト)の設定です。デフォルトは100で、この場合は顔・髪・服装すべてを参照画像に合わせようとします。たとえば制服姿で生成したキャラクターを水着シーンでも制服のまま描いてしまうことがあるのはこのためです。–cwを0に設定すると顔の特徴だけを引き継いで服装や髪型は自由に変えられるようになります。「キャラクターの顔だけ統一したいけど、シーンごとに衣装を変えたい」という場合は–cw 0が非常に有効です。プロのクリエイターがよく使う設定として–cw 50〜70があり、これは創造性と統一感のバランスが取れた中間値として人気があります。
重要なのは–crefに使う参照画像は、実際の写真よりもMidjourneyが生成したイラストの方が精度が高いという点です。現実の人物写真を使うと顔が崩れたり、思い通りのキャラクターにならなかったりすることが多いです。まずMidjourneyで理想のキャラクターを1枚生成し、それをリファレンス画像として使うという2段階のアプローチが最もうまくいきます。
また、–crefと–srefは同時に使うことができます。たとえば「同じキャラクターを、特定のアーティストの画風で」という場合は「(プロンプト) –cref (キャラ画像URL) –sref (スタイル参照画像URL) –cw 80 –sw 100」のように組み合わせることで、キャラクターの同一性と画風の一貫性を両立できます。これはコミックやマンガ風の連続イラスト制作に特に役立ちます。
–srefのランダム探索で新スタイルを一瞬で発見する方法
スタイルリファレンスで面白いテクニックがあります。それが「–sref random」の使い方です。このパラメータを付けると、Midjourneyが内部スタイルライブラリからランダムにスタイルコードを割り当てて生成します。これが驚くほど多様なスタイルを一気に試せる方法で、「なんとなくおしゃれな雰囲気にしたいけど、どんなスタイルが合うか分からない」というときに非常に便利です。
生成後に気に入ったスタイルが出てきたら、そのジョブから生成されたスタイルコードをメモしておき、次からは「–sref (そのコード番号)」と指定することで同じスタイルを再現できます。Niji 7でも「–sref random」は使えるため、アニメ系イラストのスタイル探索にも活用できます。
現実でよくある「あるある失敗」とその具体的な解決手順
ここからは、実際にMidjourneyを使う中でほぼ全員が経験する「あるある失敗」を取り上げます。どこにも書いていない具体的な解決手順を含めて解説するので、参考にしてください。
失敗その1背景の色が意図と全然違う色になる問題
「白背景で生成したいのに、なぜかグレーや薄いベージュになる」「青空のはずが夕焼け色になってしまう」という経験はありませんか?これはMidjourneyが「それらしい雰囲気」を自動的に加えようとするからで、特に–stylize値が高いほど起こりやすいです。
解決手順はこうです。まず「solid white background」や「pure white background」のように「solid」や「pure」を色の前につけるのが基本です。それでも直らない場合は「–no shadows, –no gradients」を追加して影やグラデーションを明示的に除外します。どうしても色が暴れる場合は「–style raw」と「–s 50以下」を組み合わせることで、AIの自動着色傾向を最小限に抑えられます。
ブランドカラーを厳密に再現したい場合は、まずCoolorsやFigmaで3〜6色のカラーパレット画像(色のブロックを並べた単純な画像)を作り、それを–srefで参照する方法が最も信頼性が高いです。「#FF6B6Bを使って」のようにHEXコードをプロンプトに書いても効果がなく、「coral red」や「vivid crimson」のように色名で指定する方がまだ反応が良いです。
失敗その2画像に謎の文字やロゴが勝手に入る問題
都市の風景や商品画像、SNS投稿風のイラストを生成すると、意味不明な文字列やロゴのようなものが画像内に現れることがあります。これはv6.1の「画像内テキスト描画能力」の副作用で、AIが「こういうシーンにはテキストがあるはず」と判断して勝手に描いてしまうことが原因です。
解決手順はシンプルです。プロンプトの末尾に必ず「–no text, –no lettering, –no logos, –no watermarks」を追加してください。これだけで90%以上のケースで解決します。それでも出る場合は「clean minimal background, no signage」という表現をプロンプト本文に追加することで更に抑制できます。すでに生成された画像に不要な文字が入ってしまった場合は、Midjourneyウェブ版の「Vary (Region)」機能でその部分だけを選択して再生成する方法が最も効率的です。
失敗その3構図がなんとなく平面的でのっぺりして見える問題
色彩も悪くないのになぜか「地味」「物足りない」と感じる画像に共通する問題が奥行き(デプス)の不足です。AIは2Dの画面上に描くため、意識的に奥行き感を指示しないと平面的な仕上がりになりがちです。
解決手順として効果的なのが「前景・中景・背景の三層構造」をプロンプトに明示することです。たとえば「shallow depth of field with blurred foreground bokeh」や「foreground elements in focus, background softly blurred」のような表現を加えると、カメラで撮ったような立体感が生まれます。さらに「atmospheric perspective(大気遠近法)」や「volumetric light rays(光芒)」「leading lines(誘導線)」といった写真・絵画用語をプロンプトに加えると、構図そのものが劇的に改善します。
失敗その4プロンプトの後半に書いた要素が無視される問題
「Midjourneyはプロンプトの後半に書いた内容を軽視する傾向がある」という事実を知らずに使い続けていると、思い通りの画像が出ない原因を特定できないまま悩み続けることになります。MidjourneyのAIはプロンプトの最初の方に書かれた言葉ほど優先度が高いという傾向があります。
解決手順は2つあります。ひとつは最も重要な要素を必ずプロンプトの先頭に書くこと。「背景の色を赤にしたい」なら「red vibrant background, …」と最初に書きます。もうひとつはマルチプロンプト(「::」区切り)を使う方法です。例えば「forest landscape::2 mystical fog::1 ancient ruins::1.5 –v 6.1」のように書くと、それぞれの要素に重みを設定でき、特定の要素を強調させることができます。数字が大きいほど影響力が強くなります。
失敗その5バリエーションを作るたびにキャラクターが変化しすぎる問題
気に入った画像ができたのに、「Vary (Strong)」を使うと別キャラになってしまう…という場面は頻繁にあります。これは変化の幅が大きすぎることが原因です。
解決手順として推奨するのは「Vary (Subtle)」を使い続けることです。Vary (Subtle)はVary (Strong)より変化幅が小さく、主要な特徴を残しながら細部を調整します。さらに確実にキャラクターを維持したい場合は、シードナンバーを取得してプロンプトに「–seed (番号)」を追加する方法が有効です。同じシードと類似プロンプトを使えば、毎回ほぼ同じ構図・キャラクターから出発できます。DiscordではボットのDMから、MidjourneyのウェブUIではジョブ詳細からシード番号を確認できます。
コピペOK!用途別すぐに使えるプロンプト集
ここでは実用性が高く、そのままコピー&ペーストして使えるプロンプトを用途別にまとめます。パラメータも含めているので、末尾の数値を少し変えるだけで自分好みに調整できます。
【SNS用縦型ビジュアル】インスタグラムの投稿やストーリーズに使えるスタイリッシュな縦型画像はこちらです。「Aesthetic flat lay of matcha latte and open book on linen fabric, morning light from left, warm neutral tones, minimalist Japanese cafe vibe, soft shadows –ar 4:5 –v 6.1 –s 120 –style raw」は料理やライフスタイル系アカウントに最適です。
【ビジネス・プレゼン資料向け】商業的に使いやすいクリーンなビジュアルは「Professional team meeting in a modern glass office, diverse group of four people collaborating around a table, natural daylight, clean corporate atmosphere, wide shot –ar 16:9 –v 6.1 –s 80 –no text」で生成できます。–s値を低めにしてAIの解釈を抑えているのがポイントです。
【ファンタジーキャラクター表情集】ゲームや漫画制作に使えるキャラクター表情バリエーションは「Character expression sheet, young female elf warrior, six different expressions (happy, angry, sad, surprised, determined, smirking), clean white background, anime illustration style, consistent character design –ar 3:2 –niji 7 –s 50」が有効です。–s 50で細部の揺らぎを抑え、一貫性を高めています。
【サイバーパンク都市景観】世界観のある背景イラストは「Neon-lit cyberpunk Tokyo alley at 3am, rain-soaked cobblestones reflecting neon signs in red and blue, fog at ground level, lone figure with umbrella in midground, cinematic aspect ratio, photorealistic –ar 21:9 –v 6.1 –s 200 –chaos 10」が映画的な奥行きを生み出します。
【ゆるいイラストロゴ向け素材】「Cute minimalist mascot of a sleepy brown bear holding a coffee cup, flat vector style, two-color palette of warm brown and cream white, simple thick outlines, no background, no shading, sticker design –ar 1:1 –v 6.1 –s 100 –no text –no shadows」はアイコンやショップロゴの下絵として活用できます。
【Niji 7アニメ主人公】「A 17-year-old male protagonist with messy dark blue hair and golden eyes, wearing a worn-out school uniform with a red scarf, standing on a rooftop at sunset, determined expression, cinematic wide shot from slightly below, anime screenshot style –ar 16:9 –niji 7 –s 80」は「アニメのワンシーン」感が非常に強く出るプロンプトです。
プロが実際にやっているChatGPTとの連携術
Midjourneyを本格的に活用しているクリエイターの間で、いま当たり前のように行われているのがChatGPTとの連携です。「プロンプトを自分で考えるのが大変」という悩みを持つ初心者の方にとっても、この方法は特に効果的です。
最もよく使われる方法は「生成した画像をChatGPTに見せて、そのプロンプトを改善してもらう」というものです。具体的には、Midjourneyで気に入った画像が出たらそれをChatGPTにアップロードし、「この画像に少し手を加えて〇〇の要素を加えたい。Midjourneyのプロンプトを改良して」と依頼します。ChatGPTは画像を視覚的に解析して、現在のプロンプトに何が不足しているかを補完してくれます。
また、「日本語でざっくりとしたイメージを説明したら、v6.1に最適な英語プロンプトに変換して」という使い方も非常に便利です。たとえば「秋の夕方、赤いもみじの下に和傘を持つ着物姿の女性、水墨画風」と日本語で伝えるだけで、ライティングやスタイル指定まで含んだ高品質なプロンプトを生成してくれます。これは英語が不得意な方にとって特に強力な武器になります。
さらに上級者向けの使い方として、生成したいシーンのストーリーや世界観をChatGPTに語り、「コミックの4コマ分のシーンプロンプトを書いて」と依頼する方法があります。Midjourneyで同一キャラクターの複数シーンを生成する際のプロンプト全体の設計を、ChatGPTに担当させることで作業効率が大幅に上がります。
ぶっちゃけこうした方がいい!
ここまで色々と解説してきましたが、ぶっちゃけ一番効率的なやり方を正直に言います。「完璧なプロンプトを最初から書こうとするのをやめる」ことが、Midjourneyを使いこなす一番の近道です。
初心者の多くが「どんなプロンプトを書けばいいかが分からない」「試しても思い通りにならない」と悩んでいますが、その根本原因は「1発で完璧な画像を出そうとしているから」です。プロのクリエイターでさえ、最初の生成から3〜5回は反復するのが普通です。しかも彼らは最初のプロンプトをわざとシンプルに書き、4枚の出力から方向性を確認してから肉付けしていきます。
個人的に最も楽で効率的だと感じるのは「ChatGPTで日本語のアイデアを英語プロンプトに変換 → Midjourneyで4枚生成 → –sref randomで雰囲気の違いを探る → 気に入った方向性に絞って–crefや–srefを組み合わせる」というフローです。このフローを1回回すのにかかる時間は慣れると5〜10分程度で、最初から「正解のプロンプト」を探して何十分も悩むより圧倒的に速く結果が出ます。
もうひとつぶっちゃけると、Midjourneyのウェブ版(midjourney.com)を使っていない人はDiscordより絶対にウェブ版を使うべきです。Discordは確かに機能が揃っていますが、ウェブ版はドラッグ&ドロップで参照画像を設定できたり、生成履歴が一覧で見やすかったり、Vary (Region)がビジュアルで直感的に操作できたりと、作業効率が段違いです。「Discordでしか使えないと思っていた」という方は今すぐウェブ版に移行することを強くおすすめします。
最終的に言えることは、Midjourneyは「正解を知っているかどうか」ではなく「試行錯誤を楽しめるかどうか」で結果が変わるツールです。ただしその試行錯誤を賢く短縮するために、この記事で紹介したテクニックを使ってほしいです。知識があるかないかで、同じ時間でたどり着けるクオリティのレベルがまったく変わります。焦らず、でも効率的に、自分だけのビジュアルを作っていきましょう。
Midjourneyのv6プロンプトのコツに関する疑問解決
v6.1とNiji 7、どちらを使えばいいですか?
用途によって使い分けるのが最善です。フォトリアルな人物・風景・プロダクト写真のような画像を作りたい場合はv6.1(または最新のv7)が適しています。日本のアニメや漫画のスタイルに近いキャラクターイラストを作りたいなら、Niji 7が圧倒的に優れています。Niji 7は2026年1月9日にリリースされたばかりの最新モデルで、瞳の描写・線画品質・プロンプト追従性の三拍子が揃っています。どちらを使うべきか迷ったら、まず同じプロンプトを両方で試してみてください。雰囲気の違いを体験することが上達への一番の近道です。
プロンプトは英語で書かないといけないのですか?
Midjourneyは英語のプロンプトに最適化されており、英語で書いた方が意図通りの画像が生成されやすいのは事実です。日本語でも一定の解釈はしてくれますが、細かいニュアンスが伝わりにくいことがあります。「英語が得意でない」という方は、ChatGPTやDeepLなどの翻訳ツールを活用してプロンプトを英語に変換してから使うと、大幅にクオリティが改善します。プロンプト自体を「Midjourneyで〇〇な画像を作りたい。英語のプロンプトを書いて」とAIに依頼するのも効率的な方法です。
手や指が変になってしまうのはなぜですか?
これはMidjourneyに限らずAI画像生成全般で起こる問題で、人間の手の構造が複雑すぎてAIが苦手とする部分です。v6.1やv7では以前より大幅に改善されましたが、完全に解決されているわけではありません。対策としては、手が写り込まないような構図を選ぶか(「close-up portrait, face only」など)、手が重要な場合はUpscaleしてからMidjourney上の「Vary (Region)」機能で手の部分だけを再生成する方法が有効です。また「beautiful detailed hands, correct anatomy」のようなキーワードを加えることで改善されることもあります。
同じキャラクターを複数の画像で使い回せますか?
v6.1やv7では「–cref(キャラクターリファレンス)」という機能を使うと、同じキャラクターを別の構図やシチュエーションで描き続けることが可能です。ただしNiji 7では現時点(2026年3月)でこの機能が使えないため、「–sref(スタイルリファレンス)」を活用するか、v6.1での作業に切り替える必要があります。開発チームはNiji 7向けの代替機能を開発中とのことで、近い将来のアップデートに期待が高まっています。
2026年現在、もっと新しいモデルはありますか?
はい、2025年4月にMidjourney v7がリリースされ、2025年6月からデフォルトモデルになっています。v7では手・体・文字の描写が大幅に改善され、自然言語での指示により精密に対応します。さらに2026年中にv8のリリースが予定されており、コミュニティ内では既にレーティングパーティが実施されていることが確認されています。アニメ特化モデルについては、2026年1月9日にNiji 7がリリースされ、現時点でのアニメ画像生成の最高峰に位置しています。
まとめ
Midjourney v6のプロンプトのコツをひと言で言うなら、「具体的な視覚情報を自然な文章で伝えること」です。キーワードの羅列からの脱却、ライティング指定の徹底、アスペクト比とパラメータの適切な設定、そして反復改善のサイクルを意識することで、あなたのMidjourneyの使い方は確実に次のレベルに上がります。
アニメ・漫画系のイラストを作りたい方には、2026年1月にリリースされたばかりのNiji 7が非常に強力な選択肢です。プロンプトに書いた要素を忠実に反映する「プレシジョン・プロンプティング」の思想のもと、今まで以上に意図通りのキャラクターイラストが生成できるようになりました。使い始めは少し丁寧なプロンプトが必要ですが、慣れれば手放せないツールになるはずです。
まずはこの記事で紹介したプロンプトをそのまま試してみて、そこから少しずつ自分好みにカスタマイズしていきましょう。プロンプト作りに「正解」はありませんが、試行錯誤を楽しむことこそがMidjourneyの醍醐味です。最初はうまくいかなくても、諦めずに3〜5回反復すれば、必ず「これだ!」という画像に出会えます。ぜひ今日から実践してみてください。


コメント