「なんかイメージと違う…」「もっとささやくような声にしたいのに」──SunoAIで曲を作り始めたとき、誰もが一度はそう感じたことがあるはずです。実は、ボーカルの口調や雰囲気を思い通りにするには、歌詞の書き方とタグの使い方に「ちょっとしたコツ」があります。このコツを知るだけで、SunoAIが出力する楽曲のクオリティはガラッと変わります。
この記事では、国内外の最新情報(2026年3月時点)を徹底的に調査した上で、初心者でも今すぐ実践できる具体的な方法をまとめました。
- SunoAIでボーカルの口調・感情・スタイルを指定するタグの使い方を徹底解説
- ウィスパー(囁き)やナレーション(セリフ)パートを成功させる実践テクニックを紹介
- 日本語歌詞で起きがちなイントネーション問題と、その回避策を具体例付きで解説
- SunoAIのボーカル指定ってそもそも何ができるの?
- ボーカルの口調を細かく決める声質タグの使い方
- 日本語歌詞でのボーカル指定イントネーション問題を攻略する
- ウィスパーとナレーション特殊な口調を成功させる実践テクニック
- Suno v5時代の新しいボーカル指定の常識
- SunoAIだからこそできる!コピペで使えるボーカル指定プロンプト集
- 現実でよく起きるトラブルとその解決法体験ベースで正直に話します
- Replace Section機能を使った「部分だけ直す」効率的なワークフロー
- Suno v5時代に押さえておきたい「Sounds機能」とループ素材の活用
- ボーカル口調の指定に関するもう一歩踏み込んだ疑問解決
- ぶっちゃけこうした方がいい!
- よくある疑問と回答
- まとめ
SunoAIのボーカル指定ってそもそも何ができるの?

音楽生成AIのイメージ
SunoAIは、テキストのプロンプトと歌詞を組み合わせることで、AIが楽曲を生成するサービスです。2025年9月にリリースされたSuno v5では、それ以前のモデルと比べてボーカルの人間らしさが飛躍的に向上し、感情表現や音節のタイミングまで緻密にコントロールできるようになりました。
ボーカルを指定する方法は大きく2種類あります。一つはスタイルプロンプト(曲全体の音の方向性を決める欄)に口調や声質を書く方法、もう一つは歌詞フィールド内にタグを埋め込む方法です。この2つを正しく使い分けることが、ボーカル指定の基本中の基本です。
スタイルプロンプトには「breathy female vocals(息っぽい女性ボーカル)」「raspy male voice with emotional intensity(感情豊かなしゃがれた男性ボーカル)」のように、声質・性別・感情のトーンを英語で書き込みます。一方、歌詞フィールドにはやといったセクションタグに加えて、や、などのボイスタグを直接埋め込むことができます。
スタイルプロンプトとタグの役割の違い
よくある失敗が「歌詞とスタイル指示を同じ欄に書いてしまう」ことです。Sunoはこの2つの欄を別々に解釈するよう設計されているため、混在させると予期しない結果が出やすくなります。スタイルプロンプトには音の設計図(ジャンル・BPM感・楽器・ボーカルの声質)を書き、歌詞フィールドには構成と言葉を書く、という鉄則を守りましょう。
グローバルなSunoコミュニティでも「4〜8個程度のスタイルタグが最も安定する」という経験則が共有されており、タグが少なすぎるとAIが自由に解釈しすぎ、多すぎると指示が衝突して混乱した結果になりやすいとされています。
ボーカルの口調を細かく決める声質タグの使い方
SunoAIには、ボーカルの口調・感情・声質を指定するためのボイスタグが豊富に用意されています。これらを歌詞フィールドの各セクション直前に挿入することで、曲の展開に合わせて声のキャラクターを変化させることが可能です。
性別と声域の指定には、、のほか、(ファルセット)、(低音)、(高音)などが使えます。感情のトーンには、、のように感情ワードとセクション名を組み合わせる方法が効果的です。Sunoはこれらの感情的なトーンをコード進行やメロディの雰囲気にまで反映させようとするため、歌詞の内容と感情タグが一致しているほど、より意図に近い仕上がりになります。
また声にテクスチャーを加えるタグとして、(息っぽい)、(しゃがれた)、(滑らか)、(荒削りな)などもあります。エレクトロやポップにはスムーズな声質、ロックやブルースには荒削りな質感を指定すると、楽曲全体のジャンル感が自然にまとまりやすくなります。
感情の流れを「アーク」として設計する考え方
2026年時点のSuno v5は、曲全体を通じた「感情の弧(エモーショナルアーク)」を解釈する能力が大きく向上しています。たとえばVerseで(憂鬱)、Chorusで(希望)、Outroで(穏やか)というように、セクションごとに感情を変化させて書くと、まるで物語を歌で語るような深みのある楽曲が生まれやすくなります。
この手法は海外のプロデューサーコミュニティでも「Emotional Arc Strategy(感情アーク戦略)」として広く実践されており、ただ声質を指定するだけでなく、楽曲全体に意図した感情の流れを仕込む上級テクニックとして定着しています。
日本語歌詞でのボーカル指定イントネーション問題を攻略する
日本語でSunoを使うとき、多くの人が直面する壁があります。それがイントネーション(音の高低アクセント)の問題です。SunoAIは基本的に英語を最も得意としており、日本語のアクセントについては「間違ったアクセントを正しいと思い込んでいる」単語が多数存在します。
たとえば「すなお(素直)」「しんわ(神話)」「ほんとうは(本当は)」といった言葉は、何度生成しても不自然なカタコト感が残りやすいと報告されています。こうした苦手な単語を見つけたら、諦めて似た意味の別の言葉に置き換えるか、思い切って英語のフレーズに変えてしまうのが現実的な対処法です。
たとえば「ごめんなさい」がうまく発音されない場合、「I’m sorry」に変えると英語話者らしい自然な発音になり、むしろカッコよく仕上がるケースも多いです。このように日英混在(バイリンガル)の歌詞を意図的に設計することが、日本語Sunoユーザーの間で広まっているベストプラクティスの一つです。
言語切り替えを明示するタグの書き方
歌の途中で日本語から英語、または英語から日本語に切り替えたい場合は、セクションタグに言語情報を含める書き方が有効です。たとえば、、のように記述することで、Sunoがどのセクションでどの言語を使うべきかを認識しやすくなります。
さらにのような記述は「前半は英語、後半は日本語で歌う」ことを明示するのに効果的です。この表記スタイルはSunoのグローバルコミュニティでも「ベストプラクティス」として認知されており、特にProプラン以上のv4以降のモデルで安定した効果が確認されています。無料プランやv3.5モデルでは、言語切り替えや細かい演出の再現が不安定になることがあるため注意が必要です。
ウィスパーとナレーション特殊な口調を成功させる実践テクニック
「ただ歌うだけじゃなく、囁くような語りかけを入れたい」と思ったことはありませんか?SunoAIではタグを使うことで、ボーカルを囁き声に変えることができます。またというタグを使うと、歌の途中にセリフやナレーションパートを挿入することが可能で、約80%の確率でセリフパートとして認識されるという報告もあります。
ただし、ナレーションパートはイントネーションの粗が歌唱時よりも目立ちやすくなります。歌の場合はメロディが不自然さを和らげてくれますが、語りになると日本語のアクセントの違和感が浮き彫りになるからです。そのため、セリフパートを作る際は特に単語の選定に気を配り、何度か生成してみて自然に聞こえるフレーズに絞り込む作業が必要になります。
ウィスパーとナレーションを使ったアウトロの演出方法
曲の終盤、特にアウトロにウィスパーや語りを入れると、余韻と深みが大きく増します。歌詞内で*(アスタリスク)で囲むことで、ト書き風の台詞演出を明確に表現できます。たとえば、*そっと、手を離したのように書くと、セリフとしての意図がSunoに伝わりやすくなります。
ウィスパーパートを書くときのコツは、最小限の語数で最大限の情感を込めること、そして呼吸や余白を意識した行間のリズムに気をつけることです。言葉を削ぎ落とすほど、リスナーの心にすっと届くラストになります。
Suno v5時代の新しいボーカル指定の常識
2025年後半にリリースされたSuno v5は、それ以前のバージョンと比べてボーカルエンジンが大幅に改良されています。v3では感じられた「ロボット感」がほぼなくなり、v5では44.1kHzステレオの高品質音声でほぼ人間と区別がつかないボーカルを生成できるようになりました。
v5では、スタイルプロンプトに「Female pop vocalist, breathy, intimate, 90s R&B groove」のようにボーカルの役割と声質を冒頭に明記する「トップアンカー」方式が特に有効とされています。モデルが最初にボーカルのキャラクターを固定してから歌詞を解析するため、一貫性が高まるからです。
また、v5ではSuno Studioという組み込みの編集環境が追加され、生成した楽曲のボーカルと各楽器のステム(個別音源)を別々に書き出して、自分のDAWで更に編集することも可能になっています。AI生成をたたき台にして人間がリファインするワークフローが、2026年のプロデューサーの間で標準的な使い方として定着しつつあります。
繰り返し生成と「ペルソナとの相性」という視点
どんなに完璧なタグを使っても、1回の生成で意図通りの結果になることは多くありません。海外コミュニティのデータによれば、理想のボーカルを得るまでに平均6回以上の生成が必要というのが現実です。特にナレーションやウィスパーパートでは、50回以上生成してやっと納得できるものが出来上がることも珍しくありません。
Sunoには特定のボーカルキャラクターを保存できるペルソナ機能もあり、同じペルソナでもうまくいかない場合は別のペルソナで試してみると一発でOKになるケースもあります。「ペルソナとの相性」というのは、まさに楽曲のジャンルや言語との組み合わせで変わるため、試行錯誤を楽しむ姿勢が大切です。
SunoAIだからこそできる!コピペで使えるボーカル指定プロンプト集

音楽生成AIのイメージ
ここからは、実際にそのまま使えるプロンプトを状況別にまとめました。スタイルプロンプト欄にそのまま貼り付けるだけでOKです。記事前半で解説した「トップアンカー方式」に基づき、ボーカルの指定を必ず先頭に書くことがポイントです。
まず、日本語の切ないバラードを作りたい場合のプロンプト例はこちらです。
Soft female vocals, breathy and intimate, Japanese lyrics, melancholic ballad, acoustic piano, gentle strings, slow tempo, emotional vocal-forward mix
次に、英語と日本語が混ざったポップスにしたい場合はこちら。
Clear male vocals, warm tone, bilingual pop, Japanese verse English chorus, acoustic guitar, synth pad, mid-tempo 100BPM, uplifting yet bittersweet, vocal-forward
アウトロだけウィスパーで締めたい場合は、スタイルプロンプトで全体の声質を設定した上で、歌詞フィールドのアウトロ部分に以下のように書き込みます。
の直後に、短く削ぎ落とした言葉を置くと、Sunoが静かなナレーション調で締めてくれます。行数を2〜3行に絞り、句読点を使って呼吸を意識した配置にすることが大切です。
ナレーション・セリフパートを入れたい場合はこちら。
を歌詞フィールドの該当セクションに入れた後、セリフを続けます。このとき、1行あたりの文字数を短めに抑え(目安は20文字前後)、苦手な単語を避けたシンプルな日本語か英語にするのが成功率を上げるコツです。
感情的なサビで声を張り上げさせたい場合、スタイルプロンプトにこちらを追加します。
powerful belt on chorus, dynamic range from soft verse to intense chorus, emotional peak at bridge
これはSuno v5の「感情アーク解釈能力」を最大限に活かすための記述で、VerseとChorusで声の強弱を自動的に変化させてくれます。
現実でよく起きるトラブルとその解決法体験ベースで正直に話します
「タグの使い方は理解した。でも実際に生成してみると、なぜかうまくいかない」そんな経験を持つ人のために、SunoAIユーザーが実際によく直面するトラブルとその解決策を、体験ベースで整理しました。
「ボーカルが楽器に埋もれて聞こえない」問題
Sunoで曲を生成したとき、歌詞はあるのにボーカルが音楽の中に溶け込んで聞き取れない、という経験をした人は非常に多いです。これはプロンプトに楽器を詰め込みすぎたときに起きやすい現象です。「synth, guitar, bass, piano, strings」と次々と楽器を書き連ねると、Sunoはそれらを全部詰め込もうとして、ボーカルが相対的に小さくなってしまいます。
解決策は、スタイルプロンプトに「vocal-forward」「spacious mix」「prominent vocals」というキーワードを加えることです。特に「spacious(空間的な)」という単語は、Sunoがボーカルのための周波数帯域を意識的に空けてくれる魔法の言葉として、海外コミュニティでも広く知られています。楽器の指定は絞り込んで2〜3種類までにし、ボーカルの記述を先頭に持ってくる「トップアンカー方式」を徹底しましょう。
「毎回声が変わって同じアーティストの曲として聴こえない」問題
複数の曲を作っているのに、毎回ボーカルのキャラクターが違う。これはSunoを使い始めた多くの人がぶつかる壁です。2026年2月のStudioアップデートで追加されたペルソナ機能が、この問題を根本的に解決してくれます。
ペルソナの作り方はシンプルです。自分が「この声だ!」と思える楽曲が生成できたら、その曲のメニュー(三点ドット)から「Create(作成)→ Make Persona(ペルソナを作る)」を選び、名前をつけて保存するだけです。次回以降はCustomモードでペルソナを選択すると、スタイルフィールドに自動的にそのペルソナの声質が反映されます。
ただし、いくつか注意点があります。ペルソナのもとになる楽曲は、ボーカルがリバーブやエフェクトで過剰に加工されていない、クリアな録音のものを選ぶことが重要です。エフェクトが重なった音源からペルソナを作ると、声そのものではなくエフェクトの質感を「個性」として学習してしまいます。また、ペルソナはジャンルとの相性があり、ポップボイスで作ったペルソナをヘビーメタルで使っても期待どおりにならないことが多いため、ジャンルを変える場合は別のペルソナを用意するか、スタイルプロンプトをシンプルに絞る必要があります。ペルソナ機能はProプランとPremierプランのみで利用でき、最初の200曲分は無料で使えます。
「歌詞を書いたのに全然違う言葉が歌われる」問題
カスタムモードで歌詞を入力したのに、生成された楽曲では全く別の言葉が歌われる、またはそもそも歌詞が聴き取れないほど不明瞭になる──これも頻繁に報告されるトラブルです。
原因の多くはイントロが長すぎることとスタイルプロンプトの指示が矛盾していることです。長いイントロ指定があると、Sunoがボーカルを遅れて登場させるだけでなく、そもそも歌詞を無視して器楽的な解釈をしてしまうことがあります。
解決策は、歌詞フィールドの冒頭にタグを省くか、使う場合もとして短いイントロであることを明示することです。さらに、スタイルプロンプトで相反するキーワード(例「aggressive」と「calm」を同時に使う)がある場合は片方に絞りましょう。プロンプトの中で矛盾した指示が存在すると、Sunoはどちらを優先すべきか判断できずに奇妙な結果を出しやすくなります。
「何度やっても男性ボーカルなのに女声になる」問題
スタイルプロンプトに「male vocals(男性ボーカル)」と書いているのに、生成されるたびに女性の声が出てくる──これはSunoの旧モデルでよくあった問題で、v5になっても完全には解消されていません。
最も確実な対処法はペルソナ機能の活用ですが、ペルソナなしで対処する場合は歌詞フィールドの最初のセクションタグの直前にもと書き込むという二重指定が有効です。スタイルプロンプトだけでなく、歌詞フィールドにも明示することで認識精度が上がります。また、ジャンルとボーカルの相性も影響するため、たとえば「folk」や「indie rock」は男性ボーカルが出やすいジャンルとして知られており、ジャンルを変えることで解決することもあります。
「感情指定をしたのに棒読みのような歌い方になる」問題
「悲しい曲を作りたいのに、ボーカルがフラットで感情が伝わってこない」という悩みも非常によく聞きます。これはスタイルプロンプトに感情ワードを入れているのに、歌詞の内容と乖離している場合に起きやすいです。
Sunoは歌詞の内容と音楽の方向性の両方から感情を解釈しようとするため、スタイルプロンプトの感情指示と歌詞の感情的な内容が一致しているほど、より感情豊かなボーカルになります。たとえば「melancholic(切ない)」というタグを使うなら、歌詞の中にも「失う」「遠ざかる」「消えてゆく」といった喪失感のある言葉を散りばめることで、AIが両方のシグナルを受け取って感情表現に反映させやすくなります。
また、歌詞の行末に「…(三点リーダー)」や「、(読点)」を意図的に配置すると、Sunoがそこに息継ぎや余白を入れてくれることがあります。声に「間」を生み出すこの手法は、感情表現を豊かにする上で見落とされがちな重要テクニックです。
Replace Section機能を使った「部分だけ直す」効率的なワークフロー
曲全体を何十回も生成し直すのは時間もクレジットも大量に消費します。2026年現在のSuno v5では、Replace Section(セクション置き換え)機能を使って、気に入らないパートだけを部分的に再生成することが可能です。
具体的な使い方は、Suno Studioで楽曲を開き、修正したいセクション(例サビだけ、Aメロだけ)を選択して再生成を指示するというものです。この機能を使うことで、全体の構成やボーカルのキャラクターは維持しながら、特定の問題箇所だけを集中的に改善できます。
プロが実践するワークフローとして「80〜90%の完成度をSuno Studio内で仕上げ、残りの10〜20%をステム書き出し後に外部ツールで調整する」という手法が定着しています。ステム(個別音源)書き出しはSunoの有料プランで利用でき、ボーカルと伴奏を分離してDAWやBandLabのようなブラウザベースの無料ツールで最終仕上げを行う流れです。ボーカルが少し埋もれている程度のトラブルなら、ステム書き出し後にボーカルトラックだけボリュームを上げるだけで解決することも多く、何度も全体を再生成するよりもはるかに効率的です。
Suno v5時代に押さえておきたい「Sounds機能」とループ素材の活用
2026年2月のアップデートでは、ペルソナ以外にも注目の新機能が追加されました。それがSounds機能です。フルの楽曲を生成するだけでなく、「90BPM Lo-Fi Drum Loop(90BPMのローファイドラムループ)」や「Cinematic Impact Swell(映画的な効果音)」のような素材単体の生成が可能になりました。
これはボーカル指定とは少し異なる話に思えるかもしれませんが、実は深く関係しています。ループ素材だけを先に作り、その上に歌声のイメージを固めてからカスタムモードで楽曲を作るという「サウンドファースト」のアプローチが、ボーカルの方向性をより明確にするのに役立つからです。伴奏の雰囲気が先に決まっていると、スタイルプロンプトに書くボーカルの指定もより具体的にイメージしやすくなります。
また、同アップデートで追加されたマッシュアップ機能を使えば、自分が過去に作った楽曲Aのボーカルの雰囲気と、楽曲Bのサウンドスタイルを合体させるような創作も可能になっています。自分のベストボーカルを保存して再活用するという発想は、ペルソナ機能と組み合わせることで、より一貫したアーティストらしいサウンドの構築へとつながります。
ボーカル口調の指定に関するもう一歩踏み込んだ疑問解決
「vocal-forward」と「prominent vocals」は何が違うのですか?
どちらもボーカルを前面に出す指示ですが、ニュアンスが少し異なります。「vocal-forward」はミックス全体においてボーカルが主役になるよう音量バランスを調整するイメージで、「prominent vocals(存在感のあるボーカル)」は声そのものの存在感や輪郭のはっきりさを強調するイメージです。両方を組み合わせて書くとより効果的で、「vocal-forward, prominent and clear vocals」のように連ねて使うことも可能です。
スタイルプロンプトは英語で書かないといけませんか?
基本的に英語で書く方が精度が高く安定します。SunoAIは英語のトレーニングデータが最も多いため、英語で書いたプロンプトの方がAIが意図を正確に解釈しやすい構造になっています。日本語でスタイルプロンプトを書いても動くことはありますが、解釈がブレやすくなるため、スタイルプロンプトだけは英語で書き、歌詞フィールドに日本語の歌詞を入れるという分け方が現実的なベストプラクティスです。
歌詞が長すぎるとボーカルが崩れるって本当ですか?
本当です。歌詞フィールドに長い文章を詰め込みすぎると、Sunoがメロディと言葉のタイミングを合わせきれず、言葉が圧縮されたり音程がずれたりする現象が起きやすくなります。1行あたりの文字数は日本語で20〜25文字程度、英語で8〜12音節程度が目安で、それ以上になる場合は行を分けるか、言葉を削ることを検討してください。長い物語を伝えたいときは、セクションを分けて複数回生成し、後で編集でつなげるという方法も有効です。
ぶっちゃけこうした方がいい!
ここまで読んできて気づいたと思いますが、SunoAIのボーカル指定で迷っている人の多くは、「1回で完璧なものを作ろうとしすぎている」という共通の落とし穴にはまっています。
正直に言います。プロンプトを完璧に書いても、最初の1〜2回で理想通りの声が出てくることは稀です。これはSunoの欠点ではなく、AIによる音楽生成の本質的な性質です。だからこそ、個人的にはこうしたほうが、ぶっちゃけ楽だし効率的だと思います。
まず最初の数回はクレジットを「リサーチ」と割り切ることです。気に入ったボーカルが出たら即座にペルソナ化する、という習慣をつけるだけで、後の作業が劇的に楽になります。「いい声が出た曲」を再利用できるペルソナ機能は、単なる便利ツールではなく、クレジットの節約装置でもあります。
次に、スタイルプロンプトは短く・歌詞は呼吸を意識して書くという鉄則を守ることです。タグを増やせば増やすほど良くなると思いがちですが、実際は4〜6個のシンプルな指示の方がはるかに安定した結果が出ます。余計な情報を削ぎ落とすほど、Sunoはあなたの意図に集中できます。
そして最も大事なのは「全体を何度も作り直す」より「部分だけ直す」という発想の転換です。Replace Section機能とステム書き出しを組み合わせれば、8割できた曲を仕上げるコストは、ゼロから作り直すコストの数分の一で済みます。曲全体を50回作り直すよりも、気に入った曲を5回部分修正する方が、クレジットも時間も節約できて、仕上がりの品質も高くなります。
SunoAIはプロンプトを「命令」として受け取るのではなく、あなたが描いた音楽の世界観を読み取ろうとするパートナーです。細かく指示するよりも、大きな方向性を明確に示して、細部はAIに委ねる余白を持たせることが、2026年現在の最も賢い使い方です。完璧を目指すより、「いいものをつかまえて育てる」感覚でSunoと向き合うと、音楽制作がもっと楽しくなります。
よくある疑問と回答
無料プランでもボーカルの口調指定はできますか?
基本的なセクションタグ(、など)は無料プランでも認識されますが、言語切り替えや細かい演出タグ(、など)を安定して機能させるにはProプラン以上とv4以降のモデルが推奨されます。無料プランやv3.5モデルでは結果が不安定になることがあるため、本格的にボーカル指定を試したい場合はプランのアップグレードを検討してみてください。
日本語でうまく発音されない単語はどうすればいいですか?
何度生成しても不自然な発音になる単語は、思い切って別の言い回しに変えるか英語に置き換えるのが最善策です。文字数や行数を減らすことで改善する場合もあります。また、カタカナ語や英語フレーズはSunoが得意とすることが多いため、伝えたい意味を維持しながら発音しやすい言葉に変換していく作業を繰り返すことで、違和感のないセリフや歌詞が完成します。
セリフパートとウィスパーパートはどう違うのですか?
は歌いながら語る「語り」スタイルを指定するタグで、曲の中にセリフ的な演出を入れたいときに使います。一方、は声のボリュームとテクスチャーを囁き声に変えるタグで、感情の静けさや余韻を表現するのに向いています。アウトロに「*静かに、ただそこにいた*」のような文とWhisperタグを組み合わせると、映画のエンディングのような雰囲気を演出できます。
スタイルプロンプトと歌詞フィールドのタグはどちらが優先されますか?
スタイルプロンプトは曲全体に作用する「音の設計図」であり、ボーカルの基本的な声質や性別などをここで決めます。歌詞フィールドのタグは特定のセクションだけに作用する「局所的な指示」です。両方を組み合わせることで最も細かい制御が可能になります。たとえばスタイルプロンプトで「soft female vocals」と指定した上で、特定のChorusだけタグを入れることで、サビだけ力強く歌わせるという演出も実現できます。
まとめ
SunoAIでボーカルの口調を思い通りに指定するには、スタイルプロンプトと歌詞タグの役割を正しく理解すること、感情の流れを曲全体で設計すること、そして日本語の苦手な単語は柔軟に言い換えることの3つが大きなポイントです。
2026年現在のSuno v5は、以前では考えられなかったほどの表現力を持っています。しかしどれだけAIが賢くなっても、どんな声で、どんな感情で、どんな言葉を歌ってほしいかを丁寧に伝える「プロンプト設計力」はあなた自身の武器です。タグを一つ変えるだけで楽曲の雰囲気ががらりと変わる瞬間の驚きは、実際に試してみてはじめてわかります。まずは一曲、タグを使ったアウトロを作るところから始めてみてください。あなたの音楽クリエイターとしての世界が、きっと広がるはずです。

コメント