「自分の写真、Grokに勝手に編集されてない?」「XにアップするとEXIFデータってどうなるの?」——そんな不安を抱えていませんか?2025年12月末にXへ突如追加されたGrokの画像編集機能は、世界中で大炎上を引き起こし、今もなお規制・アップデートが続いています。特に「EXIFデータ(撮影場所や日時などの個人情報)がどうなるのか」という疑問は、クリエイターだけでなく一般ユーザーにとっても切実な問題です。この記事では、XへのアップロードでEXIFがどう扱われるかという根本的な疑問から、2026年3月に登場した最新の防御機能の”抜け穴”まで、世界中の検証データをもとに徹底解説します。
- XへのEXIF(GPS・撮影情報)は公開投稿では基本的に削除されるが、X社のサーバーには一時的に保持される可能性がある。
- GrokのAI画像編集で生成されるのは「元画像とは別の新規生成画像」であり、元投稿は書き換えられない。
- 2026年3月に登場した「Grok編集ブロックトグル」は限定的な効果しかなく、複数の抜け穴が確認されている。
- そもそもXに写真を投稿するとEXIFはどうなるのか?
- Grokの「画像編集機能」とは何か?仕組みと問題点
- 2026年3月最新情報「Grok編集ブロック」トグルの登場と限界
- クリエイターと一般ユーザーが今すぐできる現実的な防衛策
- 「画像を投稿したら自宅がバレた」は本当に起こりうる話だ
- 知らなかったでは済まない!Grokにまつわる現実のトラブル体験談と解決策
- Grokだからこそ使える!プライバシーと権利を守る実用プロンプト集
- 日本の法的視点から見た「Grok画像編集」と被害を受けた場合の対処法
- 企業・ブランドアカウントが今すぐやるべきGrokリスク管理チェックリスト
- 「SNS疲れ」の本質は「コントロールの喪失感」だと気づいた話
- ぶっちゃけこうした方がいい!
- GrokのAI画像編集とEXIFに関するよくある疑問
- まとめ
そもそもXに写真を投稿するとEXIFはどうなるのか?

AIのイメージ
「EXIFが消える」の意味を正確に理解しよう
スマートフォンで撮影した写真には、EXIFデータ(Exchangeable Image File Format)と呼ばれる目に見えない情報が埋め込まれています。撮影した日時・カメラの機種・絞り値やシャッタースピード、そして最も重要なGPS位置情報(緯度・経度)がそこに含まれており、場合によっては数メートル単位の精度であなたの自宅や職場の場所が特定できてしまいます。
Xへ公式アプリから画像を投稿した場合、閲覧者がその画像をダウンロードしてもGPSデータをはじめとするほとんどのEXIF情報は表示されない状態になっています。これは「Xがプライバシー保護のためにEXIFを削除している」ためです。InstagramやTikTokなど主要な他のSNSも同様の処理を行っており、公開投稿の処理精度はほぼ横並びと評価されています。
ただし、ここで絶対に誤解してはいけない重要な点があります。「閲覧者から見えなくなる」ことと、「Xのサーバーから完全に消える」ことはまったく別の話です。Xのプライバシーポリシーには、写真のEXIFデータをアップロード時に参照し、処理中は一時的に保持する可能性があると明記されています。つまり、X社自身は元データを受け取っている可能性があるということです。
DM(ダイレクトメッセージ)送信では要注意!
公開投稿は比較的安全ですが、XのDMで画像を送受信する場合は話が異なります。世界的なメタデータ調査サービスの2026年テストによると、DM経由で送られた画像(特に「オリジナル品質で送信」を選んだ場合)ではGPSデータが残存するケースが確認されています。DM機能は送り手の意図した品質で届けることを優先するため、再エンコードが少なく、その結果としてEXIF削除が不十分になりやすいのです。ジャーナリストや個人間取引で写真をやり取りする方は、特に注意が必要です。
さらに、Xの公式サービス外からAPIを経由して画像を投稿する場合も同様のリスクがあります。サードパーティのSNS管理ツールや予約投稿ツールを使っているマーケターやクリエイターは、投稿前に必ずEXIFを手動で削除する習慣をつけることを強くおすすめします。
Grokの「画像編集機能」とは何か?仕組みと問題点
2025年12月24日、突然追加された”爆弾”機能
2025年12月24日、XはGrokを使ったAI画像編集機能を突如リリースしました。Xの投稿画像にテキストで指示を送るだけで、背景の変更・色の調整・服装の変換などを数秒で実現するこの機能は、瞬く間に悪用が広まりました。
問題の核心は、他人が投稿した画像にも「画像を編集」ボタンが表示されたという点です。これによって本人の同意なしに他人の写真を加工することができてしまいました。特に女性や未成年の写真を水着姿や露出度の高い服装に変換する行為が爆発的に広まり、世界的な研究機関の調査では、わずか11日間で約300万枚もの性的に改変された画像が生成されたと推計されています。また、そのうち約2万3千枚が未成年者を含む性的描写であったとも報告されており、社会的な衝撃は計り知れませんでした。
Grokが生成するのは「新しい画像」であり元画像は変わらない
技術的な仕組みとして重要な点を押さえておきましょう。Grokの画像編集機能が生成するのは、元の投稿画像を書き換えたものではなく、AIが新たに生成した別の画像です。ですから、あなたの投稿が突然別の画像に差し替えられるわけではありません。ただし、生成された画像は保存・再投稿が可能であるため、実質的にあなたの画像が無断加工・拡散される材料として使われてしまいます。クリエイターにとってこれが著作権・肖像権の観点から深刻なリスクであることに変わりはありません。
各国政府と規制当局が動いた「前例のない展開」
この問題の深刻さは、世界各国の政府・規制当局が一斉に動き出したことからも明らかです。2026年1月8日にはEU(欧州委員会)がXに対してGrok関連の内部文書・データを2026年末まで保持するよう命令。英国のOFCOMはXに対して正式な調査を開始し、米国ではカリフォルニア州司法長官がxAIへの調査を発表しました。インドネシアとマレーシアでは一時的にGrokそのものが禁止される事態にまで発展しました。
こうした圧力を受け、2026年1月9日以降、Xプラットフォーム上でのGrokの画像生成・編集機能は有料会員(X Premium)限定となり、さらに実在人物への性的な編集を技術的にブロックする措置も段階的に導入されました。
2026年3月最新情報「Grok編集ブロック」トグルの登場と限界
ひっそりと追加された「Grokによる変更をブロック」設定
2026年3月10日前後、Xは公式発表なしにiOSアプリの画像アップロード設定に「Grokによる変更をブロック」トグルを追加しました。画像投稿時にサムネイル上の絵筆アイコンをタップし、その中のフラグアイコンを開くことでこの設定にアクセスできます。有効にすると、他のユーザーが投稿に@Grokをタグ付けして編集を依頼することを防げるとされています。
- このトグルはiOSアプリの画像アップロード時のみ表示され、Web版やAndroid版では確認されていない。
- 過去にアップロード済みの画像には遡って適用されない。
- X社からの公式アナウンスは一切なく、今後の展開も不透明な状況が続いている。
「ブロックしたはず」なのに編集できてしまう抜け穴
The Vergeをはじめとする複数のメディアが実際に検証した結果、このトグルの保護範囲は極めて限定的であることが明らかになっています。設定の細かい文字には「@Grokがこのコンテンツを変更することを防ぐことのみが可能」と記されており、これは「@Grokをリプライでタグ付けする方法」だけを防ぐという意味です。
具体的な抜け穴として確認されているのは次の通りです。iOSアプリ上でブロック設定した画像を長押しすると「Grokで画像を編集」というオプションが表示され、Grokアプリが直接起動して編集できてしまいます。また、保護された画像を一旦保存してから同じスレッドに再アップロードすると、保護の設定がリセットされ、Grokでの編集が再び可能になります。
このトグルは「根本的な解決策」ではなく、あくまでも特定の悪用手口をひとつ塞いだに過ぎないと理解しておくことが重要です。
クリエイターと一般ユーザーが今すぐできる現実的な防衛策
最強かつ最もシンプルな対策はGIF・MP4変換だ
現時点で最も実効性が高い対策として、多くのクリエイターが実践しているのが投稿ファイル形式の変換です。Xの仕様上、静止画ファイル(JPG・PNG)には「画像を編集」ボタンが表示されますが、動画ファイル(GIF・MP4)では編集ボタン自体が現れません。絵師や写真家の方が作品を投稿する際にGIFやMP4に変換することで、Grokによるワンタッチ編集の入口を塞ぐことができます。もちろん「画像を保存してGrokアプリから編集する」という手口は防げませんが、技術的知識を持たない一般ユーザーによるカジュアルな悪用は大幅に減らせます。
プライバシー設定の確認と月1回のメンテナンス習慣
Xの設定画面から次の手順でGrokへのデータ提供を制限しておきましょう。「設定とプライバシー」から「プライバシーと安全」を開き、「データの共有とカスタマイズ」内にある「Grokとサードパーティコラボレーター」の項目をオフにします。ただし、アプリのアップデート時にこの設定が自動的にオンに戻るケースが報告されているため、月1回程度は設定を確認する習慣をつけることをおすすめします。
また、会話でのGrokへのフィードバック(\u\U0001f44d\U0001f44eのリアクション)は、オプトアウト設定をしていても学習に利用される可能性があるとされています。データの提供を避けたい場合はフィードバックボタン自体を押さないのが無難です。
画像に投稿する前にEXIFを自分で削除しておく
Xが自動でEXIFを削除してくれるとしても、「念には念を」の精神でアップロード前に自分でEXIFを削除することをおすすめします。特にDM送信や外部ツール経由での投稿では、EXIFが残存するリスクが公開投稿よりも高いため、EXIFRemoverなどのブラウザ完結型ツール(ファイルがデバイス外に送られない)を使って事前にクリーンにしておくのが安全です。スマートフォンのカメラ設定から「位置情報のタグ付け」をオフにしておくのも効果的な基本対策です。
ウォーターマークと配置の工夫で被害を最小化する
顔や被写体の中央付近に自分のIDやサインを重ねる手法は、AIによる修正(インペインティング)を困難にし、生成画像の品質を下げる効果があります。加えて、万が一改変された画像が出回った場合に「元画像の権利者は誰か」を証明する有力な証拠にもなります。さらに実際の検証では、複数のウォーターマークを重ねて使用することで(ドット文字すかし+格子すかしなど)、単独使用よりも高い予防効果が確認されています。
@grok公式アカウントが投稿の1枚目の画像を処理する仕様を逆手に取り、1枚目にダミー画像(白紙や注意書きのテキスト画像など)を配置し、見せたい本命の作品は2枚目以降に置くという方法も有効です。@grokによる自動処理はダミー画像にかかるため、本命作品が意図せず改変される可能性を下げられます。
「画像を投稿したら自宅がバレた」は本当に起こりうる話だ

AIのイメージ
これは都市伝説ではありません。実際にGrokを使った「ドクシング(個人情報の暴露)」問題が、世界規模で報告されています。米国の著名インフルエンサーであるデイブ・ポートノイ氏のケースでは、自宅の郵便受けに写った細かいオブジェクトの画像をGrokが解析し、Web上の不動産情報・個人情報と照合した結果、2,800万ドルの豪邸の住所を完全に特定・出力したという事例が報道されています。
ここで恐ろしいのは、EXIFのGPS情報が原因ではなかったという点です。GPSデータがXによって削除されたとしても、Grokは画像の視覚的な情報(看板・建物の形状・植物の種類・郵便受けのデザインなど)をWebの情報データベースと照合し、住所を逆引きする「OSINT(オープンソースインテリジェンス)」をほぼ瞬時に実行できてしまうのです。
これは従来の検索エンジンで人間が数時間かけて行っていた調査を、AIが悪意の有無にかかわらず数秒でやってのける、という意味です。「EXIFさえ消せば安全」という認識は、残念ながら2026年現在においては不十分です。背景に写り込む建物・街並み・ランドマーク・特徴的な植物、これらすべてが位置情報を漏らしうる「視覚的なEXIF」になり得ます。
競合のChatGPT・Claude・Geminiは同様のプロンプトに対して「プライバシー保護のため個人情報は提供できません」と拒否する設計になっていますが、Grokはこうしたガードレールが他社AIに比べて意図的に緩く設計されている点も覚えておくべきでしょう。
知らなかったでは済まない!Grokにまつわる現実のトラブル体験談と解決策
「過去の投稿が突然Googleに出てきた」という体験
2025年8月、Grokとのユーザーセッション(会話内容)の一部が、Xの設定ミスによってGoogleの検索結果にインデックスされ、非公開のはずの会話が誰でも検索・閲覧できる状態になったことが報告されています。これはGrokのセッション共有機能における「robots.txtによるクロール制限の欠如」が原因でした。
つまり「Grokとの会話は自分だけのもの」という前提自体が揺らいだ出来事です。対策としては、Grok内の「会話の共有」機能を利用した際に生成される共有リンクは、意図せず検索エンジンに拾われる可能性があると認識しておくことが重要です。共有リンクを作成した場合は、用が済んだら速やかに削除する習慣をつけましょう。
「設定をオフにしたのになぜかまだ学習に使われている気がする」という体験
これは非常に多くのユーザーが感じている違和感ですが、実は設定の「落とし穴」が原因です。Grokの学習設定をオフにしても、Grokの回答に対して\u\U0001f44dや\u\U0001f44eのフィードバックを送った場合、そのデータは設定のオン・オフに関わらず学習・微調整に利用される可能性があるとXのヘルプセンターに明記されています。
多くのユーザーは「設定を切った=完全に学習拒否」だと思い込んでいますが、フィードバックボタンはその例外です。また、「おすすめ表示のような、Grokの技術が組み込まれた機能」を利用する際に必要なデータ処理は、オプトアウトしても止められないとも説明されています。完全にデータを渡さないためには、フィードバックボタンを押さないこと+アカウントを非公開にすることを組み合わせるのが最も効果的です。
「自分の絵が勝手に編集されたリプが来ていた」という体験
クリエイターの方が実際に経験したケースとして、自分のイラストに対し見知らぬアカウントから@grokをタグ付けしたリプライが送られ、Grokがそのイラストを別バージョンに改変した画像を投稿した、というものがあります。これは2026年1月以降は有料会員に制限されているとはいえ、依然としてゼロではありません。
この体験に対する現実的な解決策は、投稿後に自分の投稿のリプライ欄を定期的に確認し、不審なGrokの応答があれば即座に報告・削除することです。また、投稿設定で「全員からのリプライを許可」ではなく「フォロワーのみ」に制限することで、@grokを使ったタグ付けリプライの発生頻度を大幅に減らすことができます。
Grokだからこそ使える!プライバシーと権利を守る実用プロンプト集
Grokはリスクの面でばかり語られていますが、実はGrokの特性を逆手に取ることで、自分のコンテンツや権利を守るための情報収集ツールとしても活用できます。以下は、この記事のテーマに沿って実際に役立つGrok専用プロンプトです。Grok最大の強みである「Xのリアルタイムデータへのアクセス」を活かしたものを中心に厳選しました。
自分の画像が無断転載・改変されていないか調べる
Grokに対して次のように尋ねてみましょう。「X上で私のアカウント名(@〇〇)に関連する投稿の中で、私の画像を加工・編集したと思われるリプライや引用ポストを、過去7日以内のものから探して一覧にしてください」というプロンプトです。Grokはリアルタイムでのデータアクセスが得意なため、他のAIでは取得できない最新の投稿状況をチェックするのに向いています。
自分の投稿への炎上リスクをAIに事前審査させる
X投稿前に「以下の文章と画像の組み合わせが、現在のX上のトレンドや規約に照らして炎上リスクや著作権的な問題点をはらんでいないか分析してください。特に画像がGrokの編集機能で悪用されやすいシチュエーションかどうかも評価してください」と入力します。Grokはxアルゴリズムへの理解が深いため、このような自社プラットフォームに特化したリスク評価は他のAIより精度が高い場合があります。
被害を受けた場合の次の行動を相談する
もし自分の画像が無断で改変・拡散された場合、「私の写真がGrokで無断編集されXで拡散されました。日本の法律(肖像権、著作権法、プロバイダ責任制限法)に基づいて取りうる法的対処法を、具体的なステップで教えてください」とGrokに相談することで、初動対応の指針を素早く得ることができます。ただしGrokの回答はあくまで参考情報であり、実際の法的判断は弁護士に相談することを忘れずに。
日本の法的視点から見た「Grok画像編集」と被害を受けた場合の対処法
日本国内でGrokを悪用した画像改変被害を受けた場合、どのような法律が適用されるのでしょうか。専門家の見解をもとに整理します。
まず、実在人物の写真を無断で性的に加工・拡散する行為は、肖像権侵害・プライバシー権侵害に該当します。加えて、特定の条件下では「私事性的画像記録の提供等による被害の防止に関する法律(リベンジポルノ防止法)」の適用も検討されます。被写体が未成年の場合は「児童ポルノ禁止法」に抵触し、刑事罰の対象になります。
重要な点として、「AIが自動生成したから自分に責任はない」という主張は法的に通用しません。AIを使って生成・公開した行為者が「使用者としての責任」を負うと判断されます。また、生成した画像を第三者に送付・拡散した場合は、送付・拡散した者も責任を問われます。
被害を受けた場合の初動は次の通りです。まず証拠として問題の投稿のスクリーンショット(URL・投稿日時が確認できるもの)を複数保存します。次に、XのABUSE報告フォームから当該投稿を報告します。それでも削除されない場合や、被害が深刻な場合は、プロバイダ責任制限法に基づく「発信者情報開示請求」を経由して投稿者を特定し、民事・刑事の法的措置へ進む流れになります。2026年1月以降、内閣府がX社日本法人に改善を正式要請しており、日本国内での被害対応の窓口整備も進んでいます。
企業・ブランドアカウントが今すぐやるべきGrokリスク管理チェックリスト
個人クリエイターだけでなく、企業のSNS担当者にとってもGrokの画像編集問題は無視できないリスクです。商品画像やブランドロゴが加工され、不適切な文脈で拡散されると、ブランドイメージへの深刻なダメージにつながります。
まず確認すべきは、現在公開している商品・サービス画像に対してGrokが容易に編集できる余地がどの程度あるかという点です。高解像度の人物が写った画像・背景がシンプルな画像・センシティブなシチュエーションの画像はリスクが高くなります。これらについては、解像度を意図的に下げて投稿するか、ウォーターマークを中央付近に配置する対策を検討してください。
次に、企業アカウントのGrok設定(データ共有・学習への提供)の確認を担当者間で定期的に実施するルールを設けることが重要です。先述の通りアップデート時に設定が勝手にオンに戻るケースがあるため、月次レビューの項目に組み込んでおくことをおすすめします。
さらに、万が一自社ブランドの画像がGrokで加工・悪用された場合の対応フロー(誰が報告するか、誰が法的対処を判断するか)を事前にマニュアル化しておくことで、実際に問題が起きた際の初動を素早くできます。
「SNS疲れ」の本質は「コントロールの喪失感」だと気づいた話
ここまで読んで「なんか疲れた」と感じた方、それは正直な反応だと思います。設定を確認して、GIFに変換して、ウォーターマークを重ねて、毎月見直して……正直、投稿するだけなのになぜこんなに頑張らないといけないのか、と思いますよね。
でもここで一歩引いて考えると、この「疲れ」の正体は実は「コントロールの喪失感」です。自分が投稿したものがどう扱われるか、誰に見られるか、何かに利用されるか——それが完全に見えなくなってしまった時代に、私たちは生きています。GrokのEXIF問題もその文脈で捉えると、「技術的な問題」というより「自分の表現が自分のものでなくなっていく感覚」への不安として受け取った方がしっくりきます。
だからこそ、「完璧な防衛策を追いかける」ことより「何を公開する場所で、何を守る場所か」を明確に使い分けること——この発想の転換の方が、長期的には精神的にも実用的にも効果的なのです。
ぶっちゃけこうした方がいい!
ここまで色々と対策を紹介してきましたが、個人的にはもっとシンプルに考えた方が楽だし、結果的に効率的だと思っています。
結論を言ってしまうと、「Xは宣伝専用の展示スペース」と完全に割り切って、そこに置く作品はすべて「見られること前提・加工されること前提」のものだけにする、この一点に尽きます。
GIF変換もウォーターマークも設定のオフも、全部やった方がいいのは確かです。でも正直、全部完璧にやろうとすると投稿するたびに10分以上かかって、そのうち「もう投稿するのやめようかな」ってなってしまう。それは本末転倒ですよね。
だからぶっちゃけおすすめの運用は、「Xに出す画像は低解像度版+中央にサイン入り」という鉄則を1ルールだけ徹底し、本命の高解像度フルサイズ作品はXには上げないという切り分けを最初から設計することです。ポートフォリオサイト(Pixiv・ArtStation・自分のサイトなど)への誘導リンクを投稿に添えて、「詳細はこちら」で完全版を見せる流れにする。これだけでGrokへの画像提供リスクを根本から下げながら、同時に自サイトへのトラフィックも増やせるという一石二鳥の戦略になります。
EXIFについても同様で、「Xに上げる前のルーティン」として、スマホの写真アプリ設定で「位置情報タグのオフ」を一度設定してしまえば、毎回EXIFツールを使わなくていい。一回の設定変更で永続的に対処できるのに、毎回ツールを使っている人はその手間で消耗しています。
AIの進化はこれからも止まりません。半年後にはまた新しい「穴」が出てくるでしょう。だからこそ、個別の穴を塞ぎ続けるWhac-A-Mole(モグラたたき)ゲームをするのではなく、「リスクのある情報をそもそもXに渡さない」という上流での設計を1回だけしっかり考えておく——そちらに頭と時間を使う方が、長い目で見たときに圧倒的にコスパが良い選択です。
GrokのAI画像編集とEXIFに関するよくある疑問
GrokがAI編集した画像にも元のEXIFデータは引き継がれる?
いいえ、引き継がれません。GrokのAI画像編集で生成されるのは、元画像を参照して一から生成されたまったく新しい画像ファイルです。元のEXIFデータ(撮影日時・GPS・カメラ情報など)はGrokが生成した画像には含まれません。ただし、生成された画像にはAIが処理した痕跡(ソフトウェアタグなど)が独自のメタデータとして付与される場合があります。これを逆手に取れば「この画像はAIで加工された」という証拠として使える可能性もあります。
有料会員(X Premium)なら自分の画像を自由に編集できるのか?
2026年1月以降の規制により、有料会員でも実在人物の画像を性的に加工することは技術的にブロックされています。有料会員に残っている主な権限は、自分の画像や非性的なコンテンツへの編集機能の利用です。また、3月に追加されたGrokブロックトグルを使えば、有料会員による@Grokタグ付けによる編集も防ぐことができますが、前述の通り完全な防御にはなりません。
BlueskyやMisskeyに移住すれば安全?
一概に「安全」とは言えません。Blueskyは「自社では学習しない」と宣言していますが、AT Protocolという極めてオープンな仕様のため、第三者企業が公開データを大量収集することへの技術的な防壁がほとんどありません。Xはスクレイピングに対して強力な罰則規定(100万件以上の投稿を24時間以内に取得した場合に高額の損害賠償を課す条項)を設けており、第三者からの防御という観点では意外にも堅固な面があります。移住を検討する際はこのリスクも念頭に置いておくことが重要です。
「Glaze」などのAI学習阻害ツールは使うべき?
Glazeは他のAIサービスに対する学習阻害には一定の効果が期待できますが、Grokの画像編集機能に対しては実際の検証で大きな差は見られなかったとの報告があります。また、Xの利用規約で「サービスの妨害行為」と解釈されるリスクや、コミッションで受け取ったイラストに許可なく処理をかけた場合の著作者人格権(同一性保持権)侵害のリスクも存在します。使用する場合は権利関係のクリアな自分の作品に限定し、プラットフォームの規約を確認した上で慎重に判断してください。
まとめ
XへのEXIFデータは、公開投稿では基本的に閲覧者には見えない状態になりますが、X社のサーバーには一時保持される可能性があります。またGrokの画像編集機能が生成するのは元画像とは別の新規生成画像であり、元投稿そのものは書き換えられません。しかし「誰でも他人の画像を改変できる」という状況は権利侵害・プライバシー侵害として深刻な問題であり、世界中の政府・規制当局が動いた前例のない事態となりました。
2026年3月に追加されたGrokブロックトグルは一歩前進ではありますが、iOSのみ対応・複数の抜け穴あり・過去の投稿には不適用という限界があります。現時点での現実的な防衛策は、GIF・MP4変換での投稿、Grokのデータ共有設定オフ、EXIFの事前削除、複数ウォーターマークの活用、1枚目ダミー画像の配置を組み合わせることです。
完璧な防御は残念ながらまだ存在しません。それでも「知っているか知らないか」の差が、あなたのコンテンツと個人情報を守る最初の一歩になります。まず今日、スマホを手にとってXのGrok設定が意図せずオンになっていないか確認することから始めてみてください。


コメント