Midjourney 画像生成AIの新境地!Omni-Reference登場新時代の画像生成を切り拓く「Omni-Reference (oref)」徹底解説:あなたのイメージを自在に具現化する方法
AIによる画像生成は日々進化を続けていますが、特定の要素――例えば「このキャラクター」や「このオブジェクト」を生成画像に確実に含めたいと思ったことはありませんか? これまでにもいくつかの方法は存在しましたが、さらに汎用性が高く、直感的に「これを画像に入れる」という指示を可能にする新機能が登場しました。それが「Omni-Reference(オムニ・リファレンス)」、略して--oref
です。
この記事では、発表されたばかりのOmni-Reference機能について、その基本概念から具体的な使い方、そして画像をよりイメージ通りに生成するための詳細な設定方法までを、プロのテクニカルライターの視点から分かりやすく解説します。AI画像生成の表現力を次のレベルへと引き上げたい方は、ぜひ最後までお読みください。
Omni-Referenceとは何か? V6のキャラクター参照からの進化
「これを画像に入れる」を叶える画期的な機能
Omni-Reference(以下、--oref
)は、参照として提供された画像を基に、その画像に含まれる特定の要素を生成画像に反映させるための新しいシステムです。最もシンプルに言い表すなら、これはAIに「この画像にある『何か』を、これから作る画像の中に含めてね」と指示するための機能と言えます。
従来の画像生成機能の中には、特定のキャラクターの見た目を保持するための「キャラクター参照」のような機能が存在しました(例えば、過去のV6における機能)。しかし、--oref
はキャラクターだけでなく、オブジェクト、車両、非人間的なクリーチャーなど、あらゆる種類の要素を参照画像から抽出し、生成画像に組み込むことが可能です。この汎用性の高さこそが、「Omni(全て)」という名が冠されている理由であり、従来の参照機能から大きく進化している点です。
なぜOmni-Referenceが必要なのか?
AIによる画像生成は非常に強力ですが、テキストプロンプトだけでは特定の詳細な外観や形状を正確に再現することが難しい場合があります。例えば、「青い髪の女の子」と指示しても、その「青い髪の女の子」の顔立ちや服装を毎回一貫させるのは困難です。
--oref
を使用することで、特定のキャラクターの顔、髪型、服装、または特定のオブジェクトの形状やテクスチャなどを参照画像から取り込み、生成画像に反映させることができます。これにより、より一貫性のあるシリーズ画像を生成したり、特定のデザインコンセプトを維持したりすることが容易になります。
Omni-Referenceの具体的な使い方
--oref
の使い方は、Web UIとDiscordのどちらを使用しているかによって若干異なりますが、基本的な考え方は同じです。
Web UIでの使い方
Web UIでは、非常に直感的な操作で使用できます。
- まず、使用するモデルバージョンがV7に設定されていることを確認してください(設定メニューで変更できます)。
- 生成したいプロンプトを入力するプロンプトバーに、参照として使用したい画像をドラッグ&ドロップします。
- 画像がドロップ可能な「Omni-reference」と表示されたエリアに置かれると、自動的に参照画像として認識されます。
- 画像の横に表示されるスライダーアイコンをクリックすると、「重み(Weight)」を調整できます。これについては後ほど詳しく説明します。
Discordでの使い方
Discordでは、コマンドを使用して参照画像を指定します。
- 通常通り生成したいプロンプトを入力します。
- プロンプトの末尾に
--oref [参照画像のURL]
の形式で参照画像を追記します。[参照画像のURL]
の部分には、Discordにアップロードした画像のURLや、インターネット上の公開されている画像のURLを指定できます。- ヒント: Discordに画像をアップロードしてから、画像をクリック→「ブラウザで開く」を選択し、表示されたページのURLをコピーするのが確実です。
- 必要に応じて、
--ow [重み]
パラメータを追加して重みを指定します。[重み]
の部分には数値を入れます。
例: a character standing in a field --oref https://example.com/character.png --ow 200
このように、参照画像のURLを指定することで、その画像を基にした生成が可能になります。
Omni-Referenceの「重み(Weight)」を理解する (--ow
)
--oref
機能の柔軟性を最大限に引き出す鍵となるのが、「重み(Omni-weight)」、または --ow
パラメータです。これは、参照画像の内容をどれだけ厳密に生成画像に反映させるかを制御します。Web UIではスライダー、Discordでは --ow
に続く数値で指定します。
重みの範囲とデフォルト値
--ow
パラメータは、0
から 1000
までの範囲で指定できます。デフォルト値は 100
です。
- 低い値(例:
--ow 25
): 参照画像の外観にあまり強くこだわらず、むしろ参照画像のスタイルや雰囲気を取り込む傾向が強くなります。例えば、写真のキャラクターを参照画像にしつつ、アニメ調の画像を生成したい場合などに有効です。参照元の「要素」を薄めつつ、「スタイル」だけを参考にしたい場合に下げます。 - 高い値(例:
--ow 400
): 参照画像の内容(キャラクターの顔立ち、服装、オブジェクトの形状など)をより忠実に再現しようと強く働きかけます。特定のキャラクターの顔をはっきり写したい場合や、服装のデザインを正確に維持したい場合などに適しています。参照元の「要素」を強く反映させたい場合に上げます。 - デフォルト値(
--ow 100
): スタイルと内容のバランスが取れた設定です。
他のパラメータとの相互作用 (--stylize
, --exp
)
注意が必要なのは、--oref
の重みは、他の画像生成を制御するパラメータ、特に--stylize
(スタイライズ度合い)や--exp
(実験的な設定、または特定のモデルや機能に関連する影響度)と互いに影響し合うという点です。
これらのパラメータは、それぞれが生成画像に対する影響力を競合します。したがって、もし --stylize
や --exp
に非常に高い値を設定している場合、参照画像の影響力を維持するためには、それに応じて --ow
の値も高く設定する必要が出てきます。
例: --stylize 1000 --exp 100 --ow 400 --oref person.png
のように、高いスタイライズ値やexp値を指定する際には、--ow
も通常より高めに設定することで、参照画像の要素が失われるのを防ぎます。
ただし、闇雲に--ow
の値を上げれば良いというわけではありません。開発者によると、--ow 400
のような「中程度」を超える極端に高い値を設定しても、かえって結果が悪くなる場合があるとのことです。--stylize
や--exp
を高く設定していない限りは、--ow 400
を超える値は避けるのが無難でしょう。
重要なのは、これらのパラメータは単独ではなく、組み合わせて効果を発揮するという点です。理想的な結果を得るためには、参照画像や目的とするスタイル、他のパラメータの値に応じて、--ow
の値を調整し、試行錯誤することが不可欠です。
さらなる活用方法と高度なテクニック
--oref
は単に参照画像を反映させるだけでなく、他の機能やプロンプト記述と組み合わせることで、さらに表現の幅が広がります。
他の機能との連携
--oref
は、Personalization(個人の設定や過去の生成履歴を考慮する機能)、Stylization(スタイルの調整)、Style References(特定のスタイルを参照する機能)、そしてMoodboards(複数の画像を組み合わせて雰囲気やコンセプトを伝える機能)など、他の多くの機能と連携して動作するように設計されています。これらの機能を組み合わせることで、参照元の要素を持ち込みつつ、独自のスタイルや雰囲気を加えることが可能になります。
プロンプトと参照画像の組み合わせ
参照画像は「何を入れるか」を示しますが、その「何か」が画像中でどう振る舞うか、どのような状況にあるかはプロンプトで明確に指示する必要があります。
例: 「キャラクターに剣を持たせたい」場合、参照画像にキャラクターが含まれているだけでは不十分です。「a character holding a sword –oref character.png」のように、プロンプトで「剣を持っている」というアクションを明記することが重要です。
低ウェイト時の「過度な指定」
--ow
の値を低く設定してスタイル変換を優先する場合、参照画像の一部の重要な要素(例: 特定の髪の色、服装の模様など)が失われる可能性があります。これを防ぐためには、プロンプトでそれらの要素を意図的に詳しく記述する(過度な指定、over-specify)ことが有効です。
例: アニメ調に変換したい金髪で赤いサスペンダーの女性の画像を参照する場合、低ウェイトにするなら「a anime woman with blonde hair and red suspenders –oref url –ow 25」のように、プロンプトで髪の色や服装の特徴を具体的に記述することで、参照画像の要素がスタイル変換後も維持されやすくなります。
複数の参照対象
まだ実験的な段階ではありますが、開発者によると、1つの参照画像内に複数のキャラクターやオブジェクトがいる場合、あるいは複数の参照画像を並べて使用した場合に、生成画像にもそれらの複数の要素が反映されることがあるようです。これは非常に興味深い可能性を秘めており、複雑なシーン構成や複数のキャラクターが登場するイラスト生成への応用が期待されます。
注意点と今後の展望
--oref
は非常に強力な機能ですが、まだテストが始まったばかりであり、開発者自身も「どう使うのがベストなのか、何がうまくいくのか、何が改善されるべきか、まだ分からないことが多い」と述べています。
したがって、現時点では実験的な機能として捉える必要があります。期待通りの結果が得られない場合もありますし、思わぬ効果が現れることもあります。
この機能の完成度を高めるためには、ユーザーからのフィードバックが不可欠です。開発者は、Discordの特定のチャンネル(例: #ideas-and-features
, #oref-showcase
など)でのフィードバックや、生成された画像と元の参照画像を共有することを呼びかけています。積極的にこの機能を試し、あなたの発見や改善点をコミュニティと共有することで、--oref
はさらに進化していくでしょう。
まとめ:あなたの創造性を解き放つOmni-Reference
今回ご紹介したOmni-Reference(--oref
)は、「特定の何かを生成画像に含める」という、AI画像生成における長年の課題に対する強力な解決策となる可能性を秘めた機能です。キャラクターからオブジェクト、さらには複数の要素まで、幅広い参照を可能にすることで、あなたのイメージをより正確に、より自由に具現化することをサポートします。
--ow
パラメータによる重みの調整、他のパラメータやプロンプトとの組み合わせ方、そして複数の参照対象の可能性など、使いこなすためには多少の試行錯誤が必要になるかもしれません。しかし、その実験の過程こそが、AI画像生成の新たな可能性を発見する楽しい道のりとなるはずです。
まだ始まったばかりのこの機能ですが、あなたのフィードバックと創造的な活用を通じて、間違いなく進化を遂げていくでしょう。ぜひ積極的にOmni-Referenceを試して、あなたの思い描く世界をAIと共に創造してみてください。そして、もし素晴らしい発見があれば、ぜひコミュニティで共有してくださいね!