パラパラスイカメモ

スイカ・フウのメモ帳

どうやってもカットされるスイカ

久しぶりの更新。久しぶりのはてなブログ。

感慨は特にない。

いつものように淡々とメモる。

 

今回画像多い。

画像多い予告。

 

最近話題の画像生成AIを使ってみた。

Stable Diffusion。

 

gigazine.net

 

Google Colabを使った。

最初、私の環境だと動かせなかった。

Stable Diffusionをローカルで動かすには、NVIDIA製のGPUが必須らしい。

あ~ない。

マイPCはRyzenマシーンなのでAMD製のGPUだ…。

まさかこんなところでAMDが仇になるとは。

外付けGPU買おうかなと思い調べたら、思ったよりお高くてビビった…。

 

あ、このフォントだとGが読みにくいな。

CPUじゃなくGPUですジーピーユー。

Graphics Processing Unit。

 

どうなんだろう、そのうちAMD製のGPUにも対応するんだろうか?

対応したとしてもマイPCのGPUだとやっぱりスペック足りなさそうなんだが…。

というわけでというか何というか、Google Colabを使うことにした。

NVIDIAのGPUがなくともGoogle Colabを使えば動かせる、らしい。

 

というわけで↑の記事に従いセッティングした。

 

何を描いてもらおう。

アイコン描き直そうかと思ってたのでスイカ描いてもらおうか。

 

ム…。

なぜか蛍光色。んで皮の模様の向きがなんか変なような。

いやその前にこの切り方はどうなの。

ケーキみたいだな。

AIにとってこのスイカはケーキみたいなものなのだろうか。

立体を理解してるわけではないってことなんだろうか。

ううむ…もう1枚生成してみようか。

 

やっぱり輪切り。

輪切り…スイカは輪切りにしないような気がするが、そういう切り方もあるんかな?

種デカいなあ。

なんか顔に見えてくるな…。

 

切ってないスイカは描いてもらえないんだろうか。

このあとも数枚生成したが、カットスイカしか出てこない。

最初の絵には切っていないものも混ざっていたが、だんだんそれすらなくなってきた。

皮の柄がおかしいと揶揄したせいだろうか。

まさかAIが私の心の声を聞いたとは思わんが…。

 

切ってないスイカって絵としてそんなに需要ないのか。

いやそういう問題ではないのか。

どうにかして呼び出す方法考えないといかんのか。

 

英語が…。

プロンプトという…どういう絵を描くかを指示する言葉を入力して絵を描いてもらうんだが、それが英語なのだった…。

英語が出てこない…。

英語勉強してたはずなのに思い出せないわたくし。

 

丸ごとスイカはwhole watermelonでいいんだろか。

皮をアピールすればいいんだろうか。

スイカの皮は…rind?

あと、写真っぽいものよりイラスト寄りの画像が欲しい。

illustrationと入れればいいのだろうか。

 

と思ったらこうなった。

ううん…。

やっぱりどうあってもカットされるのか。

しかも輪切り。

こだわりの輪切り。

whole watermelonの出し方がわからない。

 

とりあえずスイカは自分で描くことにして、ほかのものを描いてもらうことにした。

 

 

階段。

で、ノワール調。

どうやっても色がドぎつくなってしまって、うまく制御できない…ので白黒ならどうだろうという…そういう目論見。

 

追いかけっこしてるみたいな階段たち。

 

color of watermelonで色をスイカっぽくできないだろうか。と思ったのがこれ。

ノワールと食い合わせになってしまってる気がするが…。

スイカなのか何なのかよくわからない、謎の赤い三角形が階段に落ちている。

スイカだとしてもよくわからない光景だな…。

 

開かないドア。

いや、開くか。内側に開くドアなのかな。

開いたとしても足元に横棒が渡っていて、通る人がスネを痛打しそうだ。

 

color of watermelonは「緑と赤」の組み合わせのつもりで入れてみたんだが、そのことがAIにちゃんと伝わっているなあと思ったりした。

 

途中で歪む電車。

 

お立ち台の上の電車。

 

「AIは線路が苦手」とどこかで読んだが、特に苦手そうな感じはしなかったなあ。線路よりも車両のほうが苦手そうな感じがした。

いや、私のプロンプトが稚拙すぎたのか。

プロンプトが洗練されてると絵も洗練されるんだろうか。

 

洗練…。

「chic」と入れたらなんとなく豪華な部屋が出てきた。

「green」も入れたので緑の豪華な部屋。

なんか…ものが多すぎてゴチャッとしてるのと、ドアが外側っぽい。

どこなんだここは。

外なのか中なのか…。

 

私の観測範囲が狭いのかもしれないが、Stable Diffusionで室内背景を描いてる人をあまり見かけないなあと思ったので、背景っぽいものを描かせてみた。

電車は室内ではないが。単なる個人的興味。

描こうと思えば描ける…ということなんかな。

 

以前「Stable DiffusionはPinterestの画像も学習している」という記事を読んだことがあるんだよなあ。

ええと…。

 

gigazine.net

 

記事あった。そうそう、これこれ。

だから、Pinterestにある画像なら描けるということだよな。

教材はそれだけではないんだろうけども。

 

人物も出せるんかな?

パーカー着てる女の子が窓のそばにいる絵なんかどうだろう。

 

なんか…猫ちぐらっぽい感じになったんだが…なぜ。

Jokerっぽいメイクしてるし…Jokerちぐら呼び出してしもた…。

プロンプトにはJokerも時計仕掛けのオレンジも入れてないのになぜかこうなった。

 

窓どっか行ってしまったが、パーカー着てる女の子は出せた。

ううん…まだうまくプロンプト組めない。

その中でこれはうまくいったかなという1枚。

髪の毛ボウボウしてる…あと指がどうなってるのかよくわからん。

左手がなんか…服着てるのか素手なのかよくわからんな。

せっかくだし描き足してみようかな。

 

ううむ…。

元の画像があまり画質よくなかったのもあって、描き足したところがものすごく不自然になった。

手とか目の辺りを描き足したんだが…肝心の部分が修正必要というのも因果なものだなあ。

 

顔を安定させる何かはもうあるんかな?

よくわからんままやっていて、通常Stable Diffusionしか使ってなかったわたくしに隙はない。隙がないというか隙しかないというか。

 

画質が粗いのは何なんだろう。

プロンプトに問題があるってことなのか…。

どうやれば高精細な絵を描いてもらえるのか、ちょっと調べておこう。

 

という、まだまだアレなマイAI絵でした。

以上、Stable Diffusion初日のメモ。