3流絵師 aiに負ける (Pixiv Fanbox)
Content
という訳で仕事でstablediffuson使う事になって自分の絵i2iしたら(´・ω・`)となったお話兼メモ
注意
i2iは自分の描いた絵でやりましょう。またaiの分野も今後どうなるかわからないしアメリカに関してはai生成物に関する著作権が認められない判例が出ており、今後の動向も見守っていこう
そもそもstablediffusonってなんだよ
Stable Diffusionは、2022年に公開されたディープラーニング(深層学習)のtext-to-imageモデルである(wikiまんま)
簡単に言うと一昔前に大騒ぎになったNovel aiみたいなやつ、pythonとちょっとした知識といいグラボさえあればwebuiで使えるモノ。
しかも無料で使えるのが特徴。
問題点としては動作に必要なモデルデータの学習データの出元がグレーという点、現行法上合法となっているが今後の動向にもよるかもしれないのがネック。
とは言えあからさまに反発するのもどうよというスタンスだったしそもそも仕事で使うし面白そうだしで実際に導入してみた。自宅pcでは苦しい模様(gtx1050 会社pcはrtx30以上ある)。
自分の絵をi2iしてみた
という訳で自分の絵をi2iしてみた。今回使用したモデルはanything v3.0。
そっくりな絵を作るにあたって下記の点がポイント
・呪文は画像から参照して取れるプラグインがある
・ノイズ除去強度を下げるほど元絵に近くなる
・ネガティブプロンプトはロークオリティとか指欠けてるとかai生成において思い浮かぶ嫌な要素書きまくる
という訳で割と楽にできます。出来ちゃいかんような気もするけど。
ちなみに元絵+呪文+seed値で元絵は割り出せそう(未検証)なんでi2iトレパクは確実にバレます。
で実際にカスミを出力したものがこちら3つ↓
これ出てきた時点で心折れる人は折れると思います。実際自分も割とキてたんで。
これを少しレタッチしたのがコレ↓
これもう俺いらなくねーか(´・ω・`)
とは言え現状自分の手足食ってるような状況なんでまだなんともという状況です。
ちなみに元絵はこちら↓
雑なまとめ
自分で絵描く人はaiお試しレベルなら使ってもいいんでねえのというのが率直な感想です。というかテキストベースじゃまともなの出来ねえよ。
余りに状況が変化し過ぎて着いていけないというのが感想でもあるのですが、まあ自分で絵描いてて興味あるヒトは試すのはアリだと思います。ただ他人の絵使ってi2iとかは絶対に止めましょう。
個人的には背景やらせたりビニールの質感出したりとかやらせたいなと思ったのですが実際触るとなんだか色々と複雑な気分でもありました。