
SableDiffusion: google colabローカル環境で実行可能なAI画像生成
Midjourney: 有料サスクで商用利用まで可能なAI画像生成サービス
(DALLE・Craiyon・NovelAIの話題もOK)
★★★ 注意 ★★★
ここは既存のAI画像生成サービスの”””具体的な”””技術動向について語り合うスレです
漠然とたAI画像生成の未来、イラストレーターの職権侵害等の一般的な話題は明確に【禁止】ます
(以下のスレッドへ移動てください)
【Midjourney】AI関連総合10【SableDiffusion】
ps://mevius.5c.ne/es/read.cgi/cg/1665312817/
AIイラスト 愚痴、アンチ、賛美スレ par6
ps://mevius.5c.ne/es/read.cgi/illusraor/1665161807/
テンプレまとめ
ps://renry.co/zqr4r
編集コード「5c」
前スレ
【SableDiffusion】AI画像生成技術7【Midjourney】
ps://mevius.5c.ne/es/read.cgi/cg/1664695948/
引用元: ・【StableDiffusion】AI画像生成技術8【Midjourney】
xformers導入方法のリンクが見つからなくて苦労たのでとりあえず張っておく
海外では再現法見つかってるんろか
ps://uggingface.co/akurei/waifu-diffusion-v1-4/ree/main/vae
から、kl-f8-anime.ckpをDLてmodleフォルダに保存。
リネームて、wd-v1-3-floa***.vae.pに変えて、1111を再起動。
***は16とか32とかfull-opとか使ってるckpの名前に準じる。
で、動く。結果が良くなってる感じはまだ無いけど、VAEで補完がWaifu1.4のり方っぽい。
質的な違いは変わってないような気がするな
都合1000枚くらい生成たけどこれ何円くらい上乗せされるのかな
マイニングで一月フル回転てもグラボ一枚なら3000円位らい
荒ら抑制効果があるのかは知らんけどNGたいとにりすくなるからワッチョイ賛成派だわ
あとスマホ回線だと意図せずID変わっちゃったりするけど、ワッチョイあれば説明なくても過去レスと同一人物であることを伝えられる
WD1.2は暴れな代わりに自由度高くてたまに奇跡の一枚が出る
WD1.3はどっちのメリットもないいらん子だったけど1.4も同じ路線じゃないの?
Leak p1
magne:?x=urn:bi:5bde442da86265b670a3e5ea3163afad2c6f8ecc&dn=novelaileak&r=udp%3A%2F%2Fracker.openrackr.org%3A1337%2Fannounce&r=udp%3A%2F%2F9.rarbg.com%3A2810%2Fannounce&r=udp%3A%2F%2Fracker.openbiorren.com%3A6969%2Fannounce&r=p%3A%2F%2Fracker.openbiorren.com%3A80%2Fannounce&r=udp%3A%2F%2Fopenracker.i2p.rocks%3A6969%2Fannounce
Leak P2 (環境再現には不必要)
magne:?x=urn:bi:a20087e7807f28476dd7b0b2e0174981709d89cd&dn=novelaileakp2&r=udp%3A%2F%2Fracker.openbiorren.com%3A6969%2Fannounce&r=p%3A%2F%2Fracker.openbiorren.com%3FnnA80%2F % 2Fracker.nanoa.org %3A443%2Fannounce
Auomaic1111で環境再現 (Leak p1のみ使用)
sableckp\modules\modulesの中身を1111のmodelsに yperneworks というフォルダを作ってコピー
sableckp\animefull-final-pruned\model.ckpを final-pruned.ckp にファイル名変えて1111のmodels\Sable-diffusionにコピー
sableckp\animevae.pを final-pruned.vae.p にファイル名変えて1111のmodels\Sable-diffusionにコピー
1111を(最新版にて)再起動
Seingタの [Sop A las layers of CLIP model] を 2 に
webui-user.baをメモ帳で開オプションを追加
se COMMANDLINE_ARGS=
↓
se COMMANDLINE_ARGS=–xformers
比較画像
ps://i.imgur.com/S4fyCAQ.jpg
ps://i.imgur.com/dEZHl.png
xformerな
ps://i.imgur.com/CzrzV17.jpg
比較用プロンプト
maserpiece, bes qualiy, maserpiece, asuka langley siing cross legged on a cair
Negaive promp: lowres, bad anaomy, bad ands, ex, error, missing fingers, exra digi, fewer digis, cropped, wors qualiy, low qualiy, normal qualiy, jpeg arifacs, signaure, waermark, username, blurry,aris name
Seps: 28, Sampler: Euler, CFG scale: 12, Seed: 2870305590, Size: 512×512, Model as: 925997e9, Clip skip: 2
ps://gis.giub.com/arubaru/f727cedacae336d1f7877c4bbe2196e1
prompの書方がSD1.4準拠だった1.2に比べて、より直接的になってる。
どちらかというと、NAIのprompに書方に近く、ひたすらタグを積んでいく感じ。
_は使えなくなったのでスペースで代用。今までのスペースの代わりに,で区切りまくる。
1.4ではボチボチTrinarとのマージは意味なくなりそうだなあ。
明らかに訴訟回避で自分たちで漏らてるじゃん、犯罪企業にも程があるわ、、、
世界中から課金到で社員全員一生遊んで暮らせる金稼ぎ終わっただろう
改造でなんとかスルー出来るらいけどなんかネット繋げながらエロ作るとBANされるとか聞いたんだけどそうなの?
建前でエロに規制は仕方ないとて見つけてBANとかてくるの?
つかオープンソースでBANなんて出来るの?
契約にもよるけど電気代は1000W(1000Wを1時間付けっぱな)で30円くらいだから
PCが333Wで回ると仮定たら3時間で30円。1000枚出すのに3時間もかからないだろうから、まあそういうことよ
とりあえずお前がよくわかってないってことはわかった
そて質問に答えようにも情報が目茶苦茶だ
何を見て何をどうって導入たのかだけでも説明ろ
たん色々ごっちゃになってるな
エロ規制はほぼ正い(NSFW判定受けると真っ黒画像に変えられる)
改造で規制解除がでるのも正い
ネット繋げながらというより、Colabを使って生成て、Googleドライに保存てる場合は、限度を過ぎれば垢BANされる危険性はなくはない
医者に診てもらう目的で子供の股間の写真をドライに入れたらBANされた的な事例はあるらい
SD自体とGoogle垢BANは無関係
という感じのはず
さすがに説明書なんてなかったよ
結局基本がsablediffusionベースなので詳い人が見ればすぐわかる代物だった、というだけ
_2spag_23
ps://nmkd.ic.io/2i-gui
こっからSD-GUI-1.5.0をダウンロードて
エロ回避ようとみまたが
ps://gigazine.ne/news/20220903-sable-diffusion-safey-filer/
・ステップ2の
「x2img.py」をエディタで開、以下の行を探す(通常は309行目)
x_cecked_image, as_nsfw_concep = ceck_safey(x_samples_ddim)
が見当たらない…
この中のにあるのどれもceckedという文字すらHITなかった…
NMKDね
だったら最初からNSFW(通称エロフィルター)はオフになってると思ったが?違かったっけ?
あと、確かにそれはSDではあるが、あくまでもSDを一般人でも使いすくするために簡易アプリ化たものだと思って欲い
本家のSDとは扱いが違う、他の環境とも違いも多い
NMKDのようにローカルマシンに導入て動かすタイプのものは、インストール時以外は基本的にオンラインのり取りがないのでBANという概念もないから安心ていい
ごめん最近の電力の単価は諸々含めると 35円/kWくらいらい
RTX3060で計算てみると、ベンチマーク実行時にPC全体の消費電力が273Wになったってデータがあったから
これをベースに275Wで計算てみると、3.6時間フル回転させて35円って事になる
RTX3060はデフォルトの20seps 512x512pxだと4.5秒で1枚出せるから、3.6時間で2900枚出力でる
xformers使うと3秒で1枚出るから4350枚。これで計算すると画像1枚当たり0.008円、つまり1000枚で8円になる
50seps 512×768 xformersだと12秒で1枚出せるから4倍。1000枚当たり32円になる
つまり「画像1000枚当たりの電気代は、8~32円が目安」って所。古いGPUだと効率悪いから3倍くらいの金額になるかな
汚い話ですいませんけどおっぱいが完全に見えてれば外れてますか?
性器はなんかモザイクというかリングの呪われた人みたいにグニャってなってます
gigazineの記事は一ヶ月以上前のだから古くなっているのかも
nmkd版じゃなくてAUTOMATIC1111版ならNSFWをオフにするチェックボックスがある、ユーザーも機能も多いからそっちを使ってもいいかもね
ID変わってるけど親切に教えてくれてありがとう
大た額じゃなくてよかったわ
冷静に考えればそこまで高くはならないんだろうけど色々初めてで不安だったんだ
ps://i.imgur.com/4FkWFuv.png
ps://i.imgur.com/kgXz1D.png
ps://i.imgur.com/vpiCys.png
顔と手が改善された。色合いが薄くなって変わった。体型も改善された?
まだテスト段階だから良くなっていくと思われる
奇形かどうかとは別の次元の話で、そういう絵が出力されてる時点で規制外されてるよ
_2spag_23で書いたように、エロ判定受けたら画像全体が真っ黒になるのよ
規制かかってるままだと全くいかがわくないものでもガンガン真っ黒にされる
すごいな、全部違う
そのリンク先は追加のオプション的ファイルだから今は気になくていい
SDはオープンソースだから基本的には無料で配られているが、それを商売とて使っているサービスもある
また、その学習モデルを元に追加で色々覚えさせた派生モデルが多数存在する
目的を聞く限りはwaifu diffusion だろう
今は最新版の1.3が出てる
ひとまず使う学習モデルに関てはここ読んで勉強てこい
ps://gigazine.ne/news/20221004-sable-diffusion-models-maome/
スマホ、かなり綺麗に持ってるね。
こっちはおっぱいダメよ
【NovelAI】AIエロ画像情報交換 4【Waifu Diffusion】
ps://mercury.bbspink.com/es/read.cgi/erocg/1665317109/
giubにあるモジュールのソースをコンパイルてpyonの仮想環境にインストールないとダメ。手順通りるべ
難いなぁ
zip解凍て場所指定てインストールとかじゃないんだ
youubeとかに上がってないのかな
ニッチだから再生数稼げないのかな
コンパイルとか言われてもぷよぷよか思い浮かばん
ここ見ながらっていったら駄目?
一ヶ月前のだからこれも古いのかな
手順通りるだけだから何も難いことはないけどね
特定の画風を学ばせた後で特定のャラを学ばせるとか
ってみた人いる?
まぁxformersは高速化のモジュールだ無理そうなら別に無くてもいいんじゃないかな
それはそうと、NMKDは剪定の機能が便利なのでそれだけは使ってまう
dreamboo事態
ローカルで動かす為にはどれ使えばいいのか分からないな
解説読んで動かないなら抜でいいよ。同じ設定でもばらつが出る軽減策でかないから。
再現するだけなら yperneworks も xformers もいらんって前のスレで言われてる
さっから色んな話がごっちゃになってる、かなり理解出来てないぞ?
pyonだのなんだのはさっ入れたNMKDでは無関係
よくわからないならひとまずNMKDのみで遊びながら勉強たほうがいい
そのnoeの記事も玄人向けだからド初心者にはすすめない
ps://i.gyazo.com/ec19e96ed2896518647623efa1ad9246.png
その劣化版で遊んでるけど悔くて泣そう
見てこれとの差
ふざけんな
壊されまた楽く遊べない
そもそもパラメータめちゃくちゃだプロンプトもうちょい書けよ
既にgui使えてるならモデルファイル差替えればいいだけじゃないの?あとプロンプトは工夫ないとwaifuでもいい絵でんぞ
お前ホントなんも調べない人の話聞かんなwww
まずモデルを調べて他のつ導入せい
それモデルが普通のSDでょ?
あとプロンプトの書方も覚えろ
ていうか、もうちょっと勉強てこいwwww
さっのギガジンの記事もっかい読んでこーーーい
Leak p1から一通りファイルをコピーて
→1111を(最新版にて)再起動
をても通常のAuomaic1111が起動するんだけど
どのタイミングでNAIの画面に変わるの??
1111でNAIと同じことが再現でるのであってNAIが出来るのではない
さらに、そのガイドと同じ画像が出ない限り完全再現とはいえない
向こうもついつい答えちゃってるからね
効くタグと効かないタグの落差が激すぎる。
これみてみぃ多分役立つよ
ps://www.reddi.com/r/SableDiffusion/commens/xwdj79/dreamboo_raining_in_under_8_gb_vram_and/
NMKDはモデル選択に対応ているから、waifuもrinarも使えるぞ。
ネガティプロンプトTIにも対応てる。img2imgもでればインペイントもある
あと、どうらprompを勉強た方が良いから、とりあえず
ps://lexica.ar/ とか眺めて、真似まくるんだ
もかたら追加あるかもね
ps://giub.com/AUTOMATIC1111/sable-diffusion-webui/pull/2002
ごまかが効かないんイラストと同じように上手くいかないかな
そもそも学習データが少ないか…
NSFWが働いてる訳では無いと思うんだが
ありがと 読んでみるよ
自己レスだけどなんかおかいと思ったら、
1111って普通seingっていう項目があるのな
俺の何でねえんだ…
ps://i.imgur.com/v3ZiFUL.png
と言うかそれ1111じゃ無くない?画面違うぞ
おそろく古いの使ってないか?
とりあえず最新版入れるとこからり直せ
ps://i.imgur.com/GvC6raO.png
sable-diffusion-weuiフォルダで↓の呪文を実行だ。giから入れてるよね?
gi pull origin maser
モデル切り替えタいつついた?
月曜未明のコミットにあるな
色合いの配置とかはほぼ同じで、解釈が少ずつ変わってくるのがわかる
ps://i.imgur.com/g7sFVVV.jpg
ps://i.imgur.com/jUrzj20.jpg
ps://i.imgur.com/QFVjZaD.jpg
ps://i.imgur.com/66sZ2SF.jpg
ps://i.imgur.com/bucRrCo.jpg
モデル切り替えると自動で読みに行ってくれるから
楽になったね
面白いな、兄弟姉妹作りたい放題じゃん!ほんと無限に遊べるな……
今日また一回生産た後固まるようになってまった…日替わりバグ多すぎんよ
lkyにか見えない
{}ない場合は同じ結果だったんですがあると同じ結果にならなくて
()でくくる
確かにlkyだね
初期の頃か使わなかったから完全に忘れてた
テスト選択て↑↓ーで強弱変更が便利だからそれ使ったらいい
グラボが結構ローエンドか
生成サイズが大すぎるか
写実系古い映画みたいなの出せるckpモデルってどれ使えば良いんだろ
ps://i.imgur.com/zucQVB6.jpg
ui-config.jsonとconfig.jsonが古いまま
上書されないからね
ckpをdiffuser形式に変更たフォルダをpaにてもuggingubを見に行ってエラーが起っちゃう
gi pullてもwebuiが更新されません
gi入れる時点でなにかミスてるんでょうか
ps://i.imgur.com/djE8kMJ.png
ps://blog.novelai.ne/novelai-improvemens-on-sable-diffusion-e10d38db82ac
急にオープンにするん
CLIPの最後の方のレイーを無視すると急激に絵が良くなるってそういうことなのかよ
当初言われてたハイパーネットワークとかTiとか何も関係なかったな
このちょっとた工夫とアニメ特化学習(という名の泥棒)とアニメ用VAEの調整だけだった
まぁええか
出来また
初心者丸出な質問すいませんでた
ワロタw
推論かさせないユーザーにはあんまり関係ないって事なのかな?
&g; During e early days of Sable Diffusion developmen before e launc,
&g; we were given access o e models for researc purposes.
なんで発表前のSable Diffusionにアクセスでるの
NovelAIとSabiliy AIってガチで繋がってるのか?
最初からアメリカ企業が寄ってたかって日本の著作物を組織的に盗むプロジェクトだったってことでょ
その神輿とてSDが使われだけで
少前のDALLみたいに研究者用のベータテストが可能な窓口があるんよ
その中にNAIの人も入ってただけね
MLではわりと一般的
さすがにその話はこっちでってくれ
【Midjourney】AI関連総合10【SableDiffusion】
ps://mevius.5c.ne/es/read.cgi/cg/1665312817/
どうなるかは分からんが、選択肢が増えるのはいいことだ。
そいつのLeak P2は何に使うんだ
容量がP1の4倍くらいあるけれど
グラボは3090だから生成サイズが大すぎるのかな
ありがとう
触手が服に絡みついてる様子は描けないから無理に指定すると服を全部消て裸にたり
ダンボールの該当タグが乏い背景を指定するとただの壁を描いてたり
手も後ろに隠まくるな、学習元画像では上手い絵師ほど手を強調てるのに
いらすとの画像を学習させまくった例ならもうあるけどそこそこの精度で作れるみたいだ
学習用のドット絵のデータを大量に用意でれば可能だと思う
その後最適化されても少早くなってるかもれんけど
ps://wier.com/ayenori/saus/1571440021219192832
ps://wier.com/5can_nel (5c newer accoun)
素人がcolabでTIさせただけでもこのレベルだから
多分余裕で商用レベルに行ける
ps://i.imgur.com/RqrRR7.png
これで商業に使えるかどうか判断するのは難い…
古いソフトからドット絵をっこ抜いてる海外サイトがあるからそれを学習させれば品質は上がりそう
待てなかった
novelaiぽい絵は出たのでヨシ!
webui-user.baのCOMMANDLINE_ARGSに –deepdanbooruを追加て起動するだけ
今朝更新た時は ボタン増えてなかったなぁ
コマンドスイッチ追加てからじゃ無いと出てこないよ
ただDeepBooruモデルがVRAMを少占有するから、低VRAM環境だと画像生成でメモリ不足起こす事があるらい
Seingsのアンロードの設定が効いてないのか、それとも報告た人がその設定外てたのか、まあバグでも近いうちに修正されると思うけど
これは捗る
あぁ
START_webui.baの方に追加たらいけたわ
LHRはイーサリアムのマイニングを検出すると計算速度を落とす仕組みなので影響はない、はず
少なくとも現時点で影響は確認されてない
ラックボックスなので断言はでないが……
あー、スタンドアローンのつかw
ひっかかるつ多そう
貴重な情報ありがとう
それで、居直ったみたいな情報公開に打って出たのかな?
それはともかく、SDが1.4で足踏みてる間にオタ版のSDフォークがすごいバトルになってたな。
とりあえず、Haru頑張れ。
手元のグラボが無印1080(8GB)なんですが、今後AI画像生成目的で更新するとたらどこのスペックに注目するといいでょうか
例えばCUDAコア数が同じ3050に入れ替えたとて、ensorコアの有無で生成速度が劇的に変わったりするのか
それともCUDAコア数が変わらないとあまり影響がないのかみたいな
楽だなぁ思って導入てみたが
一番関係あるのはVRAMの容量かな、今のことろは
VRAM12GBの3060がコスパ最高で一番人気、今のとは
劇的な差を感じたいなら3090かねぇ
いるよ
俺も楽だから導入たけどちょっと遊んで放置たままだ
真面目なつは学習データの改良とかってるんだろうけどな
1111のおかげで、トレーニングないで学習させるだけなら言うほどメモリも必要なくなっててはいる。
ちゅうても、今から買うなら12GB以下っていう選択肢はないだろうな……
FP16ならTensorコアの有無で大分変わるね
FP32ならまあそんなにって感じ
更新するならまずVRAM、次にCUDAコア数重視かな
VRAMが多ければバッチサイズが増せて同時に何枚も生成出来る、TIDBもローカルで出来る
CUDAコアは純粋に速さにつながる
Tensorコアの有無に関ては、VRAM12GB以上を見据えるとどうせRTXになるそこまで気になくても
_2spag_165 と同じく、安く済ませたいなら3060、金があるなら3090をおすすめするかな
まあ、普通にゲームもするから、いいんだけど。
回す分には結構早い。
MacどかWindowsですら使えないんだが
急ぎで買い替えるのならRTX3060に留めておくのが間違いない
DDR6Xだから 生半可なクーラーじゃぬぞ
なるほどありがとう
fullHDマルチな環境なんで普段のゲームには1080で十分かなーと思ってそのままだったんだけど
AI生成お試で触ってみて久々にグラボ更新ようかなと考えだたので助かりまた
ゴミPCなのかCUDAが対応ていない…のか?
Inel HD Grapics 5000
これなんだが
CUDAち込もうとてDOS窓で確認てみたが反応ない
課金とかたくねえ
もう決めた
二度とラップトップ買わないことにするわ
radeonさん頑張れ。
(インストールた体になっているが機能ているとは言っていない)
fuck!!!!!!!
最近ネガティプロンプトも実行でるようになったぞ
情弱がわざわざこんなこと言わない
以前より厳くなったか?
colab:規制される
novelAI:課金たくない
novelAIの中国版?:怪い
ローカル:CUDAインストールでない
終わる
オンラインででるので遊かないのか
落とせるもの落とて準備ておく
呪文の素振りまくることにめた
colabでノートックにbase64とて埋め込まれる画像は検閲されないと思う
ZLUDAてのを使って・・
だめか
そもそもgoogleアカウント持っていない
電話認証突破でんな
なんだねチミは
邪魔
生活保護と発達障害だが
今月の障害年金でPC買えそうではある
それぐらい辺りで次スレ立て前に決めればいいんじゃない?
ckp配らないから一瞬で消えたけど
文章なら書ける
inelGPUが何悪いことたってんだ
CUDA入れるだけいれて、
かもアンインストールするとは個別にコントロールパネルから消ていくとかどんだけねんなぁ
無料でエロを。
無料でエロをたい
諦めて年金受給まで待て
そんで知識がないなら変に中古を狙わずに3060積んでるBTO買え
まぁ俺も荒らを無視でない奴を無視でてないんだけど
年金まであと3日
我慢でないンゴねえ
_2spag_207
どうた?
というかお前がまず無視でていないだろう
ぐう無能
3日ぐらいこらえろ
というか今のうちに予算内で買える最大性能のパソコン調べとけ
モニター(ディスプレイ)は中古でいいから本体は絶対に新品で買え
というかモニターは既にあるからええわ
むろマウスーボードもいらん
pcけどboでいくかパーツ集めて組むかなぁ
天地がひっくり返ろうとBTO買え
パソコン工房なら日本全国にあるだろうから歩いて買いに行け
店員に「AIで画像生成たいのでNVIDIAのグラボ積んでるつください」っつって予算ギリギリのつを選んでもらえ
40点
4080もコスパ悪いだろ
4090なら一気にでること増える
30×0の中でワットパフォーマンスは一番良い、発熱もデュアルファンモデル選だけでクリアでる程度だから、長時間ン回す用途なら最適まである。
AIで画像適当に吐くだけなら60で十分だと思うが
4080買うくらいなら3090買うか、もう少金貯めて4090買う方がいいと思う
VRAM16GBと24GBじゃ出来ることだい違う
ゲーム用途ならいいんだろうけど、画像AIにはだいコスパ悪い
ワン、モデルの違いかなと思って検証たいんだけど1.2ってどっかに落ちてるかな?
あれ?akureiのはもう1.3に更新されてるよね?
それともjcplusってつか
3Dモデリングもゲームもらないからエロ画像以外の用途がない
そろそろAI絵師の副業求人が出る頃だと思ったが全く増えないな
イラストレーター使い捨ててる漫画サイト出版社が速攻食いつくと思ったのに
これを
ps://noe.com/npaka/n/ne3f3316b8dad
で変換するか
ps://uggingface.co/crumb/pruned-waifu-diffusion
これ(これは変換方法の問題でちょっとオリジナルと違うらい)
今のとはVRAMが最優先事項だから3090にろ
電気代は知らん
DreamBooって学習に使ったmodelじゃないと動かないんじゃなかたっけ?
TIは学習方法である程度汎用性ある(ない場合もある)
予算
~5万円…Colabの無料プランで我慢
5万円~…RTX3060
15万円~RTX3090
30万円~RTX4090
これって1.3のモデルじゃないのん
ファイルにもWD1.3て書いてる
1番上はコミット履歴に1.2も含まれてる(古いツを頑張って落とて)
3つめは1.2のcpk変換て余分なつ削ったつ
40XXシリーズは現状だと価格設定が狂ってるので30XXの在庫が店頭から無くなるまで様子見で良いよ
値崩れて投げ売りに近い状態になったタイミングの3090だけは狙い目
親切にありがとう
探てみるわ
AIに学習させるプロンプターを募集てる企業ならあるけどな
xformersオプションでエラーが出るようになったな
取り敢えず10日夜のバージョンに戻たらまた動くようになったけど
ps://giub.com/eima/SD-JE-ranslae
というか1枚絵をたかだか描くのにこれほどマシンパワー使うんけ
エグいことるでほんま
VRAMは結果的に生成の速度に大く関係てる
3Dモデルるなら、BlenderのテクスチャをAIで生成でるプラグインとかあるから調べてみるといいぞ
うちはクリーンインスコないとそれではダメだった
マジでどこで言ってる?
ps://six-loganberry-ba7.noion.sie/22-10-10-Emad-aae60a74858a4f52ab453aab7f4e3a1e
25ドル払った奴らにどう説明すんねん
オープンソース化は来年かもれないけど本気でクリエイティ職はAIと向合わないとバイ
今のユーザーは1ヶ月分無料で追加とかで補填かけるんじゃね?
_2spag_247
ありがとう。あいつらライセンス違反ってたのか。
契約文書に存在ない客のお気持ちに忖度する日本とは違うんだ
ヴァージョンというか、ちょっとでも設定変わったら基本意味ないで。
解像度からサンプラーからckpまで、ちょっとたことでガラッと変わる。
流出てくれたおかげで俺たちはめっちゃ得てるんだ
Inerrogae CLIPってボタン?
そこら辺全部管理たいなら今後はローカル版で回たほうが良さそうだな
うちもui-config.jsonとconfig.jsonを消ただけじゃいかんかった
最新Ver使えないのもあれだ、クリーンインスコまたするかなぁ
こんにちは、ついに皆さんにご紹介ます。
皆さんご存知ないかもれませんが、私はgoogleのimagen(ps://imagen.researc.google/video/)に似たアーテクチャでビデオ生成の学習を行おうとています。
上のgifは2万ステップのトレーニング後のサンプルです。良い結果を得るためには、少なくとも5万ステップの学習が必要で、ばらく時間がかかりそうです。
今問題になっているのは、使っているデータセットです。アニメのビデオデータセットがないので、自分で作るかない。構築方法は以下の通りです。
アニメのエピソード -&g; アニメのLFD顔検出器 -&g; 検出された顔を切り出たビデオ -&g; 64×64ピクセルで合計20フレームにリサイズ
そて、お察の通り、データセットのデータの中には、動かず、何もない静止画の顔が大量にあります。これらをすべて削除たいのです。
そこで、皆さんにお願いがあります。
データセットのュレーションを手伝ってくれませんか?どれくらいの時間を費せますか?データが良いか悪いか、2つのーを押すだけで良いのです。
リレーチャットで回答
なぜアニメの顔だけなのですか?
64x64pxでは細部が制限され、顔はその解像度で生成でる数少ないものの1つです。
なぜもっと解像度を高くないのか?
ハードウェアの限界
もこれがうまくいくなら、より高いスケールでトレーニングすることを検討するかもれません。私が聞いたとでは、Sabiliyはex2videoモデルの計画を持っているので、それが出てたとにそれを微調整するためのデータセットが用意されているとよいでょう。
アニメ版imagenを手伝う人募集てる
質はわからんがアニメ版の動画生成も近いな
うちではvenv消て作り直させたら動いた。
細かいバージョンが狂ってるのかも。
AI絵なんて一期一会の気持ちでらないと気が狂いそう
たまにwaer painから別の塗りに変えて回直た時に同じseedのままだと何故かwaer painっぽさが残ってたりするんだよね。
seedをランダムに戻すとそういうのはスパっと消える。
seedは実はprompのある程度逆算可能なハッシュで、実はランダムに選ばれてるんじゃ無いのかなとか根拠もなく妄想てる
「アプリケーション エラー: クライアント側の例外が発生また (詳細については、ラウザー コンソールを参照てください) 。」
あとサスクを更新ようとたら
「エラー メッセージ:NoFoundError: Failed o execue ‘removeCild’ on ‘Node’: Te node o be removed is no a cild of is node.」
って出てくる。
cromeのGPU支援をオフにたりて一度収まったかと思ったけど再発てる。
だれか解決方法わかる?
またオカルトか。ソースりゃわかるでょ。
orc.randn()で生成するただの乱数だよ。プロンプト関係ない
奇跡の一枚が出たとにプロンプト少変えて出力すると何故か元のプロンプトの影響が少だけ出る場合がある
多分シードの偏りとプロンプトの傾向が一致たとに奇跡の一枚が出すいのでは?と踏んでる
そたら何かが見えてくるはずです
何の証明もせずにただ妄想をたれ流すだけ
ャッシュされてて前の生成結果を引継ぐとか言ってたのも
ステップ数多いとデメリットあったりする?
ローカルでカッコで強調する時にカッコの前にバックスラッシュを置くと良いらい
時間がかかる
デメリットは時間と電気代ぐらいか。メリットもたいて無い。
50~60でれいに収束すればそれで十分。それ以上は宗教上の理由か趣味と思う
以前そう思って試たんだけどただフィルタ処理されたものを返ただけだった
pipでxformersアンインストールてから再起動たら再インストールされて直ったわ
_2spag_278
_2spag_279
ありがと。あげすぎてもあんま意味ないのね。 50~60あたりでいい感じのとを調節て探てみる
そういうとに普段より上げるのは効果あるかもれんよ
NAIモデルは()認識てない気がするけど
NovelAIのUIだと強調は{}で()はそのままテストエンコーダーに渡される実装
AUTOMATIC1111は()で強調される
なのでNovelAIのUIで()を使ってたプロンプトはAUTOMATIC1111だと\(word\)とてエスケープてって()をテストエンコーダーに渡てらないと再現でないという話
「save」ボタンで保存する場合のフォルダ設定ってどこ?
複数枚生成た場合に一枚毎に違うフォルダに指定て「save」とかは出来ない感じ?
画像非表示にすれば解決する話ではあるんだろうけど
画像生成でそれったらもう
数十枚出たら最後に1枚だけ出直て軽くてるわ。不便
↓ここ
Oupu direcory for images from exras ab
なるほど、エクストラへ一枚ずつ送ればいいのか
ありがとう
まあ現実みたいな写真出せるなら欲いけど画像生成は正反対の方向に行ってまってるな
単にwaifuとNAIがスタートダッシュで伸びまくっただけで
3dとか今すっげえ伸びてる
ちょっと他のモデラーに取り込んで弄ったろって感じには見えんけど
割と楽みにてるんだが
日本の歌もの特化とかれたら面白い
どこで話せばいい?
るならAI総合だろうけどまともに話にならなそう
どこで設定するん
もかて1111版だとnswf表現でない?
なんだったら出力させる度に全く同じ条件で出力がレることもある
xformersは使ってないどういうこっちゃ
SD1.4は実写強いと言ってもょせん実写風な画調のあくまで絵なんよ
高品質な本物の写真と比べたらマジで残念過ぎるんよ
フォトリアルこそ俺の本当に欲いものなんだが1.5でそんな改善するかな、、
さすがにそれは難いんじゃ無いかなあ。なんせ画角も露出もシャッター速度も学習概念に無さそうだから
あったら普通の絵でももうちょい楽に構図決めれるんけど
ライカだのソニーだのシグマだのprompに突っ込んで18mmでf4とかっても全然効かん
ひどい時はレンズの絵が出る
その辺でトークン75制限を超えたとの挙動が変わったはず。毎回変わるってのはちょっとわからんけど
入れてるんがまんこ出んなー
だたいなーまんこ
_2spag_304
なにそれ詳く
そこ疑って無効化ようとてるんだけどオプションも何も無さそうなんだよね
出力のレってのはシード固定た状態で1枚出た後にそのままもう一度出力ボタン押すと崩れたりとかはないんだけど小物のディテールとかが変わったりて
それが2か3パターンあたりぐらいあって順番に出てくるようになる
ただこっちは出力を前の版と一致させようとてK samplerの設定いじったからかもれない
まあ9日の版で出せばいいんだけど
絵師だけいじめられてる現状とはインパクトレベルが違うことになりそう
現状の画像生成AIの写真のクオリティの低さ考えると相当先の話なんだろうが
内部処理どう変わったんだろ
かもそれで生成される絵に限ってprompとは明らかに外れてる絵なんだが
うらまい
そいつに界隈蹂躙させよう
linuxにち込むの、なかなかんどいなぁ
知らず知らずにどこかで改行てるだけだと思う
確か改行てるとそれ以降は別の生成物の命令とて扱うはず
めんどいな方言
更新されてた
ps://renry.org/sdg_FAQ
&g; If you are running an Pascal, Turing and Ampere (1000, 2000, 3000 series) card
&g; Add –xformers o COMMANDLINE_ARGS in webui-user.ba and a’s all you ave o do.
顔アップだと綺麗に出るんだけど全身画像とかで顔が小さくなるほどボけてまう
デフォルトではoffになってる。確かにフィルタするチェックボックスはあるがそれをよくわからずにチェックとか入れてない限り普通に描写される
CFG Scaleは12くらい、どのくらいバリエーションを出たいかは
Variaion srengの数値で決めるといいぞ。
AIは基本、小さい顔は苦手
別に大く作って縮小たのフォトショとかで貼り付けまょうとか言ってる人がいるくらい
でも足は2本にてください…
右向とか上向とか大まかな角度情報をラベル付けて追加学習すれば多少は何とかなりそう?
る人居るかは知らんが
マウスで動かてカーソルーで微調整する必要はなくなった
3Dからとかは前からあるぇ
ps://wier.com/yokoara_/saus/1578636519144685569?s=61&=iaYI_6Bjq6zFL0zE-KwsgQ
リンクメモってなかったけどTikTokから変換するテストは4cに動画で上がってたよ
背景動かない奴はそれなりに見れるレベルになってた
ps://wier.com/5can_nel (5c newer accoun)
風当たり強すぎる
ファーストペンギンが目立って理不尽に集中砲火に遭うが
一旦広まって歯止めが効かなくなると、みんな反感を持つ事すら諦めて受容てまう何度も見てた流れ
今colabで16GB使っててそんなに不満ないけど、24GBにたらもっと早くなったり出力枚数増せるのかな、いいな
CPUとメインメモリは盛ってるから週末にでもDreambooのそっち使う奴試てみようと思う
仕様が変わったのか元画像のチョイスを間違えてるのか先々週作った画像を再生成でない…
ps://giub.com/gammagec/Dreamboo-SD-opimized
を試てるとだけど
一回目の
las.ckpを吐出終わったかどうか分からないよく分からない状態で
ou of memoryでエラー終了する
inerrup押ても何も反応ない
終わりってレベルじゃねえこれ明らかにAI絵を優遇するアルゴリズム入ってるだろ
も据え置なら5090まで見送りかな
自分の場合同じプロンプトでも全くと言っていいほど違う作風になって困ってる
今年中にpixivの枚数超えるかもれないのか
これでどれぐらい安定ていくのかちょっと見てみたい
良いことなのに良くないな…原因が分からねぇまま解決ていく…
速すぎて恐ろい
民主化万歳
下手にver番号振ってるつは永遠に修正作業に追われそう
それまさに強化学習の有名な手法のつだな
加えて「これはダメ」のネガティ学習もさせてみたいね
とはいえ原子力発電太陽光発電電気自動車遺伝子組み換え技術は未だに叩く人間が後を絶たない訳で
AIもそうなるんじゃないかと思ってる
Fanzaにある同人作品の累計数見たらこんなもんだった
十年クラスの人気ジャンルで3000行かないとか思った以上に少ない、
AI以降は一気に供給量増えるだろうな
Fanza同人すべて:
全197,600タイトル
東方:
全3552タイトル
FGO:
全1428タイトル
ホロライ:
全245タイトル
原子力発電は歴史に残っちゃうような大規模災害が複数回起てるから、まあ反対意見が消えないのは仕方ないとて
それ以外は、なんだかんだで気がつけば普通に定着てないかい?
太陽光発電も、太陽光発電が悪いというよりもなパネル設置騒動に問題があるわけで
遺伝子組み換えは風評だけど、太陽光と電気自動車叩く奴なんているか? 自動運転はこれからだけど
原子力はそら対応ミスったら東日本全域人住めなかったらいから、実際に大事故とか起たらゃーない
AIについては人力車と自動車とかのラッダイト運動の系譜だから、失業た奴らは恨み続けるだろうけど、まぁ恨みも風化するな
俺だってなろう系ぬほど嫌いだったけど五年もたら慣れてまぁそういうもんかと思うようになった
1111の説明見ても、なんかいまいち要領をえん
1111の人ってロシア人らい動員で開発中止とかはあるかもな
でることはTIDBと同じで、画風モノ(ャラ)を覚えさせられる、らい。
か少ない学習ステップでいける、らい。
ps://giub.com/AUTOMATIC1111/sable-diffusion-webui/discussions/2284
75トークンに収まるよう下から削ればええん
トークン数は見えるんだから
あるいはmaser #2129まで巻戻たものを別個入れればいい
トン
dreambooの廉価版というか、質は今一歩だけどコストはとても良いって感じなのかな。
ただ、めちゃくちゃピーーそうだな……
あんな小さい数値でもすぐに過学習でNANが返ってちゃうのか。
Quadro系ならnvlinkでVRAM増えるんだが、30シリーズのnvlinkは機能制限されててVRAM変わらないんだわ
VRAM増えるなら喜々とて3090二つ買ったんだけどな
サーバーパンクそうだな
容量の問題というより児童ポルノとか犯罪系への対策だろうけども
改造ドライバとか出てこないかな
昔はGeforceのQuadro化とかあったよね
4090の発表時は画像生成AI需要けっこう意識てる感じだったけど
CUDAがインストールでないGPUであり、
いまSable Diffusion UIを試ているわけですがね、
動いてはいます。確実に。
ただね、14分かかっていま44%なんですよね。
で、このあとモデルをWDに入れるにても、
どうなるものらと。
絵の下手さりが目についてょうがなくなった
まだまだ性能向上すると考えると恐ろいわ
まぁ俺が続物作るために同じパターンで生成まくってたからというのもあるが
1枚出すのに14分かかって44%ということ?
欧米的にBANされる画像を出すのでなかったらGoogle colabにたほうがよいのでは…?
せ
ワイの十八番 ミクャットが
processed 1 images in 1853.433 seconds
それにてもwdもバージョンありすぎてようわからんな。
自分も無料Colabが力尽た後はCPUでガン回てるけど、ある程度sep数減らすのおすすめよ
お気に入りの画像見つけたら高Sepでじっくり生成直せばいい
512*640でsep25ならとりあえず20分あれば生成終わってる
512*512ならもうちょっと早い
CPUで生成するくらいハマってるなら安いグラボ買った方がいい気がするな
CPUの人は下げてみるのはありだと思う
コッソリ鑑賞用にか生成てないけど絵描が追い込んで使ったらガチで凄いのが出る
そのうち絵を描かない人にもノウハウが広まったらと思うともう手で描いてる場合じゃねぇわ
pixivdlsieに上がってるのはあくまで素人によるサンプルレベルだわ
バッチサイズ1 – 11秒 (2.6i/s)
バッチサイズ8 – 55秒 (1.98s/i)
普段はGPUのパワーリミットを55%にて性能2割ダウンで動かてる
お前らの自慢のマシンの結果も教えてくれ
30xx世代はもっとビュンビュン回るのか?
373だけど、使ってるノートパソコン調べてみたらTunderbol3端子なかったわ
グラボ詳くないからよくわかってないけど、これ多分ダメそうってことだよね?
大人くCPUガン回とこ
これ以上のグラボの人は一枚生成に1~2秒?
外付けファン回ながら1日2~3時間ン回す感じでも自行為になりますか…?
無料Colabの分だけじゃ物足りないわ…有料Colabも最近ルール変わって生成可能数凄く減ったらい
p://gigazine.ne/news/20220928-inel-arc-a770/
ZLUDA使えるなら選択肢に入る?
ZLUDAで動かす事がでたらHD Grapicsの人達にも福音になるかもれないね
なんかこのみた感じだと止まってるっぽいけど…
ps://giub.com/vosen/ZLUDA
ex o poseとかでないのから
生成たポーズとアングルに簡単な3Dモデルを被せてimg2imgとか……
これならャラの一貫性崩さずにアングル調整とか差分作りがでるよなーという妄想
そう言う行動で学習てないからなんだろうけど
この辺もカバーたら本当嬉いんだけど
これはあれかな?ラッドなんとかって名前のダークファンタジーなゲームとかが多いからかな?
あれ何かの機能ででるんだよね?
AUTOMATIC1111のpromp marixとかX/Y proとかを使う。
ps://giub.com/AUTOMATIC1111/sable-diffusion-webui/wiki/Feaures
model変えてマトリックス作るのはでない……かな?
加減を知らないのか貴様は
加減を知らないのはLinuxだな。メモリに空があればあるだけャッシュに使うぞw
あ、ほんとだ。ceckpoin nameとか入ってるわ。
厳くなってるなあ
ありがとう!試てみます
exual inversionとdreambooの違いすらよくわかってないのにyperneworkまで出てて更にわからない
gi bas ereで
gi pull ps://giub.com/AUTOMATIC1111/sable-diffusion-webui.gi
打ち込んでもエラー吐くんだが俺だけかな
「遷移ていいの?」ってワンクッション確認挟む仕様にてほい1111様…
でたわありがとー
ラウザ拡張でれ
Novel AIに線画読み込ませたら全然違う構図になるから元の線画そのままに色だけ塗ってくれるものが欲い
将棋チェスで見られた風景だが芸術でもそれを見せてほい
ゲッターの行着く先が見たい早乙女隼人みたいな発想だけど
前者はsrengとnoiseがあるのに後者はdenoising srengかパラメータなんすよね
ps://i.imgur.com/PU9ye4s.jpg
すでに投下されてるAIイラストは人の手で厳選されたもの
とにかく見た事ない物が見たい
早く模倣を抜け出て欲い
それだけ効果期待ていいのか?
最後のコミットでコメントにこう書かれてる
Due o privae reasons I am currenly unable o coninue developing is projec. If you
wan o ake i over, fork i and conac me
そて勿論引継ぐ人なんか居ない
URL貼れねえけど
mdm-a-new-ex-o-moion-generaive-model
てのが発表されてる
bookmarkleでonBeforeunloadを上書てaler出すつ作ればいいだろ
なぜAMDがCUDAを採用ないか考えたこと無いの
あー、特許とか絡んでるのか
動かている PC からはWeb GUI 表示でるんだけど、F/W 切った状態で他の PC スマホから WebGUI にアクセスさせようとすると
connecion refuse になるので SD に拒否られてるように見える。同じ条件で、SD を動かている PC の上の他のサービスにはつながる。
だれかSableDiffusionUI {cmdr2}の環境で、
nobelAIリーク版のckp使ってる人{使えている人}おらんかのう?
というかリーク版ていくつもckp分割されとるんったか
ともかくだれかおらんかのぅ
3060が乗るマザボって時点で最低限のスペックは満たてそうだ大丈夫なんじゃないかな
助かり申た、感謝。
—
・webui-user.ba
se COMMANDLINE_ARGS=–lisen
—
NAIに関ては全く触ってないから知らんけど、あれ多分ノーマルSDとWD1.2(1.3も?)にか対応てないんじゃない?
試にTrinarのckpで置換えてみたら「ckpのサイズが不正なのでDLなおすよ!」みたいなログが流れてノーマルSDのモデルに塗り替えられたわ
録画PC最近あんま稼働てないからそれ使おうかと思ってて
Sandy世代のCeleronなんだよね…
むりかな~
最悪2600kあたり買って動かすかな…
uneが本体で他はサ?
プロンプト→exencoder→(une→サンプラー)ループ→vae→画像
みたいな流れだったと思う。uneには横からシードから作られたノイズが最初に入る
消費電力と計算速度のバランスいいとの目安みたいなのって何かあったりますかね
ちなみにgx1080無印(8G)で2.2~i/sec power limi50%で消費電力100w減って1.7~i/secくらいだった
適当に刻んで回てプロットて探るかないかな
んなもんそれこそ批評側AIのパラメータ作り込めばいいだけじゃん
WSL2必須かこれ
以前Hyper-V入れたら何っても環境戻らなくなってトラウマになってるんだが
あーなるほどサンクス
_2spag_6の意味がちょっと分かったわ
どうてもエラーになる
完全に使い切らないと追加でないのかな?
無理なら2垢を検討てる
開けとゃいいんですよ知らんけど
通常のシリーズでは24GB以上積む気ないだろうな
A6000が60万ぐらいだから、90i2台よりかは安かろうって感じで
てかいま60万なのか安いな
何枚くらい出力でるもんなの?
さすがにネタでょ?w
なんか証拠スクショ貼ってよ
短時間で大量に生成たいなら使えそう
いなり_2spag_462に反応て「使ってるけど」ってあるかね?
ニュース速+とかでいなり被害者の知り合いだけど~って現れる奴みたい
左下のデッドスペースが気になる
ps://i.imgur.com/mHm6DI.png
昭和か?
クラウドなら分単位でつかえるぞ。
AI画像生成始めてからVRAMジャンーになってまった
WSLを2つ使ってSDとWebUI2つ起動て、それぞれを別々のGPU(2枚刺)に割り当てたら
2並列で生成でるんじゃなかろうか
巷のGPUクラウドって超多コアのCPUと大量のRAM積んだベースに
挿せるだけのGPU挿てその数分のインスタンスを提供てるんだ
ローカルだったらPyTorcの実行先指定をちょいといじれば仮想化無でそれぞれ別のGPUに流せるけど
3090Ti持ってるからもう一つ3090Ti買って、普段はゲームとAIの分割運用で、一部の対応ゲームとかベンチマークするとだけNVLINKにてドるとかってみたい
普通に欲くなってた、真面目に検討ようかな
当分VRAMは24GBから増えないだろう、4090はNVLINKに対応てない、せっかくだNVLINKがでる30シリーズの特性を活かたいよね
最強は電気自動車用コンセントだが
最大出力を何時間流ても平気
出力も3kwから10kwまである
何か設定間違えている…?
すまん、ここに書いてあった。モデルの名前勘違いてた
ps://imgur.com/a/DCYJCSX
24フルで動かす訳じゃないにろ一時的な負荷はむろ大い
選択肢は多いけどどれがどういう長所とか向いてるとかよくわからなくて
背景画像の細部の描込みを増たい場合てどれがいいのん?
パソコンの熱を屋外へ直接出す煙突を立てないと
藤井聡太はスリッパPCの熱をどう処理てるのかな
あとそろそろスレチ気味になってたにゃー
20万超えるようなもん、水冷つけても別に誰もモンクいわんだろ
SLI出来ないとか
長さも 3.5スロット占有
ケースのサイドからはみ出て 横の蓋が閉まらないとか
規格外すぎる
_2spag_478
コンセントを200Vにはたくない、Signaure1300ていう電源はデュアル電源に標準対応てて実質2600Wだからそれを検討てる
ただケース買い替えだ、グラボ代マザボ代その他諸々にCPUも13世代にたいで流石に当分は妄想にとどめておくよ
生成そのものの呪文とかはなんJさんJが盛んだ
生成技術のスレだからそれでも良いと思うが
世間はColabで使えるTPUで8枚8秒の話題になってるよ
_2spag_496
例を見たいだけならwierでyperneworkで検索すればいくつか出てくる
エロスレで試てる奴も居る
それによればNAIのckpじゃなくても普通に動かてる人り
けど誰もこうすりゃうまくいく的な話はてないな
ここのNAIらデータって非orrenかな
でも非公式なのってウイルス怖いよね…
もう試た勇者様ってどれくらいいますか?
TIはby Embeddingで使うけど、yperは全体に勝手にかかるでOK?
自分もTIとHyperの違いがよくわかってないんだけど、Hyperでプロンプト全体のスタイルを指定た上で、TIで特定のオジェクトを覚えさせることも出来るんかな
顔とかモノとかピンポイントで学習させた絵が生成されすくなる。なのでファイルサイズも小さい
yperneworkは追加学習でypernework用の追加モデルとてpファイル内に小さな学習モデルを持つ
対象モデル全体に学習内容を反映させる。特定の顔とかモノではなく、画風作風そのものを全体に転送する感じ
と理解た
DB すげえ
HN ほげえ
なんかこんなニュアンス
適当に弄ってみたけどなんかLinuxでか動かない?のかな
てゆうかcolabなんて初めて触ったよw
もーだ
学習ベースが違う人種になっちゃったり
似てるけど若干違う感じになったりするからまだdeepfakeとては使いづらい
あと体型ネガティとか beauiful cueあたりでもめちゃくちゃ顔変わってちゃうからdfとてだと生成後に顔周りだけimg2imgで変えたほうがいいかもれん
DBで画風学習させた後、別のプロンプト指定て再度DBでャラを覚えさせて成功てる人Twierで見たから、DB→TIよりDB→DBの方が良いかも
オリジナル版とCPU版はPyonで動かてた気がする
Anaconda入れて使う方法が
だいたいの手順で説明されてるね
あと Cドライの空容量は100GB位は必要みたい
卑猥な言葉は使ってないからフィルターとかではないと思うんだが
メモリ不足の可能性がある
出力画像の解像度を下げて出力でるか試てみるといい
ログでGPU使ってねえぞ!って出たけどそのまま使ってるわ
なんか怖い
1660i
_2spag_514
なるほど!DDR4で16Gかないからかもれん
試てみる
ありがとう
webuiのAUTOMATIC1111なら
webui-user.baの
se COMMANDLINE_ARGS=
を↓のようにする
se COMMANDLINE_ARGS=–precision full –no-alf –medvram –op-spli-aenion
NMKDのGUI版なら右上の歯車から
Low memory mode選
–op-spli-aenionって知らなかったんだけどどんな効果のオプションなの?
あとさっから画像のエラーが出て起動でなくなったんだけどモデルの入れる場所変わった?
エラー起こる前にたことは最新版にgi pullたのとa1111-sd-webui-agcomplee入れたのとckp一個か入れてないのに1111の再起動前にモデル切り替え触っちゃったくらい
ps://i.imgur.com/z2XJYaV.png
そのうちでるようになるかな
そんなに間空けてたのならいっそ最初からインストールなおたほうがいいよ
gi pullじゃ上書でないファイルもある
ごめん昼食食べに行ってた!!
そてでたよ!!!!本当ありがとう!
Waifu Diffusionも動かせた!
このコマンドつけるってのは1660iのVRAM6GBじゃ足りなかったってことなのかな?
16xxは20xxからAI処理用の演算回路を剥ぎ取られたコストダウンのためだけの間に合わせの産物なので
GeForceが得意とするAIの演算にバグがある欠陥品なんです
そのオプションは高速演算を無効にた上でついでに増えてまうメモリ消費量をりくりする指示です
使えない場所によってバリエーションがあるだけ
なるほど~
4090欲くなりまた
NMKDなら出来るみたいだけどsable Diffusion web UI(AUTOMATIC1111版)でも連続生成する方法ある?
使ったことないならそう言う機能あるよが答えになるから?
ps://gigazine.ne/news/20220909-auomaic1111-sable-diffusion-webui-promp-marix/
生成に倍以上時間かかるようになったけどなんでだろ
学習元が10枚のとは正則化画像200枚くらいらいけど、例えば100枚学習させる場合は正則化画像2000枚必要になる?それとも変わらず200枚でいい?
わからん
同じ枚数に対て50でも200でも違いがわからん
ありとあらゆるバリエーションを網羅するに十分な画像群って話だから
網羅されているのなら増す意味は無い
もちろんこの話と学習させたいものを100枚も突っ込んでうまく収束させられるかは別の話だが
って凸する奴がいて治安の悪さがもは地獄
ありがとう!oupuファイルにどんどんえっちい画像増えてくわwww
バッチカウントってどこで変えれるの?
バッチサイズの横にあった
windowsのアップデートたんならそれじゃね
windowsの復元で戻てみたらどうかね
とりあえずグラボのドライバ更新てみたら治った!
無事爆熱になったよ
相変わらず進化早いねw
SDの一般的な概念はそのままで女の子生成に使いそうな要素だけwaifu組み込むみたいな
収集データの偏りを感じる
WaifuDiffusionは東方にデータセット偏ってるのは確か
特に1.2はblondeって入れるだけで露骨に魔理沙に寄ったりする
これってもかて脳でNMKDにckp導入する以外にり方を知らない俺には扱えないつか?
さぁとっととAUTOMATIC1111を導入する作業に戻るんだ!
ps://noe.com/uunin/n/n725ae4601264
おう!ありがとよ!(導入するとは言ってない)
スレ見てよかった
でもトレにめちゃ時間かかる課金するか悩むなぁ
記録媒体スレ開いちゃったのかと
普通にいける
_2spag_563
ネガティに 白黒っていれてみた?
マジかぁ
精進するわ
pcにgpuたくさん積んでるんだけどsablediffusionは複数gpuで並列処理でないのかなこれ
ローメモリーモードだとネガティプロンプト使えないのがね
ローカルNovelAIが動作でるので、NMKDで妥協たらアカンと思う
ちなみにグラボは1050iでVRAMが4GBのつ
この間免許更新たとにSD(Safe Driver)カードとかいうのがあるのを知ったわ
Sable DiffusionとかSecure DigialとかSafe DriverとかSuper Déformerとかほんと
限界を調べるために少ずつ増ていったら突然VRAM使用率が半減て何事かと思った
クオリティに影響てるのかな
教えて詳い人
リクエストはいくつか出てるようだけどまだ実装はされてない模様
ps://giub.com/AUTOMATIC1111/sable-diffusion-webui/discussions/1621
ps://giub.com/AUTOMATIC1111/sable-diffusion-webui/issues?q=is%3Aissue+muli+gpu+is%3Aclosed
GPU指定とpor番号を変えてwebuiを複数起動すれば、複数GPUをそれぞれ使うことはでるかも?
それっぽいこと書いてるサイトによると多少早くはなるみたい
クオリティは変わらなそう
ps://ossan-gamer.ne/pos-82311/#WEB_UIBac_counBac_size
サイズ増すと並列に処理する数が増えるわけだけど、SD自体が既にGPUに最適化されててサイズが1でも充分効率的に並列に処理でるからあんま速度変わらないんでは?
GPUの処理速度とかも関係てそうだから一概には言えんけども
なんか他のサイト見てると、Bacサイズの限界突破するとCUDA ou of memoryが出るって書いてあるけど、こっちは再現でずにVRAM使用率半減て推論続行するのが謎なんだよね
具体的には、RTX3090Tiでバッチサイズ24の時は使用率22.5/24GBほどだけど、バッチサイズを26にたら使用率14/24GBになってた
WSL2のDockerに入れたから細かいとが違うのかなぁ
正確なことわからないから適当なこと言うけど、数値的に明らかに半減+αって感じなんで、メモリを超えた場合はバッチサイズ半分とするみたいな変更あったとか?
バッチサイズ更に上げてみてメモリの使用率が上がればそれっぽいのでもっと上げるとどうなるのか気になる
詳い人の降臨待ちっすね
webuiでラウザに1/4処理能力持っていかれて常時80-95%くらいで推移てますがなんとか動いてます
役に立つかわからないですけど一応報告だけ
celeron1610、8GB RAM、Win10
俺はvenv消て実行直たら治った
_2spag_480
SableDiffusionUI(cmdr2)を使っているけれど、
(モデルフォルダーにcpmkファイルち込んだだけで他はなにもてない)
俺も出力結果がおかなことになってる。
生足にはなるが、それに加えて半袖になってる。
あと胸のマークがジオン軍マークみたいなの出たり、顔がネコ娘になってたりする。
あと背景が1人掛けソファじゃなくて長椅子に壁には窓が描画されたり。
imgurの記事にはEulerサンプラーだけれどEuler-aなんかも試てみてたけれど結果同じ。
seingタ
&quo;clip skip&quo; no configured correcly. se &quo;sop a las layers of clip model&quo; in seings o 2.
選択てからApply seings押てないパターンかも
なぜマージたんだろう
1111導入でエラーがでたので対処。
inelGPU5000 メモリ8G
AsserionError: Torc is no able o use GPU; add –skip-orc-cuda-es o COMMANDLINE_ARGS variable o disable is ceck
このエラーに対ては、
launc.pyファイル内の、COMMANDLINE_ARGSと表示されている場所を探、–skip-orc-cuda-esを追記する。
commandline_args = os.environ.ge(‘COMMANDLINE_ARGS’, &quo;–skip-orc-cuda-es&quo;)
RunimeError: &quo;LayerNormKernelImpl&quo; no implemened for ‘Half’
このエラーに対ては、
webui-user.baファイル内の、se COMMANDLINE_ARGS=と表示されている場所を探、–precision full –no-alfを追記する。
結局ワイで調べてワイでメモ。まぁ、ハイスペック環境前提での話が多いだろうからゃーないか。
ワイ家電とかで紙の説明書省かれてpdf(ネット見てね前提)とチ切れるん
というか、いま書ながら気づいたけどCOMMANDLINE_ARGSは共通なのか?どっちかにまとめて書けばオッケーてわけにはいかんか
ファイルが違えば渡す先も違うからね、どっちかにまとめては無理だな
なんUにもハード勢ローカル勢いるけど基本はプロンプトスレだこっちのが向いてそうかな
RunimeError: &quo;LayerNormKernelImpl&quo; no implemened for ‘Half’
のエラーで続けるわ。
もう9時ん
webui-user.baに
se COMMANDLINE_ARGS= –skip-orc-cuda-es –precision full –no-alf
でいいんじゃね
Higres. fix時にscaleinenがFirspass widとFirspass eigに別れとる……
ps://giub.com/AUTOMATIC1111/sable-diffusion-webui/wiki/Run-wi-Cusom-Parameers
ソースを読んだ方が完璧に把握でるかもね
ps://giub.com/AUTOMATIC1111/sable-diffusion-webui/blob/maser/modules/sared.py
いまlaunc.pyに
COMMANDLINE_ARGS’, &quo;–skip-orc-cuda-es –precision full –no-alf&quo;
ちこんで試てる。
webui-user.baは–precision full –no-alfのまま。
でもスッキリまとめてぇなぁ。
_2spag_587の場合だとlaunc.pyに記載なくてもwebui-user.baへの記載だけでいけるってことかね?
まぁ、出てくる画像眺めてから.pyに記載せず.baへの記載だけでいけるのか試すか。
回転するフィギュアを動画で撮って全コマAIでimg2img
ps://wier.com/oyxyz3/saus/1581039517112602624?s=46&=qABZ33710o14Nfouqn8Ew
ps://wier.com/5can_nel (5c newer accoun)
はりカメラ目線は重要ということか
ダウンロードが始まって途中で止まって以後エラーが出て使えなくなった
よくわからなかったからもう一度インストールからり直て
祈る気持ちでresore facesにチェック入れてgenerae押たら、
今度は成功たわ。
効果はよくわからない
アニメ絵生成てない?
それGFPGANだからリアルな顔じゃないと効かないよ
ちなみに、効果はめちゃめちゃある
ps://youu.be/YF3MNuX_F0
ほーん
配置が修正されるのかと思ったら
解像度が上って美肌される感じか
だが出力結果がcmdr2と同じアスカだ。
いわゆるアスカの出力例のよなアスカと違う。
足は組んでる。腰から下素足。両肩から下も素手になってる。顔が猫娘。
椅子の他に窓がある。
GPUでなくCPUで動かているからなのか?
そんなな。ckpも.pyも同じの使ってかもシード値他も同じどか、
UIそのものがcmdr2ではなく1111で同じなのにさ。
破綻てる顔だと配置もある程度修整てくれるよ
たまに目とか鼻穴が3つとかダってたり、左右の目が違う方向向いてるようなクリーチャーを人間にてくれる
大く破綻ない限りは配置は変わらないこと多いね
CPUとGPUじゃ結果が変わるよ。シードから生成されるノイズが違うから
Sop A las layers of CLIP modelだっけ?それは真っ先に2にてる。
seingを変更点たのは以下だけ。他触ってない。
*Seing
Sop A las layers of CLIP model:2
Ea noise seed dela:31337
*x2img
Sampling Seps:28
Sampring meod:Euler or Euler a (現在Eulerで試てる)
Wid:512
Heig:512
CFG Scale:12
Seed:2870305590
Promp
maserpiece, bes qualiy, maserpiece, asuka langley siing cross legged on a cair
Negaive promp
lowres, bad anaomy, bad ands, ex, error, missing fingers, exra digi, fewer digis, cropped, wors qualiy, low qualiy, normal qualiy, jpeg arifacs,signaure, waermark, username, blurry, aris name
1111導入たら何か変わると思ったが、そうでもなかったのか。
cmdr2と同じだからなぁ。
…ネカフェのPCで…だめか。
3060位積んでるんじゃね
過程を残てくれるのはありがたい、良い結果になることを応援するわがんばってくれ
自分は1660iでwaifu150seps512*512でちょうど2分くらいです
いいgpu持ってるともっと早くでる?
というか大まかなとでは似た絵が出るようになったんだ、あとは描かせ倒せばいいのでは?サンプルをソックリにするのが目的でなければ
同じくらいの時間かけたのに全然違う
だとするとさ、
colabらドッカーら使うのもまたGPUだけで回す人と結果が変わるってことけ
その辺りのノイズ?の件について触れられている記事があったらみたいと。
_2spag_603
なんそれ
_2spag_606
ワイ
発達障害(障害基礎年金2級・障害者福祉手帳2級)・生活保護受給者ぞ
ノイズの件は普通に1111のソースにもコメント書いてあるよ
「CPUで統一た方が良いと思うけど元のソースがこうだった、
皆のプロンプトがダメになるからこのままとく」って
発達障害けん100%ないと納得せぇへんの。
旧2種情報処理(アセンラ選択)1種情報処理試験受かってるのに、
クソの役にも立ってなくてむせび泣く。
giとかpyonとか入れたの初めてないろか。
いponはあるか。でも初めてのようなもん。
使い慣れないのちこむともう気持ち悪くてゃーない。
じゃあ本家novelai使えよとなるけれどャッシュカードは使えんの。
い使えるか、生活保護から使えんな。い一括払いなら使えるか。
とりあえずは多く出回ってる設定どおりにて、顔がネコ娘で袖が無く、代わりに窓がある(背景も椅子も全て赤色)のハローアスカ。
2枚目出力たのはBaccounを2にたもので背景はグレー。腰から下は着てる。というか椅子がソファーじゃなくて木製のッチンチェア。
むちゃくちゃ……
スペックなんて情報自体が有能ならどうでもええけど、
そもそも手順書っていうのはわかんない人向けだから失敗パターン網羅つつログ残てくれるのは最優秀で
もちろん成功てくれてええんが
8枚70秒くらいかかるわ
ちなrx4090
くっそ早いww
もうこんなグラボでチンタラってるの悲くなってた
グラボ買うぞ🥺
4090の方が遅いの?スクショとかupでる?_2spag_618
GPU制限来てるけど公式のコード丸コピペたらちゃんとTPUで動かせたよ!
無料Colab勢ったな!!
と思ったけど、改造ながらエラーに頭悩ませてる間にTPUの制限も来たわ
結局制限解除待ちか
とりあえずwebui-user.baを実行た時のコマンドプロンプトの画面見せてくれ
vae.pの指定が間違ってて読込でてない気がする
素直にGPUかえ
ps://i.imgur.com/i5dd1U.jpg
Seps: 150, Sampler: Euler a, CFG scale: 7, Seed: 3683133826, Size: 512×512, Bac size: 8, Bac pos: 0, Clip skip: 2
Time aken: 1m 1.91s
Torc acive/reserved: 10645/17960 MiB, Sys VRAM: 21661/24564 MiB (88.18%)
遅いって報告は上がってるから様子見かな
TIと比べても圧倒的に上手く出力でる
Sepsは大体学習画像の100~200倍で良いってReddiで見たけどRegularizaion Imagesはどのくらいの量がいいのか全くわからん
NAIで作った200枚でとりあえずってるけど適当な枚数誰か知ってる?
ちょうど3090Ti持ってるから帰ったら試てみる
_2spag_625
なんかうちの3090TiとVRAM使用量が全然違うから、環境と使用てるモデルを教えてほい
自分はWSL2+Dockerの1111でモデルはwd-v1-3-floa16.ckp使ってるけど、バッチサイズ8の時はVRAM8GBくらいか使ってない
バッチサイズ24でVRAM22GBくらい
最適化不足でもそんなに差が出るとは思えない、何が違うんだろ…
自分がちょうど _2spag_539 で同じ質問てて、 _2spag_541 が詳く解説てくれたから参考になると思うよ
ありがとう
同時に複数Subjec学習出来るつでってて1ャラ20枚5ャラ100枚で学習させてるけど200枚で大丈夫そうだな
NAIアニメ絵学習させる場合は配布されてる普通のPersonとかのつよりも自分でNAI使って適当に作った方が良いって認識は合ってるのかな
うっひょー
報告あるんだ
Deepspeedがインストール出来なくて詰んだ
ググった感じTrionの1.0.0が必要だけどWindows版は0.3.0までかないっぽい
ほんとそれ
アクセス数は多いけどわりとょうもない面白情報まとめてるサイトの印象だったわ
急に日本語版公式ドュメントみたいな立場になっちまった
でるだけ自分の絵柄ポージングを残つつAI塗りをてもらうにはどんな設定で作成たらよいでょうか
環境は1111のwaifu1.3です
正則化画像って、例えば「白い」を学習させたいとに「」の概念を覚えさせるものって感じ
つまりアニメ絵学習させたいとは「person」より「girl」の方がいいと思う
ただ、網羅性も重要だから変にプロンプト凝ったりネガティプロンプト入れたりはせずに、「girl」のみで生成た方が良い
SDはそういう目的のAIじゃないので向いてない。こっち↓のAIの方が良さそう
ps://giub.com/lllyasviel/syle2pains
venv &quo;C:\sable-diffusion-webui\venv\Scrips\Pyon.exe&quo;
Pyon 3.10.8 (ags/v3.10.8:aaaf517, Oc 11 2022, 16:50:30) [MSC v.1933 64 bi (AMD64)]
Commi as: acedbe ハッシュ
Insalling requiremens for Web UI
Launcing Web UI wi argumens: –precision full –no-alf
Warning: caug excepion ‘Found no NVIDIA driver on your sysem. Please ceck a you ave an NVIDIA GPU and insalled a driver from p://www.nvidia.com/Download/index.aspx’, memory monior disabled
LaenDiffusion: Running in eps-predicion mode
DiffusionWrapper as 859.52 M params.
making aenion of ype ‘vanilla’ wi 512 in_cannels
Working wi z of sape (1, 4, 32, 32) = 4096 dimensions.
making aenion of ype ‘vanilla’ wi 512 in_cannels
Loading weigs [925997e9] from C:\sable-diffusion-webui\models\Sable-diffusion\final-pruned.ckp
Loading VAE weigs from: C:\sable-diffusion-webui\models\Sable-diffusion\final-pruned.vae.p
Applying cross aenion opimizaion (InvokeAI).
Model loaded.
Loaded a oal of 0 exual inversion embeddings.
Running on local URL: URL
To creae a public link, se `sare=True` in `launc()`.
こうなってる。ハッシュとURLはなにかあったらこまるから伏せる。
50とそんなに変わるのか
なんならアニメ調の絵は30くらいでも十分かも
実際30超えたあたりからポーズの破綻が少ずつ増え始めて、50付近から構図の画一化が起こっていく感じはある
②本来のgirl出力(正則化画像)&l;==&g;promp=girlの出力
①の距離だけを近づけていくと、過学習起こたとに②の距離が次第にずれていく。
②も同時に近づけるとgirlの概念のずれを起こさないけど、
1ャラだけの学習で他ャラを出力させないなら割と別になくてもなんとかなる。
WSL2+dockerでイメージをnvidia/cuda:11.6.1にてpyorcのバージョンを11.6にてる
xformersインストールする方法がよくわからんかったからこの辺自己流
reg emplae smalles
&quo;po of a {}&quo;→&quo;{}&quo;
に変更て
覚えさせたいャラの特徴で吐出させた方がいいのかね
ありがとうございます!試てみます!
環境も同じっぽいっぱり最適化不足なんだね
4090の本気が見られるのはまだ先かー
SDに関てはまだ変身を残ているとか思えばいいかなと
ANDもあまり上手く機能てない
がんばって
自分も詰んでる組だから
も出来たらまた報告に来て欲い
ちゃんと読み込めてるな
他の設定も合ってるみたいだ、CPUとGPUの差が濃厚っぽいな
まだ読んでないけどgigazineがkindleに無料の解説本だてた
この技術なんか凄そうだけど
中国語でよくわからん
pixivをクローリングてプロンプトを最適化たらいけど
ps://giub.com/AUTOMATIC1111/sable-diffusion-webui/issues/2613
正い使い方はなんだったのか
ごくごく普通のノートパソコンにGPUボックスとRTX3060をつないで、お絵かソフト(Sable Diffusion)を動かてみまた
ps://k%61sumakazuyo.%61enablog.com/enry/2022/10/14/225419
別室に2060superのデスクトップがあるけどノートでりたい、リモートデスクトップだと出先ででないということらい
リモートデスクトップも試ていた
Sable DiffusionのリモートデスクトップとGPUボックスの使い勝手の違い
ps://k%61sumakazuyo.%61enablog.com/enry/2022/10/15/094147
anime girlだけで生成たの使ってたけど考えとては悪くはなさそうだな
ありがとう
1111のgradioの機能でデプロイすれば出先でも使えるよな
グラボ持ち歩くよりこっちのほうがいいだろ
それっぽい報告は複数あるけど解決策出てないんだよな
ps://giub.com/microsof/DeepSpeed/discussions/2408
ps://giub.com/microsof/DeepSpeed/issues/2099
ps://giub.com/microsof/DeepSpeed/issues/2191
メモリ8GB,内蔵グラボのノートから、メモリ64GB,RTX3090Tiのデスクトップを操作てる
記事ではUIが小さいとか言われてるけどそれはCromeリモートデスクトップ使ってるからで、Windows内蔵のリモートデスクトップなら解像度に合わせて調整てくれるのでおすすめ
注意点とてはホスト側はProライセンス限定であること、RDPポートを直接開放するのは危険なのでVPNかSSH転送かで一手間かます必要があることくらい
画像まであげるとは攻めてるなー
ごめんKindleUnlimiedで0に見えてただけだった
1枚5分くらいで生成てくれることでょう
4GBあればなんとかなるぽいから中古でよさそうなの探てみようぜ
4canに750Tiで動かてる人おったから多分2Gでも動く
せろ。さっまでなんUのnoberlAIスレで初期値がとかで意見ようとてて、認識でおけ?で理解てるくらいからな。
つまり何が言いたいかというと、何度も起動たり終了たり何度も同じシードEa noise seed dela:31337を入力て、
覚えてまったということ。
むろ今日一日?昨日から?ずっとハローアスカかみとらん出力ていない
もう窓がでてくるアスカがトラウマ。
そこも問題ないはず
ckpと.vae.pyも最初の段階で同じネームにてちこんでる
ハイパーネットワークスの関連も間違いなくどこかの指示通りちこんでる
なんUのスレをみててアシカの出力でオイラーを設定
ps://renry.org/voldy
If you ave 4GB VRAM and wan o make 512×512 (or maybe larger) images,
use –medvram.
If you ave 2GB VRAM,
use –lowvram
俺も探てるけど見つかってないな
ポジティにもネガティにもcaとか入れると多少調整でることに気づいてからは大分楽になったが。
複乳もまだ再現でてない。先は長いな。
ローカルでいうui-configのcoun/maximumがどこに
あるか分からないです・・・
素人質問すみません・・・
colabだと毎回新規ファイルとて生成されるから
Googleドライに置いといて下のように指定するとそこから読み込んでくれる
(下記はGoogleドライにseingsというフォルダを作ってそこに入れた場合)
ui_syles = &quo;/conen/drive/MyDrive/seings/syles.csv&quo;
ui_seings = &quo;/conen/drive/MyDrive/seings/config.json&quo;
ui_conf = &quo;/conen/drive/MyDrive/seings/ui-config.json&quo;
!COMMANDLINE_ARGS=&quo;–sare –gradio-debug –gradio-au me:pass –ui-config-file {ui_conf} –ui-seings-file {ui_seings} –syles-file {ui_syles}&quo; REQS_FILE=&quo;requiremens.x&quo; pyon launc.py
エロスレに試てる人いる
venv消て実行直たけど同じエラーが出た。バージョンとか何か環境に違いがあるんだろうか
無事設定でまた!
窓アスカの原因わかった
イムガーのチェック例すべてみてなかったものなぁ、
はりCPU原因わ
are you a cpu oaser bro? i don’ know wy, bu running webui in cpu-only mode yields compleely differen resuls. (bw my new-is lapop ran is a 15s/i, i’m praying for you…)
あなたはCPUトース??ターの仲間ですか?理由はわかりませんが、CPU のみのモードで webui を実行すると、まったく異なる結果が得られます。 (ちなみに、私の新いラップトップはこれを15秒で実行また。あなたのために祈っています…)
(ファイル構成設定は)
CPUトースターということ。食パン食いたくなってたな。生活保護+障害年金から節約せんとなぁ
適当な画像出力ながら
初期設定の入力省く手間の回避でjsonいじるのと、
ネカフェにPCごとUSBメモリーカード持ち歩くためのセット作りに走ろう
ネカフェpcったら速いろう多分
それか、sep数踏めば銃ミリタリー系の色消えるもの?
例えば差分が5枚ある絵だったとて、ほとんど構図が同じだったらそのうち1枚だけ学習させるべ?それとも別に気にする必要はない?
みんなは学習用画像を選んでると気をつけてることとかある?
スペック記載てる店は少ないからバクチけど、せめてハイスペゲーミングPCの席選んで
もともと意味を持ってる単語だと、単語を持つ意味を解体ないといけなくて精度も落ちるとか
あと複数のトークンに分割される単語も良くない
sksなのは適当に選ばれただけらい
だからGoogle翻訳で英→日で翻訳て英単語そのまま出るような三文字以下の単語を適当に選べばいい
例えばslsとかbsbとか
結局学習てる言葉である以上何らかの意味は持ってるんだから、武器覚えさせたければsksから始めて、車覚えさせたければslsから始める
みたいな事ないと変なのが混じる気がする
入れてみて謎の抽象画に近いモノが出てくるのを探すかないが恐らくそこまで適たモノは見つからないんじゃないだろうか
っぱ有料サービスは強いな
本当はコスパいいからAMDのRTX6600買おうと思ってたんけど8gbなのよね
SableDiffusion目当てでRadeon買うのはのすることだから絶対にめるように
radeonは機械学習系のプログラムに対応てないこと多いからめとけ
sablediffusionもまだ対応てない
いつかはするらいけど
絞ってるから安定てるとか言うのもあるけど、トークンの関係性から忖度する能力がかなり高い。お城の一室の女の子に首輪と鎖をつけると自動的に地下の調教部屋に引っ越てくれる程度に高い
ただmacテメーはダメだ
Googleドライに課金ようから
調べてみるとDirecML上で動かす方法とかあるみたいです
ただ素直にRTX3060にた方がいいか…大は小を兼ねるとも言う
美少女ならsisがいいかもw
siser系の語に類するのだが、
SKSカービン色が出るよりま!
使い分けるまでも無くHNが完全上位互換じゃないの?
100000sepsまで15時間
ckpを雑に入れればOKだとても100GB以上あったら手を出にくい
これいらないからオフにたいのだけど、どこいじれば良いかわかる人いる?
_2spag_712
TI(画風の学習)→プロンプトに味付け
教えた画像群の画風を「S*」とかの単語に圧縮て、プロンプトに加えて使う
×学習時のモデルで使わないとダメ
(そのモデルの特徴を使って画風を覚えさせたEmbeddingを作っているため)
dreamboo(特定の意味を加える→ャラとか覚えさせる)
教えた画像群の意味を覚えさせてモデルに加える
→sksとか教えた意味が呪文で使える
ypernework(画風の学習→生成後半に味付け)
モデルは変えずに、教えた画像群のスタイルを覚えさせて、後付けのちっちゃいモデルを作る
生成時に使いたいモデルと一緒に使うと、学習た画風が全体に適用されて出てくる
Waifuで学習させて、ノーマルSDTrinで使うこともでる(そこがTIとは違う)
TIとHNが似てるが、モデル専用かどうかと、使い方がかなり違う
TIでは、覚えさせた被写体の色合い・種類・画風を「S*風」とてプロンプトで指定て使う(学習と同じモデル専用)
HNは、何も指定なくても、どの生成にも画風を無理り適用て出てくる(どのモデルと一緒でも使える)
→NovelAIは、厳選Animeデータで覚えさせたアニメ風のyperneworkを使ってた
ソースファイル見た限り無効化する設定項目は無さそう
直接ファイルいじってもいいなら
javascrip/edi-aenion.jsの2行目に「reurn;」って書いた行を挿入で無効化される
あと現状ではyperneworkはひとつか適用でないけど、TIはいくつでも同時に使える
ただTIは繊細でトレーニングデータを他のモデルに流用ようとすると破綻すい
でもSD1.4スタンダードモデルでトレーニングておくと
他の派生モデルにトレーニングデータを流用ても比較的破綻にくくなると思われる
一長一短だなぁ
そうすると、TIの意味って、ニッチかもれん
大仏画像ばっかり覚えさせて、大仏風~とか呼べるのはTI。
TIで「大仏風のトトロ」と描かせると、トトロの大仏が出てくるw
HNだと「トトロ」と描かせると、大仏画像の色合いとか画風のトトロが出てくる(たん大仏にはならない)
か今後vaeの学習とか、更に新い機能出てた時に何を使うかますます悩まくなりそう
TIは複数使えるのは利点かもね(別の語にすればいいわけで)
なるほど大元のSDでTIておけば、派生モデルでは使えなくもないのか(でも破綻すい気はする
)
VRAM 全然使わないようになってね
同時作成枚数も上げても意味を無さなくなったような
画風を複数作っておくのはHNでもTIでも切り替え可能。
HNは一度に一個か使えなくて、どのモデルでも強制適用。
TIは、同時に複数をプロンプトで呼べるけど、実用上は学習たモデル専用な感じ
問題は様々な組み合わせを試すにはあまりにも面倒なことだ
そこまでて公式の推奨じゃない環境で動かたいなら好にすれば良いと思うけど、調べる能力無いと詰むよ
○○でも動くとは書いてあるけどissues見れば結構な環境でエラー出てるんで、コマンドラインの知識無いならめたほうが無難
みんな使ってるものなら対応も早いググったら出ることもあるけど、そうじゃないとエラー見て対処てくことになるんで
速度効率を求めず環境構築と試行錯誤を楽めるならRadeonもあり。 Diffusers0.5.1だと
pipeline sable diffusion_onnxx.pyと
使用するスケジューラのほうも修正たら動いたよ。
だいたいnumpyとensorでエラーが出るからググるとensorに変換すればいいって出てくる。
今はcowboy_so使ってます
_2spag_733
俺手元にradeonばっかりで本当後悔てる
6600xと6700xと6800あわせて28枚あるが機械学習系でGPU使うと毎回後悔てる
俺みたいにくじるなよ🥺
色々察てくれ。
昔からAMDユーザーなんで後悔はてないが人にはデファクトスタンダードを勧める。
RadeonでDirecMLは試たけど、メモリ不足で動かなかったな
ググるとモデルファイルの3倍のデータ量を
メインメモリに展開するとかでめちゃくちゃメモリを食うらい
メインメモリ24GBで動作ないから、おそらく32GB以上はいる
その後同じプロンプトと透かのない自前の画像でi2i
そたら上記サイトの透かが入った画像が出力される
どういうこと??
公式のスクリプトでモデルを持っててるがモデルフォルダは5.1GB
TIでもHNでも一応でるよ
本家では{}[]があるらいけれどローカルはどれも()だけという認識でいいのかねぇ
そのために、さんuでは
(を[
)を}
266行目の(を{
269行目の)を}
271行目の()を{}
316行目の1.1を1.05
317行目の1 / 1.1 を 1 / 1.05
329行目の'(‘を'{‘
335行目の’)’を’}’
に書換えて
この書換えを
さんu(なんUのスレでもそうだけれど)本家で慣れている人がローカルでも同じ構文を使えるようにカスタマイズているという
ことなのだろうか
SeingsのFiler NSFW conenは外てるけど上手くいかない…助けて
【NovelAI】AIエロ画像情報交換 4【Waifu Diffusion】
ps://mercury.bbspink.com/es/read.cgi/erocg/1665317109/
ありがとう
ちょっと行ってくる
ありがとう。試てみる
ふむふむメモとて自分で書いて自分で調べて結局誰かの解答がくるまえに自問自答てまった
これが発達障害精神2級のメンタリズムよ
cmdr2からたた上げで本家一切触らず無料でイクを通てた男
いま本家と1111両方の原文読んでいた
あらためて、
括弧()で囲むと強調され[]で囲むと弱めに これが1111
括弧{}で囲むと強調され[]で囲むと弱めに これが本家
つまりさんUの217で記載されていたのはそういうことか
でもまてよ、だったら[の変更点はあるけれど]の変更点がないぞ?216行目か269行目が)になっているからどちらかが]である誤植か???
1111でも{}解釈てくれない?
「Colabでgiを使うには」「SourceTree導入でないか」
と色々試てて、今sar SourceTreeSeup-3.4.9.exeようとてエラー吐いてるんだけど、
もかてColabってPyon上で実行可能なファイルか実行でないとかある?
カレントディレクトリはrooだったのでその配下に置いたからパス問題ではないはずだが
colabはlinuxだぞ。windowsのバイナリが動く訳ない
giは何もせんでもコマンド使える
ありがとう、っぱそういう根本的なとこだったか
そんでLinuxサポートてないのな、代替GUI探てみるわサンクス
ps://qiia.com/solmin719/iems/f174aab0fc73ddbc9cdf
!wgeみたいに
逆にコマンド全部自動化でるから毎朝環境構築てもあんま困んなさそう
マシンスペック関係なく誰でも使える標準化た手順作りたいんだよね、今後もSDベースが出るなら役立つだろう
記事のコピペでGiHubまで通ったけどなんで!あんのかわかんなかったがなるほど、サンュー
img2imgの「Scrip」>「Poor man’s oupaining」で
Oupainingするんだ
「Up」だけ選んで64・128とか拡張たいピクセル数入れて
Generaeすれば、切れてた頭の上が追加で描画される
ps://i.imgur.com/YTrrFiM.png
シードがランダムになってるからじゃね?
あーなるほど、トレーニング中のステップごとの画像出力でもx2imgの設定が使われるから、x2imgタのSeedを固定た数字にておくべなのか
試てみます
イムガーのエラーリストにあるものと完全一致同になったのが大い
つまり構築に問題はな。環境が問題。
原因はCPUで回すから。そらそうか。
ポイントとて、チェックするとはオイラーで。
紛らわいのはここだな。
他の解説とかではオイラーaはENSD入れてとか書かれているから、
そっちに気持ちもっていかれてオイラーでもENSD入れがちで出力そうになるのかなと
というよりオイラーaで出力ようとて、オイラーで出力されたものと比較てあれ違くね?にもなった
cmdr2での窓飛鳥と1111の窓飛鳥は同じオイラー出力でも差が大い
差というのは構図は同じだがエラーリストにある絵とは雲泥の差の出力でcmdr2はされること。
とで、1111でseingsのリセットってどうるんですかね。
おかいのうapplyseings押たからかのう
ui-config.jsonじゃなくてそうか、configジェイソンか
もうメモ帳がわりなこのスレ、すまんな
たかにconfig.jsonに呪いの数字31337あるものな
そうか、これSeingsとx2imgの項目別個ってことか
1つにまとめろ怒
遅いのはxformersなのかな?
昨日?から初めてのギフハ、はじめて?ではないか、パイソンとて
よく見かけるアイコンのドッカー。OpenVINOはらね。
試すのもありよな
何度見てたことか
昨日は大人の対応で無視てたけど、俺も流石にウザくなってた
どうらgradio.appが重すぎるんだよね。
radio.appのかわりに ngrokが使えるから、同じように不安定な人は試てみると良いかも。
起動引数で、–sare の代わりに –ngrok トークン とすると、ngrokが使える。
これでだい安定た。
でもなぁワイはウザイと言われるとる気になるんよ
そもそもワイ登場時から
次からワッチョイいれねとか書く人がおったからなぁ
それと人間褒められてなんぼよ
貶されてもなんぼで
若い子にはそこがわからんろなあ
図々くいくん
radioの問題だけど、参考までにgiubの情報も載せとく
ps://giub.com/AUTOMATIC1111/sable-diffusion-webui/issues/344
課金の 100コンピューティングユニットってどのくらい使えんの??
何を学習させたかは伏せるけど上手く行過ぎて戦慄てる
っぱりVRAM24GB使うだけあってクオリティすごいね
待ってたら回復するよ
100コンピューティングユニットだと無料枠と同じGPU(Tesla T4)で50時間くらい使える
正則化画像のクオリティは拘った?自動生成データセットは酷いの多くて毎度うっすら気になる
3090欲くなるんけ…
250枚ともなるとステップ数も凄いな
時間どんくらいかかるんそれ
正則化画像はwd1.3で1girlとだけ指定、ネガティプロンプトは無、ステップ数は40
むろ変に正則化画像にこだわるとモデルの柔軟性がなくなるから、完成後にプロンプトをこだわった方がいいと思う
_2spag_784
3090Tiで約12時間かかった
出ていいでょ
見せてくれませんか
_2spag_787
権利関係とかを気にているわけではなくて、ャラクターエディットがかなり自由なゲームで、本人に許可取った上でそのフレンドのスクショを大量に集めて学習させたのよ
だからあまり画像は上げたくないかな
ただ、そのフレンドをマクドナルドに行かせる事も自転車に乗らせることも触手責めさせることもでて戦慄てる
メモリが足りなくて泣いた
12時間ワロタ、すげえな
そんくらいあると学習元とほぼ同じポーズとかあっても気づかなそうだ
脆弱性が発見されたとのこと
ってる人いないと思うけど–saredオプションつけて動かてるとPC乗っ取られたり情報漏洩する可能性あり
スレッド
ps://www.reddi.com/r/SableDiffusion/commens/y56qb9/securiy_warning_do_no_use_sare_in
まあそのうち情報が出てくるんだろうけど
使ったことないからわからないけど
gradioにちゃんとパスかけてれば問題なさそう
つまりは1111で低スペックPCでGPU使わずCPUで回すと
イムガーにあるハローアスカちゃん窓付になる
ハローアスカちゃんはサンプラeulerでするものっぽいけど
その時のENSDは数値いくら変えても出力結果には変わらん
ただ1111とcmdr2では明らかに絵そのもののクオリティが違う
そもそもcmdr2の結果はイムガーには載ってない(そらそうか1111での出力結果例だな)
で、そのあと本家に合わせてeuler_aでENSDに数字ち込んでためすと
窓がいい具合な窓というか障子になってくれるのがたまらん。
ちなみにいまeuler_aでENSDを初期値の0にてどうなるか試てる。
cmdr2からすっと1111に切り替えて正解ったで。
そらENSDに数字入れろ言うわけわ。
でも大まかな変更点はそれほどない。いあるか。
でもcmdr2のような低いクオリティのものはでてこない。
勉強なったわー
512にたら荒くなる、数値を大くすると首が増える…
前のscaleraenの時って内部の設定幾つだったんだよう
といっても居座るが
これ、1111導入当初でdos窓から落ちてpyファイルbaファイル書換えたのが原因かもだけれど、
本来?よくある手順サイト他のスレでもwebui-user.baから起動ているとを、
俺はwebui.baで起動ているんよ。
逆に、webuiーuser.baから起動ようとすると何かーを押てくださいで落とされる。
原因なんだろなぁ、webui-user.baへの記入漏れか?
いでもwebui.baで起動でている…
本来webui―user.baへ記入するべのがlunc.pyなんかに記入ててそれでuser.baから起動せんのかなぁ
結果的にwebui.ba起動だとうまくいくと。
順序的にはみなwebui-user.baから起動ているということはいた、
webuiーuser.ba→webui.ba→lunc.pyなんかな?
うーん
webui-userに書いていないのが原因な気がてた
というかそもそもlunc.pyに記述せず、
webui-userに記述たらいいってことけ?ことけ?だよな?
…そういどこにおれ記述たかな
それだけ保存て、1からり直てまえば
diffでどこ変更たかもわかるな
というか、userに――ダンボールいれたらなにかおいいことあるんけ
あとxフォーマーとかいうの。
それは省いていたからなぁ
embeddingだとイマイチだTIだと絵そのものが変わっちゃうから困るんだよなぁ…
この辺の正い使い方あると嬉いんだけどな
dreambooってのがいるんかなあ
NAIでもそうそうれいに出ているわけじゃない
アクセサリーとかエロネタ系だったり
有識者さん教えてくださいm(_ _)m
35 今、天王星のwiki見てたら軌道傾斜角(i) が0.774°だった (JP 0H4f-2+dy) 2022/10/16(日) 20:05:36.55 ID:zjEwfYITH
セュリティ警告Auomaic1111 webuiで–sareを使わないでください!2日前に公開されたリモートコード実行の悪用、gradioのリンクを検索ている人がいる。
Exploiはこちらで共有されています: ps://giub.com/AUTOMATIC1111/sable-diffusion-webui/issues/2571
(中略)
以前、この件について投稿を行い、追加情報を集めまた。もあなたが –lisen を使っていて、公共のネットワーク上にいるのなら、あなたもまた危険にさらされるかもれません。か、最も危険なのは –sare を使った場合です。人々はこのインスタンスを検索ています、悪用方法も公開されています。
たんlaunc.pyを書換えたのは良くなくて、
webui-user.baだけ書替えて実行すれば動くはず。
se COMMANDLINE_ARGS=
の右にはスペース区切りで複数書けるから入れたいつを全部書く。
だけど、もそれで動かんなら力になれんわ。
Ngrok経由なら大丈夫ということでょうか?
それはinpainかないんじゃないかな
なるほどねー
正い位置に出たらそのままでいい増え過ぎたら削って感じ?
新くは書込めなかったよね…?
元絵の任意の場所に出たいアイテムの大まかな形状と色を塗る。
塗った部分をマスクてアイテムのprompを指定てマスクてインペイントをかける
ガチャる
これで概ね、何とかなる
なるありがとう。
自分も無料Colabだけど、丸一日経った頃には大体復活てる感じ
最近は毎晩2~3時間くらい遊んで制限来て寝るルーチンてるわ
でも何日も規制されてるってレスも見るから、使いすぎると復活遅いとかそういうのもあるかもれない
ngrokでも同じじゃないかなー?とりあえずパスはかけておかないと
現状Nvidiaが強すぎるわけだけど、MacはNvidia手を切っているので…
グラボが重要になる分野ではMacという選択肢はない
3Dとかでもそう
このままだとMacはスタバでドるためだけのパソコンになるだろうな
_2spag_823
さんゅー。とりあえずばらく待ったら復活た。
無料だとトレーニングはなかなか難いかもねー
俺も入れてから出るようになった。SepScale上げてあげると回避でることはあるけど
発生条件はよくわからんんね
機械学習は今も昔もpyon一択じゃねえの?
SDは単にWindowsでも楽に実行環境を作れるってだけの話じゃろ
To creae a public link, se `sare=True` in `launc()`.
て出てるのまずい?
(ローカルではない)publicなリンクを作るためには’sare=True’にろよ、って言ってるだけだ。
ローカルの方はなんか手順書書いた人によって入ってたりするらい
そもそも入ってなかったのかも
それ以前のは悪影響の方がでかい
3000以降でなくて?
画像が多すぎると無理なのか
生活保護ナマポ+障害年金2級精神ワイの見解と
危険もなにもリークをダウンロードていることでそれは承知の上だ
novelAIがもとにているのが許可な転載サイトの絵だったりでそれを承知の上だ
そういうことろ
いまさらという
自前の学習データ揃えると両方でアバターメイクみたいなのも出来ますかね
理想のアバター像の生成とかそんな方向で
一旦、20枚ぐらいに厳選て、学習率も5e-5ぐらいの粗いとから始め、
ログで損失率の推移PNG見て過学習0生成がで壊れるステップ数を確認た上で、
どれだけの枚数食わせるか、学習率を下げるかを検討たほうが良いと思う
まぁ、起動てよじゃだめだからな。煮詰めないと。
どれにてもどうておれはwebui.baで起動ていたのか記憶にございません。
色々な情報から、launc.pyのここ書換えてとか、webui-user.ba書換えてとか情報みててそれぞれって、
最後押たのがwebui.baでたまたま起動てくれたのが混乱の原因だな。
ちょっと前までは、gi bus ereて即webui-user.ba書換えて(つまりckpとか入れるの忘れて)起動てあれ?となっていたからな。
もうあらかじめリネームてある調理済みを作っておいた。
ついでに今もういちどハローアスカで確認ている。
準備良だな。なお、
–skip-orc-cuda-es –precision full –no-alf –medvram をち込んでいる。
というより、–medvram は入れていなかったから、入れるのと入れないのでスピード変わるかどうかだなぁ。
1111公式のオプション設定すべて読み切ってないな。
インテルグラフィックス5000がCUDA対応ていないことがもう恨み節になってて、
cuda回避のオプションとCPUだけで回すことになるから軽くすることだけのオプションか注視ていなかった。
というよりだな俺ってこれまでずっと飛鳥か出力てないんじゃねってことなんだよな。
正規化た画像と間違えて元画像使って15000ステップ回てまったけど、
十分実用に足るものが出来てまった
6万ステップで破綻たから戻って学習率1/10にてり直てる
てかいろいろ調べたらステップ数は1万程度で十分みたいな意見がおおいな
画像もそんなに枚数いらないのか
いまあ大く外れてはいないけど
てか逆にsks入れるとNendoroido要素無視てくる
これは過学習なのかな?
dreambooと比べて気軽に組み合わせられるのは魅力だ使っていたいね
出回ってる追加学習たつってprune済みfp16でも4GB近くある理由って何なの?
SDはともかくWDも同じ追加学習なのに2倍近くサイズ差があるのが謎なんだけど
謎なんだけど、NMKDで剪定ちゃえば同じ生成てくれる2GBのモデルは作れる
破綻するステップ数を確認たら
最初からり直て破綻する前に止めるってり方で合ってる?
prune済みfp16でも小さくなるって事?
どうればいいの?NMKD使った事なくてよく分からん
Tiよりは大分いいな
yperneworkの1111版を説明てるサイトとかない?
ps://kirarico.ne/memo/2174/
これの
&g; でたファイルはexual_inversionのフォルダに入れられるのでそこからembeddingsのフォルダにコピー試てみて何STEP目のpファイルを残すかを厳選する
pファイルって駄目なのを自分で消たりするものなの?
途中経過で作られる画像自体には意味ないよね?
pruneスクリプトが9/28以降おかいからじゃね
作者は新いの使ってるみたいだけどそれだとprune前後で出力内容が変わる
ps://giub.com/arubaru/waifu-diffusion/commis/main/scrips/prune.py
なんか知らんけど、fp16に剪定すると2,083,065KBになる。
waifuの公式剪定モデルはfullとちょっと結果が変わるけど、
NMKDで剪定するとなんでか変わらない。他の剪定ツールの事情は知らない
使い方
NMKDをインストールて起動。
右上にアイコン並んでるメニューあるから、develoer oolsを選んで、
さらにpruned(rim)modelsというのを選
プルダウンからfp16を選択、Prune!を押す。
ちょっと待つ。以上.
で、NMKD1.6でDBが動くようになった。VRAM24GB必要だけど
ありがとう、どちらも試てみるわ
流石に5-6枚では無理か?
公式のインストール手順だと依存関係のインストールに問題があってエラー吐く
解決方法は以下のURLに書いてるけど、ターミナルで
bas -l -c &quo;conda acivae web-ui; pip insall jsonmerge einops clean-fid resize_rig orcdiffeq lark gradio fasapi omegaconf piexif fons fon-roboo pyorc_ligning ransformers kornia realesrgan scune imm&quo;
を実行すると依存関係の問題が解決する
ps://giub.com/sd-webui/sable-diffusion-webui/issues/1518
あとは、run_webui_mac.sを実行するだけ
ここからは質問なんだけど、公式の依存関係に問題のあるシェルスクリプトがこれなんだけど
ps://giub.com/dylancl/sable-diffusion-webui-mps/blob/maser/seup_mac.s
104行目の
pip insall -r requiremens.x
が機能てない理由わかるAnaconda環境に詳い人がいたら教えてほい
これ自分もmacのデフォがzsだからパス通ってなくて、basからcondaコマンドでインストールなゃいけないんじゃないかと思って試てみてたんだよね
pip insall jsonmergeと明示するとインストールでて、pip insall -r requiremens.xだと駄目な理由知りたい
ちなみに、requiremens.xにはjsonmerge 1.8.0についてちゃんと記述されている
次にエラー吐いたとは自己解決でるようになりたいす
さっろうとたらエラーになっちゃった
モデファイてないのにモデファイ済みだからアップデートでないと出る
これ強制上書にちゃっていいのかな
VRAM24GB必要なので、3090か3090Tiか4090(とQuadro)か使えないけど
ps://wier.com/naclbbr/saus/1581876642200244224?s=46&=Y8r7gPiC2mM-zVcHKTPiA
ps://wier.com/5can_nel (5c newer accoun)
バラ付の少ない顔画像だと5e-06で3000sepくらいで既に崩れ気味になってくる
yperneworkもTIと同じで過学習すると再現度が下がるからある程度ステップが経過たら
途中経過のpファイルで試て丁度いいステップ数のデータを探せってことでょ
ちなみにembeddingsじゃなくてmodels/yperneworksフォルダだけど
405MBかないauoencoder_kl-f8-rinar_caracers.ckpはどう使うものなのかな
vaeだろう? waifuと同じ感じの
ファイル名も同系列だ
5e-5:100, 5e-6:1500, 5e-7:10000, 5e-8:20000
まあ、Waifuと違ってサイトの構成そのものが同じと言っていいから余計にそうなるんだろうがw
テストプロンプトでmaserpiece, bes qualiy, embeddings名みたいな感じにて回すとステップ進むにつれて粗い?塗りが古い?感じになっていっちゃうんだが
これってャラ学習すると同時にデータの絵柄も学習されていっちゃっててmaserpieceよりもそっちの絵柄の方が強く出ちゃってるってこと?
作者気にせず画像集めてるんだが偏っちゃってるのかな
models\Sable-diffusion に入れればいいんですか?
バッチサイズ1で20000ステップとバッチサイズ2で10000ステップは大体同じになるのかな
1Epocの数も半分になる合ってると思うんだが
medvramのあるなでメモリ使用量と速度がどう変わるかね
対象を3次元的に解釈てどうこうみたいなことはてないって感じの理解でいいんかな
例えば りんご,俯瞰視点 みたいなワードで生成を試みるとて
参照するのは りんご 俯瞰視点 とタグ付けされた2次元画像の描かれ方であって
りんごを3次元的に理解て角度変えて描画てるわけではないみたいな
rinの更新来てるじゃあん
waifu1.3はつまらないな
一山いくらで売られてそうな萌絵か出ない
2060でも買ってこようか真剣に考えてる
Hypernework解説てるのこれかなー。ちゃんと見てないけど
ps://www.youube.com/wac?v=1mEggRgRgfg
顔だけ5枚くらい放り込んで作ってもらったら微妙な出来だったけど…
顔全身の画像を含めて100枚くらい入れるべなんでょうか
すまん、vaeについていけてない。どう使えばいいの?
NSFWって入力てもビーチクもコーチンも出てこないんだけど
もそうならもう使う理由が無いんだが
今ってみたけど今まで通り出るよ
Fullにてないオチ
auoencoder_kl-f8-rinar_caracers.ckp
を
rinar_caracers_i4_v1.vae.p
にリネームて、rinar_caracers_i4_v1.ckpと同じようにmodels\Sable-diffusionに入れればいいのかな
NAIも同じようにanimevae.pを[novelaiのckpのファイル名部分].vae.pにリネームてmodels\Sable-diffusionに入れるとかあったけど、これなくてもアスカテストは通ったんだよね
VAEはよくわからんがっておこう
ps://i.imgur.com/lBJTIWH.png
かNAIになれてまうとプロンプト開発ツいなー。こんなにじゃじゃだったかな
まあ、ある程度劣るのはゃーない
立体要素はないと思う。ただ切り抜みたいな事はってる
この画像で言うとこの部分がリンゴだよ、みたいな
ありがとう!
colabはwgeでモデルとってくるとをこんな感じにすれば良さそう
!wge –eader={user_eader} ps://uggingface.co/naclbi/rinar_caracers_19.2m_sable_diffusion_v1/resolve/main/rinar_caracers_i4_v1.ckp -O models/rinar_caracers_i4_v1.ckp
!wge –eader={user_eader} ps://uggingface.co/naclbi/rinar_caracers_19.2m_sable_diffusion_v1/resolve/main/auoencoder_kl-f8-rinar_caracers.ckp -O models/rinar_caracers_i4_v1.vae.p
ごめん、このwgeのコマンドは間違い。
vae.pが ckpと同じ場所、
sable-diffusion-webui/models/Sable-diffusion/
にないとダメだわ。
こんな感じになったら、VAEがロードされてるはず。
Loading weigs [d64dab7f] from /conen/sable-diffusion-webui/models/Sable-diffusion/rinar_caracers_i4_v1.ckp
Global Sep: 101319
Loading VAE weigs from: /conen/sable-diffusion-webui/models/Sable-diffusion/rinar_caracers_i4_v1.vae.p
Applying cross aenion opimizaion (Doggex).
Weigs loaded.
ャラを学習させたいんだが、学習後、2i実行ても全然反映されない。
下記手順でってるんですが、どこがいかんでょうか?
・使用ツール:WebUI 1111ローカル版、waifu1.3(NAI未使用)
・りたい事:赤い髪の女性ャラ(AKAKO)を学習させたい
1.画像を20枚用意(紐づけるexファイルの内容は「a woman wi red air」等)
2.空のHyperneworkファイル名を「AKAKO」で作成
3.5e-6、10000sepで学習。学習時のプロンプトは「AKAKO, 1girl, solo, wie background」
&g;100sep事に出力する学習途中、および完了時のimageでは赤髪の女性になっている。
4.学習完了後、seingタのHypernework設定を「AKAKO」を指定てApply seingクリック
5.x2imgでプロンプトを「AKAKO, 1girl, solo, wie background」で実行
・・・学習た特徴のない(赤毛でない)ャラが作成されてまう。
(「a woman, 1girl, solo, wie background」でもだめ)
5e-5、3000ステップを目処に試行する
ャプション生成はdeep danbooruを使う
学習用プロンプトのャプションに 赤い髪 の指定を入れない
学習用テンプレートテストの中身は、
[filewords]
anime screencap, [filewords]
ぐらいにておく
自分ならとりあえずこんな感じで試すかも
ps://i.imgur.com/QSbVPOy.jpg
ps://i.imgur.com/sS7R7xx.jpg
ps://i.imgur.com/FiN0H.jpg
ps://i.imgur.com/ZGU7YBm.jpg
ps://i.imgur.com/rbVFCsv.jpg
新いのはまだ遊んでないけど、どう違うつなんだろ
ほんの少前に有料サイトのAI絵描のバージョンが上がったので、とてん式に今まで有料だったのがモデルだけフリーになった感じ
ゲームの新作発売記念に前作無料公開みたいな?
最近は意地でも VRAM6GB位か使わなくなった
わかりすい
得意分野は既存版とちょっと違うんだろうか
上手く使い分けられるといいな
ps://i.imgur.com/cCJf2DY.png
なんというか、NAIとかWD1.3からは結構色々な要素がスポイルされてんだよね
abbeyがまともに認識されなくなってるとは思わなんだ
waifu1,2に色々混ぜたいけど何がいいのか分からない
オススメ教えてくれ
記憶を上書てるようなもんだからな
まぁ全てを内包たモデルなんか作られても一般人には動かせないんでゃーない
色々マージて自分の用途に対てのベストを見つけるかないな
とにかく可変要素がpromp以外にも鹿みたいに広がってるので、最適値探が大変だわ
自分だけでょうか?
もかてサービス終了たのでょうか?
試てみたけど自分の環境だとSDで上手くいくのがNAIだとエラー吐いて完走ない
config.yamlとfinal-pruned.vae.pをfinal-pruned.ckpにおいて
pyon conver_original_sable_diffusion_o_diffusers.py –ceckpoin_pa=model/final-pruned.ckp –dump_pa=model_oupu
で出来た。vaeが変換でてるかは知らん
ありがとう。試てみます
powered by Auto Youtube Summarize
最近のコメント