furusu Profile
furusu

@gcem156

501
Followers
11
Following
562
Media
4,304
Statuses

現在0本塁打0盗塁

Joined January 2023
Don't wanna be here? Send us removal request.
Pinned Tweet
@gcem156
furusu
9 months
おまんこ
0
0
7
@gcem156
furusu
1 year
妻「画像生成AIで私を作ってみてよ!」 夫「分かったよ。 beautiful, elegant, kind, intelligent, ...」 妻「そんな・・・照れるわ///」 夫「よし、negative promptはできたぞ!」
0
32
109
@gcem156
furusu
2 years
ControlNet + PFG これもうなにがtxt2imgなんだ? ネガティブプロンプトはあるけどwww
Tweet media one
Tweet media two
0
33
118
@gcem156
furusu
11 months
アニメスタイルの軽量版SDXLを作った
0
24
79
@gcem156
furusu
10 months
animagine_xl2.0用に学習したLCM-LoRAあげてみた 多分性能上がってんじゃね
2
14
67
@gcem156
furusu
1 year
機械学習知らない人向け学習設定の説明記事を書いてみてるけどもうだめかもしれん
Tweet media one
0
9
46
@gcem156
furusu
1 year
画像をプロンプトのように扱うIP-AdapterのComfyUIカスタムノードを試験的に作ってみたよ アニメイラストは、なんだかそれっぽい感じのは返ってくるけど...という感じ テキストプロンプトと組み合わせればいい感じになるのかもしれない
Tweet media one
0
12
46
@gcem156
furusu
1 year
(w)w(w)wwww
Tweet media one
0
16
42
@gcem156
furusu
8 months
animagine xl 3.0用のlcm-loraあげた けど要調整かもしれん lcm sampler alternativeをうまく使う必要があるかも
0
16
44
@gcem156
furusu
1 year
プロンプト欄がスッキリした!!!
Tweet media one
1
7
40
@gcem156
furusu
8 months
SDXLの層別サイズです(fp16のMiB)
Tweet media one
1
9
40
@gcem156
furusu
1 year
SDXLのip-adapterに対応したよ あと画像をあらかじめ正方形パディングしたり顔検出していい感じに切り抜くノードを作ってみた 多少見切れるのを防げるぽい...
Tweet media one
1
9
37
@gcem156
furusu
1 year
正直なところリークうんぬんって本当にどうでもいい というかAIに関する倫理とか法とかどうでもいい こういうのって技術のことがわからない人でも話題についていけるから盛り上がってるだけでしょとしか思ってない
0
5
37
@gcem156
furusu
1 year
AI art(笑) 1枚作ってそれを64×64分割してimg2img
Tweet media one
0
6
32
@gcem156
furusu
1 year
plusモデルへの対応と複数画像の入力とマスクによる領域指定を追加しますた。 あとおそらくバグをいっぱい増やしました。
Tweet media one
0
7
29
@gcem156
furusu
1 year
Pythonより35000倍早いPython
Tweet media one
1
1
29
@gcem156
furusu
1 year
たとえば8bitAdamのVRAM削減量は学習対象のパラメータ数に比例するので低rankのLoRAを学習するときにはほとんど意味がありません、みたいな情報をほとんどの人が知らずに適当に設定しているだろうという現状を変えたいのだが、誰も読まないであろう謎の長文ができあがるだけになる
0
4
26
@gcem156
furusu
1 year
画像の説明文使えば140字制限突破できるやん
Tweet media one
0
4
26
@gcem156
furusu
1 year
LECOの自前実装とりあえずできた 精度はともかく意図通りには動いてるぽい 2/(n+1)の割合で学習時間を削減できるがどのくらいnを増やしていいものなのか謎
0
10
25
@gcem156
furusu
1 year
機械学習知らない人向け....???
Tweet media one
0
3
24
@gcem156
furusu
1 year
低解像度画像と高解像度画像をそれぞれノイズ付与していくと途中段階ですでに見分けがつかなくなるらしい だから拡散モデルを使った超解像は途中のステップからやればよくねという今更感ある話だけど、Hires fixの根拠になりそうな話だなあと思った
0
6
22
@gcem156
furusu
10 months
@kohya_tech
Kohya Tech
10 months
昨日の、高解像度生成時に構図崩壊を防ぐ手法を詰めてみました。添付1枚目は2688x1536で通常生成した画像4つ、2枚目は適用して生成、同一seed。いずれもhighres fix適用なし。 酒場と街は通常でもそこそこですが、適用したほうが安定してるのが分かると思います。
Tweet media one
Tweet media two
6
38
236
1
8
23
@gcem156
furusu
1 month
gemini 1.5 pro expつよくね
Tweet media one
1
4
23
@gcem156
furusu
1 year
2つのLoRA(AB,CD)をマージするとき目標はAB/2+CD/2だけど、up層とdown層をそれぞれマージした(A+C)(B+D)/4は全く別物になる rankが同じだとしてもsvd_mergeをするしかないと思う 目標重みとのコサイン類似度 青がmerge_lora.pyで赤がsvd_merge_lora.py
Tweet media one
0
5
22
@gcem156
furusu
1 year
attention couple ^(¢)^
Tweet media one
0
5
22
@gcem156
furusu
1 year
ReLoRA、LoRAを学習→マージ→新しいLoRAを学習、を何度も繰り返すことでrankの制限を取っぱらうことができる感じか 通常のLoRAのように少ないパラメータ数で差分をセーブできるわけじゃないけど、optimizer_statesが一気に減るので事前学習でVRAMを削減できる
0
3
21
@gcem156
furusu
3 months
llama.cppもllama-cpp-pythonもビルドのおぷちょんとしてLLAMA_CUDA_FA_ALL_QUANTS=trueをするとflash attention時にkv 量子化ができるようになる これでcontextサイズ上げ放題だ
0
3
20
@gcem156
furusu
1 year
wd15のip-adapter-plusおいとく
0
7
20
@gcem156
furusu
1 year
FreeUのComfyUIお試しノードつくってみたよ Kohyaさんの実装をほぼ踏襲してる...はず custom_nodesにそのままいれたらloaderにApply FreeUが降臨します
Tweet media one
0
9
20
@gcem156
furusu
1 month
animagine xlによる生成画像でいっぱい学習したLoRAを作る→マージしてaniamgine xlで作ったキャラ画像を学習してLoRAを作る 後者だけ適用 それなりにうまくいくようにはなってきた
Tweet media one
1
6
20
@gcem156
furusu
2 years
LoRAの限界を探るべくrank 128で46000枚の画像を20エポックやった unetのtransformers内Linearだけ 一つのLoRAにここまで学習させるアホは他にいないんじゃないかな 純ファインチューンに比べて体感9割くらいのクオリティある でもLoRAでこんな規模の学習をする意義はあまり感じないww
Tweet media one
0
4
19
@gcem156
furusu
1 year
xlのアニメモデルに5000枚規模のキャラ画像を学習させると画風にかなり影響をあたえてしまっていたのだが、あえてsdxl-baseでLoRAを作ってみたらかなり画風への影響を抑えられている感じだ
Tweet media one
1
3
19
@gcem156
furusu
11 months
HyperTileのComfyUIノードを実験的に作りますた 2K以上の高解像度画像を生成するときに結構効果あるみたいだね Token Mergingと似てるがself attentionをtile分けして計算するだけだよ ToMeと同じような事情でSDXLには効果ないですよ
1
3
18
@gcem156
furusu
7 months
convをdilation=2にするノード作ってみたよ 1664×2432がこんな感じで直接生成できるみたい 画像はlcmつかってまつ
Tweet media one
0
3
19
@gcem156
furusu
6 months
99%の男が見てる場所
Tweet media one
2
5
19
@gcem156
furusu
6 months
例の比較で3.0→3.1で順当に性能が上がってることを確認できたよ
Tweet media one
0
7
19
@gcem156
furusu
1 year
論文解説記��になっちゃった...
Tweet media one
0
0
16
@gcem156
furusu
11 months
Open?AI「どんなキャプションをつけたデータセットか一番いいか評価するためにいろんな設定で10億枚の画像学習したよ^^」 世界観が違う
0
2
18
@gcem156
furusu
1 year
普通に生成→depthからキャラクター部分だけのノイズを作成→ControlNetに入力してキャラクター部分だけ書き込み量が増えるよう生成
Tweet media one
0
0
18
@gcem156
furusu
1 year
pfgが追加の実装無しでlatent coupleに対応するのすごいな...
Tweet media one
0
2
17
@gcem156
furusu
4 months
llmから着想を得てSDXLのTransformer層で同じ層を繰り返したりスキップできるノード作ってみたが沼すぎだこれ
Tweet media one
0
3
17
@gcem156
furusu
6 months
新ControlNet?できてきたぞ ファイルサイズは8MB 生成速度はほぼ増えない
Tweet media one
1
0
17
@gcem156
furusu
1 year
ip-adapter-plusがでてきたので対応中だよ plusブランチにとりあえず動いたのをあげた 上がplusです。かなり忠実になってるね
Tweet media one
0
3
16
@gcem156
furusu
6 months
ためしにへんなのつくってみた
0
3
16
@gcem156
furusu
8 months
fp8について色々やってみた
Tweet media one
0
3
16
@gcem156
furusu
1 year
flash attention2すごそう FlashAttnProcessorは自前実装だよ F.scaled_dot_product_attentionと比べてdim=1,2の順番が逆なのに注意
Tweet media one
1
3
16
@gcem156
furusu
1 year
顔画像を入力することに特化したip-adapterが実装されてる ComfyUIの拡張でも特に対応なしで使えるみたい デモを見ると実写系を意識してるみたいだが色々とやばそうだな
0
1
15
@gcem156
furusu
2 years
プロンプトの指定なしで画像のみから生成するモデルができた 全部プロンプトは「illustration of umamusume」のみ 画像の質はあまり高くないけど...
Tweet media one
Tweet media two
Tweet media three
0
3
16
@gcem156
furusu
1 year
ComfyUI面白いね〜
Tweet media one
0
1
16
@gcem156
furusu
1 year
sd xlの学習意外と簡単に実装できた 検証画像見てるけどかなり期待できるなこれ... (※アクセス権持ってないので全部想像です)
0
1
16
@gcem156
furusu
10 months
2週間LCMにささげて最終的な結論は8ステップで2枚生成するより16ステップで1枚生成した方が良い
1
2
15
@gcem156
furusu
11 months
512画像用に学習されたSDXLを使って512画像でLoRAを学習⇒普通のアニメモデルに適用して1024で生成 結構うまくできてるぞ 学習めっちゃ楽になる
Tweet media one
0
1
15
@gcem156
furusu
1 year
ControlNetが成功したのも設計よりかはlllllllllllllllyasviel氏がユーザー視点まで降りてきてくれたことが要因な気がするな=¬=
0
0
15
@gcem156
furusu
1 year
LoRAで複数の概念を順番に学習するとき、今までの概念を途中で忘れるので、今までのLoRAの行列と学習中のLoRAの行列でアダマール積とって二乗和をペナルティにする それによって変化するパラメータが今までのLoRAと被らないようになって忘却を防ぐ あととーくんがあーだこーd
0
2
14
@gcem156
furusu
8 months
animagine xl 3.0 学習なし はえ〜
Tweet media one
0
1
13
@gcem156
furusu
1 year
最強のGUIできた!!
Tweet media one
0
1
13
@gcem156
furusu
5 months
animaginxl用のtcdのつもりだが本当にそうなのかよくわからない gamma=0.8くらいがよさげ
0
2
13
@gcem156
furusu
1 year
神機能が追加された
Tweet media one
Tweet media two
0
0
13
@gcem156
furusu
1 year
もはや趣旨が変わってきたが、guidance_scale=7.0で1girlにポジティブプロンプトやネガティブプロンプトを詰め込むことでcfg_scale=1.0でまともな生成ができるようになった。ネガティブプロンプトいらないので計算量が半分になる。
Tweet media one
0
1
11
@gcem156
furusu
5 months
ww
Tweet media one
0
5
13
@gcem156
furusu
9 months
SDXLとSD1.5を繋げるモジュールを学習することで、SD1.5で学習された任意のプラグインをSDXLで使えるようにする すごい変態的手法だww
0
0
13
@gcem156
furusu
6 months
学習データを1エポック学習させてできたLoRAをマージしてControlNetを学習→推論時はLoRAを外すことでスタイルの変化を防ごうとしてるのだが 最初のLoRAをマイナス適用してみた(右) 結構いい感じか?
Tweet media one
0
3
12
@gcem156
furusu
10 months
LCMに取り憑かれた結果
Tweet media one
2
0
12