→ guogu: 不過我也不知道它怎麼練的 只有約100張圖的角色11/24 22:25
→ guogu: 它也可以畫的很精準 只知道v3是基於sdxl11/24 22:25
昨天本來想講,只不過用推文講有點麻煩 ==
其實這也算是一個常見的誤解:
就是AI要將一個人物「學得像」需要大量、精緻的圖片作為資料。
但是實際上,如果只是要「學得像」那其實只要不到10張圖片就能辦到了。
而且圖片不用特別精緻,或者說某些特別精緻的圖片反而會有反效果。
對AI來說,要學習一個人物比較需要的是能精確呈現角色特徵,
用色和線條分明的圖片。
最符合以上需求的圖片是什麼?
對,動畫的截圖。
我舉個比較極端的例子來講:
https://i.imgur.com/RUAphDb.jpg
這是我自己練出來的早坂媽LORA產出來的圖。
這個角色在動畫裡出場只有5分鐘左右,當然也沒有什麼同人圖。
可是LORA模型一樣可以把這個角色給練出來。
我的給它學習的基本學習資料就長這樣:
(搞了好幾個不同的版本,可能不是這個資料夾 ==)
https://i.imgur.com/AGDXoGV.jpg
https://i.imgur.com/hpiG4TO.jpg
除了兩張我預先學習的AI圖,其他就是那5分鐘的動畫截圖 ==
LORA模型的原理是汙染干涉原本底模的生圖結果,
所以「學得像」為前提的話它只要動畫截圖就夠了。
但是大部分玩AI的人不會滿足於學得像,而是希望這個角色能擺一些原本看不到的姿勢,
做一些原本看不到的動作。
講白一點就是10個玩AI的有9個會拿來搞色色的東西,
最起碼也要能換一些色色的衣服。
這樣問題就來了,AI在只有少數幾張圖的情況下學習不到,
因為它的資料只被限制在那幾張圖中,所以也只會做那幾個動作。
用比較專業的術語來講叫做「過擬合」,白話文就是「學太像」。
這個時候大量圖片學習的優勢就出來了。
如果有50張圖片,並且風格沒有過於牴觸的話,
那AI就會知道你想訓練的東西不是一個站挺挺的人物,
而是一個人物能根據TAG擺出不同的姿勢,甚至是換成不同的衣服。
甚至在超過200張圖片的情況下,我的經驗是也不太需要擔心風格牴觸的問題,
因為這問題會被大量的資料本身淡化至可以忽略的程度。
那冷門角色是不是就真的沒救?
也不是。
https://i.imgur.com/KmkMk7r.jpg
https://i.imgur.com/zWmq9AS.jpg
我這個早坂媽就練出了可以讓角色回頭張望或坐下平躺之類的基本動作。
因為AI學習中有個方法叫「正則化」可以給AI補習,讓它學習到其他的概念。
簡單來講,就是在訓練時丟一些其他圖片給它一起學習。
現在開源的LORA訓練腳本都有正則化的選項可以勾選。
但是那個正則化用起來怪怪的,現在很多人其實是手動處理。
以這個早坂媽的LORA來講,我正則化是先加上了一堆無頭裸女的圖片一起學習。
像是這種:
https://iili.io/JoN1Cnj.png
這個方法我是從一個中國人那邊抄來的。
我本來是用學習衣服的方法,添加各種衣服的去頭圖片來學習,
但是後來才發現這種裸女去頭法更簡單粗暴。
因為我把頭塗黑了,人物又是裸體,所以AI就只會學習動作而不會汙染我原本學習資料。
然後我又感覺長裙的頭身比例經常出錯,
因為原本資料幾乎都上半身,缺少全身圖讓AI認識正確的頭身比例。
所以我想了一下,又很簡單粗暴的加上了一組資料給它學習:
https://i.imgur.com/r2ZR5qS.jpg
對,我把早坂愛的頭砍了下來,只留穿長裙的身體給AI學習身體比例。
如此一來AI大概知道角色的頭身比例,
還有個附加優點是這個LORA的早坂媽可以換穿她女兒的衣服。
https://i.imgur.com/ufyeZq4.jpg
當然,要換一些色色的衣服也不成問題。
https://iili.io/JoNwUJf.jpg
簡單來講,要讓LORA模型學習角色圖片的數量其實本身不是必要條件,
而動畫截圖其實是學習人物最優秀的原料 ==
所以現在模型網站CIV上最多的就是各類動畫人物,新番人物也是一堆人搶著練 ==
譬如說這季的福利蓮製作精良、用色分明、線條簡潔,學習起來效果就很好。
所以幾乎每個女角都是一堆模型。
像是屍骨未寒的阿烏拉和莉妮耶,掛掉後她們馬上就被分屍練成LORA了 ==
https://i.imgur.com/jRkyASl.jpg
https://i.imgur.com/z2LAG2I.jpg
所以回到正題,NovelAI的人物和畫風模型是哪來的?
最直接的想法就是他們內部有人在專門練各類畫風和角色LORA讓使用者使用。
另一種想法就是他們也幹了其他公開的LORA來用,
只不過這些LORA本來就是基於他們前洩漏模型來訓練的,也算是鮭魚回鄉。
但是不管是哪種,圖片數量其實都不是大問題。
100張圖片對於練成人物LORA來講完全是綽綽有餘,
對我這個專門截圖練冷門人物自爽的人來講是甚至有點奢侈。
至於營利問題嗎,目前基本上無解。
因為除了ADOBE我相信他的圖庫是相對沒問題的之外,
其他的AI模型應該都有用非正當手法取得學習資料的問題。
以最流行的開源的stable diffusion底模來講,他使用的圖庫來源本身就並非正當授權。
更別提構成現在宅圖根基的NovelAI模型,那是直接拿盜圖網站在作訓練的。
換句話說扣除ADOBE之外,AI圖和模型本身大多沒有一張是清白的,
基本上都是盜圖產物。
要說這是引發產業革命的蒸汽機?
以目前來看來比較像是比較像是引發混亂的產業廢棄物 ==
只是這廢棄物目前對我來講還有玩樂的用途,偶爾想「用」某個角色時可以不求人罷了 ==
--
(と・てノ) 翼龍欸
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 220.137.204.56 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1700923581.A.AA0.html
→
→
推
推
→
推
推
→
推
→
→
→
推
→
推
→
→
→
→
→
推
推
推
推
推
推
→
→
→
→
→
→
推
→
→
→
推
推
推
推
→
推
推
推
推
推
→
→
推
→
→
→
推