這個AI試衣功能,治好了我的沖動消費
原創(chuàng) 糕級凍霧 果殼
每一次網(wǎng)購衣服,都是對自我認知的一次刷新。這不是最近 618 大促嗎,再次印證了那句“老話”——看買家秀以為是東方不敗,到手一穿像衰神二代。
更別提尺碼合不合適了。誰知道我鼓起多大勇氣給客服報上身高體重,可每每都得不到準確建議,“親,還得偏大一丟丟哦。”算了算了,再多買件XL的吧......
最煩的是退貨。換個角度想想,店家也心累啊。七天無理由退貨政策,讓許多買家鉆空子,把淘寶店當試衣間,拍完照就退貨。反而是我們這些永遠網(wǎng)購不到合適衣服的人,生怕被店家拉黑。
AI 這不是越來越能耐了嗎,我之前在 GitHub 玩過幾個“AI 換裝”工具。上傳一張自己的照片和黃裙子圖片,靜待幾秒,滿懷欣喜地得到了一張“黃色大菠蘿”......
不過最近我在 Google I/O 上看到,Google 針對電商購物,推出了一個“Try On(試穿)”AI 功能。
效果終于有點 AI 量體裁縫的意思了。
“剁手黨”福音
衣服版型就像菜譜,身材就像食材。模特圖好看,線條順滑,垂感在線,那是因為按著菜譜買對了食材。
可是普通人高矮胖瘦,身材各異,是直角肩還是溜肩,胸背寬還是窄、腰線高不高,這些身體細節(jié)都會影響衣服穿出來的效果。
同樣一套衣服,瘦人穿上顯清爽,壯人顯厚重。
所以最讓我驚艷的是這個功能會把衣服版型穿在你身上合不合適展示出來。
你們猜以下這組圖片,哪張是實拍,哪張是AI合成的?

答案:都是合成的。
深色顯瘦,白色顯胖,啤酒肚的鼓起,手揣兜帶來的衣服下擺褶皺,都很自然。
這么說吧,感覺我能用它生成的照片去小紅書上做優(yōu)衣庫穿搭博主了。

How To Geek 的記者在 Try On 后,嚇了一跳,他說“我上傳的圖片是穿長褲,結(jié)果試穿短褲,居然把我的小腿露出來了。我發(fā)誓,和我自己小腿一模一樣,說實話,讓我有點兒怕?!?/p>
左:試穿后 右:原圖|圖源:How To Geek
“這是我第一次覺得 AI 試衣服不是個噱頭。”來自科技博主 @MKBHD。
可惜 Try On 這功能才開放內(nèi)測,僅限于美區(qū) IP+美區(qū) Google 賬戶去申請 SearchLabs 后解鎖。
它生成的實際效果不同于之前“換裝貼圖”的工具,原因很簡單,P 圖是現(xiàn)有圖層之間的堆疊,而 Try On 是從頭生成一張全新圖層。
AI 高定裁縫
我扒了扒 Try On 背后的技術(shù)細節(jié),
第一步,人像識別:
首先,依賴高精度分割模型建立一個準確的“人像輪廓模型”,其多尺度語義分割技術(shù)(multi-scale semantic segmentation)來識別發(fā)絲、耳朵、手指間隙、腿部走向、服裝遮擋區(qū)......所以哪怕你披頭散發(fā),戴著耳環(huán)、手持手機,AI 都會測算出邊界,保留在后續(xù)生成里。
第二步,生成式AI:
Try On 對比其他類似工具生成的模擬圖除了真實,還有一點,是立體的。不僅能看到正面,還能看到側(cè)面、微微轉(zhuǎn)身的角度。

這說明,光是把底圖里的人“摳”出來還不夠。
AI 還得分析人的肩寬、胸圍、腰圍、體態(tài)、站姿,照片光線射入角度……做人像建模(body modeling),這部分基于 Google 自研的 Vision AI 模型和 pose estimation 模型。

動補也是這個原理|圖源:Google
這就是為什么沒露小腿,AI 也能根據(jù)對身材的建模,算出來“小腿應該長啥樣”。
同時,模型接收服飾圖片中的信息,比如布料是什么質(zhì)感、衣服有多少層、版型修身還是oversize......
通過交叉注意力機制,把兩張圖片信息融合,用擴散模型生成身著新衣的圖片。
我們知道知識圖譜是傳統(tǒng)谷歌搜索的“大腦”,存儲著用來回答用戶查詢的所有信息。購物圖譜(Shopping Graph)是其中關(guān)于購物意圖和產(chǎn)品信息提供的一個分支。
基于 Shopping Graph 中海量數(shù)據(jù)庫,訓練模型識別在各種體型、膚色和姿勢下的穿著效果,從而提高了模型的泛化能力。

不同身材的試穿圖作為基礎(chǔ)數(shù)據(jù)|圖源:Google
但試妝到這一步還是略為“粗糙”,好似你在服裝店,拿起衣服站在鏡子前比劃。穿上到底合不合身呢?
第三步:圖像合成
Google 用了圖像對齊和 pose-aware warping 網(wǎng)絡(luò),讓服裝與人體姿勢對齊。比如你插兜、彎腰、舉手,AI 就可以讓衣服在這些動作下自然變形,比如膝蓋處鼓起一點,衣角飄起來,舉手肩膀處有褶皺。

先把本來的衣服建模,再通過 3D 渲染「換皮」|圖源:Google
一些“難點區(qū)域”會著重處理,交叉注意力機制會判斷披肩長發(fā)和衣服如何自然銜接,“頭發(fā)和領(lǐng)子誰在前”。
再比如,底圖中人身著深色內(nèi)搭,想試穿一件半透明防曬服,“動態(tài)分層貼圖”技術(shù)會自動調(diào)整衣服的視覺層級,確保防曬服圖層在視覺上正確地覆蓋在襯衫圖層之上,保證光影、紋理、透明度都協(xié)調(diào)。
還有光照匹配,讓新衣光感匹配底圖中的光源。
不過現(xiàn)在這技術(shù)還“挑”衣服,遠沒到萬能衣柜的程度。
目前它最擅長的是貼身、版型明確的上裝,比如 T 恤、襯衫、針織衫,底圖中人物也最好是正面站直、手別亂動、光線別太飄。這時候 AI 才能安心建模,不出紕漏。
版型過于松垮復雜,衣服疊穿好幾件,那 AI 就容易抓瞎。以及還不支持帽子、眼鏡、鞋子這些配飾,這不難理解,這些配飾的遮擋處理起來復雜。
動態(tài)試衣也還不支持——還沒法像《模擬人生》試衣間里似的,轉(zhuǎn)個圈,走兩步,試個坐姿效果。

這技術(shù)在 1995 年電影里就出現(xiàn)了?|圖源:《獨領(lǐng)風騷》
比網(wǎng)購真實,比逛街舒服
更重要的是,Try On 還可能催生一整套“服裝體驗鏈”。
比如,你在試穿一件古巴領(lǐng)襯衫時,它會給你搭配一條細細的金色項鏈、一雙白色球鞋加一塊皮質(zhì)腕表。這不一套“熱帶 OOTD”就有了。
再往前看,靜態(tài)的試衣還能發(fā)展成動態(tài)的,帶上頭顯進入虛擬試衣間,直接顛覆網(wǎng)購體驗。
要不說,這也是對商家的利好。退貨率,本來就是服裝電商最頭疼的問題,一件衣服從出庫到回倉,來回折騰物流、包裝、人力成本,還影響商品周轉(zhuǎn)效率。
Google 還演示了一個場景??雌饋?AI 對電商的重塑,絕不會只有試衣服這么簡單。

現(xiàn)在,我們在電商購物時還是得在搜索框里輸入“羊絨地毯”或是“客廳簡約風地毯”等關(guān)鍵詞。
但在未來,你可以寫“我有一個淺灰色的沙發(fā),想買一個搭配的地毯,能讓房間看起來更明亮。我有四個小孩,我們喜歡一起在沙發(fā)附近玩樂,但家里有貓,不想讓貓把地毯抓花。”這類非常具體的需求,AI 就可以在成千上萬個商品里找到最符合你需求的那幾個。

左側(cè)是用戶提的特別明確地需求,右側(cè)是推薦產(chǎn)品|圖源:Google
推薦算法的邏輯是“猜你想要”,而 AI 最終目的,是精確篩選,幫人節(jié)省時間,提升效率。
腦洞開完還得回歸現(xiàn)實,目前這項新功能已經(jīng)有技術(shù)濫用的苗頭了。
有人給美國副總統(tǒng) J·D·萬斯穿女裝,讓“紅脖子“變”女裝大佬”。還有人拿未成年人照片去換上暴露的服裝。

畫風是這樣式的丨大西洋月刊
也就是說,不需經(jīng)過本人同意,就可以拿著我的照片,給我“套上”一件不想穿的衣服。在穿衣自由的時代,穿衣反而不“自”由了。想想這還挺可怕的......
作者:糕級凍霧
原標題:《這個AI試衣功能,治好了我的沖動消費》
轉(zhuǎn)載請注明來自山西智睿祥新能源有限公司,本文標題:《這個AI試衣功能,治好了我的沖動消費》
