简单来说,用户在淘宝上看到一件“立体”的衣服,可以360度旋转视角,放大再放大,从各个角度查看细节。具体实现方式是卖家用普通智能手机拍摄20-40张商品周围的照片,将照片上传到淘宝的云端,通过算法分析形成商品的3D模型数据。
淘宝用户也可以用同样的方式在网上模拟一个虚拟的“自己”,来检验衣服的“上身效果”。但熟悉相关技术的人士告诉36Kr,需要对每个对象分别建模,这并不便宜。
事实上,一些电商已经在尝试“虚拟试衣”技术,但“虚拟试衣”技术有相当大的技术门槛。在优衣库的“虚拟试衣间”里,用户只能选择贴近自己的模特,“换”成不同风格的衣服。自2014年初以来,JD.COM商城一直在推广“虚拟试衣间”。用户可以拍照,调整身高、体重、肩宽等指标,在网上形成一个虚拟的“自己”。但是这个功能还是不能完全复制用户的“体形”,只能显示正面。

这样看来,今年手机淘宝推出“360虚拟试衣”的任务还是挺重的。
30度商品展示和试衣实际上是通过SFM(结构来自运动)技术实现的。SFM技术可以从2D图像中还原相应的3D场景,谷歌全景地图和脸书全动态视频都是基于该技术开发的。
同时,在国外,已经出现了相对成熟的虚拟试衣服务。创业公司Metail利用“用户提供的照片加上3D数据”构建虚拟的“个人模型”,用户可以看到衣服“真实上身”的效果。去年,这家公司获得了1200万美元的B轮融资。
但是,当用户决定是否购买一件衣服时,需要考虑的其他因素包括衣服的材质、下垂感和上身的动态效果等。另一家美国创业公司PhiSix试图解决这个问题。他们通过参考衣服本身的参数,比如版型、材质,让用户看到不同运动环境下的动态试衣效果,比如下楼梯、打高尔夫等。
刚刚被36Kr报道的Inge Meggie也是虚拟佩戴大军中的一员,专注于实时眼镜的虚拟试戴。今年1月,CEO朱曾对36Kr表示,
虚拟可穿戴技术是未来的趋势,但此时开始,Inge也担心会不会“有点早”。
但现在,淘宝和JD.COM都在游戏中,国内虚拟服装的“时间”应该到了。








