开源发丝分割数据集CelebAHairMask-HQ(国庆献礼)
在这个特别日子里,举国欢庆,什么都可以缺席,大礼包不行。
本次开源针对CelebAMask-HQ中发丝部分进行细化的数据集。
该数据集可用于发丝分割等方向的研究和探索。
在过去的一年时间里,疫情改变很多人的工作和生活,
博主在过去一年里,大部分精力,扎在一个让人头疼的领域,
手机上实时发丝级别语义分割里做研究。
真的好南!
前期看了半年多的论文和项目资料,最后还是决定自己探索,
这里面最核心的问题就是很多论文的实时性能根本达不到,
当然指的是cpu实时,别扯gpu实时。
不过很多论文的思路还是很好的,很多思路和做法都值得借鉴然后深入思考。
这个过程非常煎熬,经常半夜睡醒,爬起来写代码,然后训练验证。
在坚持不分昼夜地改良,国庆前终于解决最后一个问题。
当然这个工作还没最终完成,因为博主又开始进行半监督训练的研究了。
不过第一期目标,已经达到了,最终可以实现在手机端进行实时发丝级别的语义分割。
发丝分割这个方向,很多数据集并没有能很好地细致到发丝级别的标注,这就迫使研究困难重重。
所以很有必要存在一个发丝级别的数据集来推动这方面的研究。
既然没有人提供,那俺就为大家造一个。
上预览图:
由于博主算力有限,目前是租的智星云GPU云训练的模型.
当前开源的这个数据集版本,精度还不够好,就作为一个尝鲜版本的数据集放出来给大家玩耍和进行相关的技术研究。
如果有机构或者组织能提供免费的算力资源推进博主的研发,欢迎邮件gaozhihan@vip.qq.com。
后续有时间精力允许的话,
会写博文,为大家一一展开这个领域下的一些实现细节和经验见解。
谷歌这个资源,推荐一下,待后续博文展开一些有意思的玩法,敬请期待。
https://github.com/tensorflow/graphics/blob/master/tensorflow_graphics/image/matting.py
CelebAHairMask-HQ 尝鲜版数据集下载
项目地址
https://github.com/cpuimage/CelebAHairMask-HQ
Version 1.0, early released on 10/02/2020
相关工作
-
CelebA dataset: Ziwei Liu, Ping Luo, Xiaogang Wang and Xiaoou Tang, "Deep Learning Face Attributes in the Wild", in IEEE International Conference on Computer Vision (ICCV), 2015
-
CelebA-HQ was collected from CelebA and further post-processed by the following paper : Karras et. al, "Progressive Growing of GANs for Improved Quality, Stability, and Variation", in Internation Conference on Reoresentation Learning (ICLR), 2018
-
CelebAMask-HQ dataset: Lee, Cheng-Han and Liu, Ziwei and Wu, Lingyun and Luo, Ping, "MaskGAN: Towards Diverse and Interactive Facial Image Manipulation", in IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2020
数据集协议
-
The CelebAHairMask-HQ dataset is available for non-commercial research purposes only.
-
You agree not to reproduce, duplicate, copy, sell, trade, resell or exploit for any commercial purposes, any portion of the images and any portion of derived data.
-
You agree not to further copy, publish or distribute any portion of the CelebAHairMask-HQ dataset. Except, for internal use at a single site within the same organization it is allowed to make copies of the dataset.
因为算力问题,博主并没有对其他场景做适配。
有其他场景需求朋友,也可以联系博主看看能不能适配到。