DragGAN官网,通过拖拽就能实现精准P图
DragGAN简介
来自马克斯・普朗克计算机科学研究所、MIT CSAIL 和谷歌的研究者们研究了一种控制 GAN 的新方法 DragGAN,能够让用户以交互的方式「拖动」图像的任何点精确到达目标点。
github项目地址(代码下载):
https://github.com/XingangPan/DragGAN
项目地址
- Zeqiang-Lai/DragGAN: 相关代码模型,支持本地部署,Colab在线体验。
- OpenGVLab/InternGPT: 可以免费在线体验
在线体验 #
InternGPT Google Colab CodewithGPU
项目主页:https://vcai.mpi-inf.mpg.de/projects/DragGAN/
论文链接:https://arxiv.org/abs/2305.10973
DragGAN允许用户通过简单地在图像上点击并拖动点来进行编辑。这种编辑方式非常直观,用户可以直接在图像上定义一对(句柄点,目标点),并驱动句柄点到达其对应的目标点。这种方法基于预训练的生成对抗网络(GAN)来生成图像,这些图像不仅精确地遵循用户的输入,而且还保持在真实图像的流形上。「拖拽」就能实现精准P图的DragGAN
这个名叫DragGAN的模型,本质上是为各种GAN开发的一种交互式图像操作方法论文以StyleGAN2架构为基础,实现了点点鼠标、拽一拽关键点就能P图的效果。
数据评估
关于DragGAN特别声明
本站ai导航提供的DragGAN都来源于网络,不保证外部链接的准确性和完整性,同时,对于该外部链接的指向,不由ai导航实际控制,在2023年6月15日 上午12:01收录时,该网页上的内容,都属于合规合法,后期网页的内容如出现违规,可以直接联系网站管理员进行删除,ai导航不承担任何责任。
相关导航
暂无评论...