该帖子内容已隐藏,请登录后查看

登录后继续查看

该帖子内容已隐藏,请登录后查看

登录后继续查看

该帖子内容已隐藏,请登录后查看

登录后继续查看

该帖子内容已隐藏,请登录后查看

登录后继续查看

该帖子内容已隐藏,请登录后查看

登录后继续查看

该帖子内容已隐藏,请登录后查看

登录后继续查看

该帖子内容已隐藏,请登录后查看

登录后继续查看

该帖子内容已隐藏,请登录后查看

登录后继续查看

该帖子内容已隐藏,请登录后查看

登录后继续查看

该帖子内容已隐藏,请登录后查看

登录后继续查看

该帖子内容已隐藏,请登录后查看

登录后继续查看

该帖子内容已隐藏,请登录后查看

登录后继续查看

该帖子内容已隐藏,请登录后查看

登录后继续查看

该帖子内容已隐藏,请登录后查看

登录后继续查看

风向标# Adobe发布了一个可以将视频主体分割后更换背景的模型 ActAnywhere,这个对视频制作挺有用的。主要的能力是把原视频主体分割后加上一张静态图片从而生成新的视频,并保证原有视频内容和图片的融合度。 详细介绍:我们推出了 ActAnywhere,这是一个能够自动完成这一过程的生成模型,它省去了过去那些繁复的手工操作。我们的模型借助了强大的大规模视频扩散模型(large-scale video diffusion models)技术,并专门为此任务进行了定制。ActAnywhere 以一系列的前景主体分割图作为输入,并以描述所需场景的图片作为条件,从而创造出一个既真实又连贯,且前景与背景交互自然的视频,同时忠实于设定的条件帧。我们在一个涵盖丰富的人类与场景互动视频的大型数据集上训练了我们的模型。经过广泛的评估,我们的模型展现出了卓越的性能,远远超过了基准水平。更令人兴奋的是,我们还证明了 ActAnywhere 能够适应多种不同的、甚至是偏离常规分布的样本,包括非人类主体。

该帖子内容已隐藏,请登录后查看

登录后继续查看

该帖子内容已隐藏,请登录后查看

登录后继续查看