Gen-2是Runway公司于2023年3月发布的AI视频生成模型,能够通过文本、图像或两者结合直接生成视频,无需视频输入。该模型采用扩散模型技术,支持多种生成模式,包括文本到视频、图像到视频、风格化处理等,是市场上首个公开可用的文本到视频模型。
核心功能特点
Gen-2具备八大工作模式:文字生成视频、提示词+图片生成视频、图片生成视频、风格化模式、故事板模式、蒙版模式、渲染模式和自定义模式。其中,文字生成视频是其主要创新功能,用户只需输入文本描述即可生成相应视频内容。模型支持生成4K分辨率的高清视频,最大长度可达18秒,并可通过导演模式控制镜头位置和移动速度。
技术优势
Gen-2采用端到端的Transformer架构,在Gen-1的基础上实现了从"编辑视频"到"生成视频"的突破。模型在COCO数据集上实现了6.66的零样本FID分数,生成质量显著提升。通过延时扩散模型技术,Gen-2在推理阶段具有更高的时间一致性,能够生成更连贯、更逼真的视频内容。
使用方式
用户可以通过Runway官网(https://runwayml.com)注册账号后使用Gen-2。新用户可获得105秒的免费视频生成时间,每次生成4秒视频消耗5个积分。操作界面提供文本输入框,用户输入英文提示词后点击"Generate"即可生成视频,支持预览、下载和参数调节功能。
价格信息
Gen-2采用订阅制收费模式,标准计划为15美元/月,提供625积分;专业计划为35美元/月,提供2250积分。免费版覆盖基础功能,但生成视频带有水印,付费版可去除水印并提升分辨率。
适用场景
Gen-2主要面向创意工作者、设计师、广告制作人员以及影视制作团队,可用于快速生成宣传视频、游戏内容、营销广告等。模型在游戏、影视、营销等领域具有广泛应用前景,能够显著降低视频制作成本和时间。