AI视频生成:豆包免费高效,盘古专业强大,附提示词技巧

AI前沿4小时前发布 yizz
1,981 0 0
广告也精彩

AI视频生成平台推荐与使用技巧

1. 为什么选择AI视频生成?

AI视频生成技术正在快速发展,它能够帮助我们快速、高效地创作视频内容,无需专业的拍摄和剪辑技能。目前涌现出许多优秀的AI视频平台,它们各有特点,可以满足不同的创作需求。本文将推荐两款优秀的AI视频生成平台,并分享一些使用技巧,帮助您更好地利用AI技术创作出高质量的视频。

2. 两大AI视频生成平台推荐

2.1 豆包AI视频:免费且高效的移动端选择

2.1.1 豆包AI视频的优势

  • 免费生成1080P视频:豆包AI视频最大的优势在于可以免费生成1080P分辨率的视频,这在同类产品中非常难得。
  • 图文生成:不仅可以生成视频,还可以生成图片,满足多样化的创作需求。
  • 生成速度快:生成速度非常快,一次性生成4个视频通常只需要10-20秒,大大节省了等待时间。
  • 无需本地设备:所有操作都在云端完成,不依赖本地设备,随时随地都可以进行创作。
  • 动作生成、指令遵循、推理速度名列前茅:在动作生成、指令遵循和推理速度方面表现出色,能够更好地理解您的创作意图。

2.1.2 如何使用豆包AI视频?

豆包AI视频可以在豆包APP中使用,也可以在线使用

2.2 华为云盘古大模型:PC端的专业选择

2.2.1 华为云盘古大模型的优势

  • 基于华为云盘古大模型:借助华为云强大的技术支持,生成效果更加出色。
  • 赠送500积分:首次注册一个手机号可以获得500积分,可以用来生成多个视频。
  • 支持运镜、图片、文本生语音:功能丰富,支持多种创作方式,满足不同的需求。
  • 无限抽视频:可以通过更换手机号的方式,无限获取积分,从而无限生成视频。

2.2.2 如何使用华为云盘古大模型?

  1. 打开火山引擎网址:https://console.volcengine.com/ark/region:ark+cn-beijing/experience/vision?type=GenVideo
  2. 登录并进行实名认证
  3. 即可开始使用AI视频生成功能。

2.2.3 注意事项

  • 生成的视频可能带有水印,可以使用工具去除。

3. Seedance 1.0模型简介

Seedance 1.0是字节跳动豆包大模型团队推出的视频生成基础模型系列,包含Seedance 1.0 proSeedance 1.0 lite两个版本。

  • Seedance 1.0 pro:大参数量版本,具备独特的多镜头叙事能力,在语义理解与指令遵循能力上取得突破,能生成运动流畅、细节丰富、风格多样且具备影视级美感的 1080P 高清视频。
  • Seedance 1.0 lite:小参数量版本,在取得出色的视频生成质量的同时,显著提升了生成速度,是兼顾效果与效率的性价比之选。

4. AI视频生成提示词技巧

4.1 图生视频提示词技巧

4.1.1 基础提示词结构

提示词 = 主体 + 运动, 背景 + 运动,镜头 + 运动 …

  • 减少对静止部分的描述:图生视频已经有了场景,因此尽量减少(甚至避免)对静止/无变化部分的描述。
  • 明确指出运动对象:在明确指出运动对象的情况下,多描述运动的部分,包括主体的运动、背景的运动/变化、以及镜头的运动。
  • 简单直接:尽量使用简单词语和句子结构,模型会根据我们的表达与对图像画面的理解进行提示词扩写,生成符合预期的视频。
  • 特征描述:当主体具有一些突出特征时,可以加上突出特征来更好定位主体,比如老人, 戴墨镜的女人等。描述运动时,关键的程度副词一定要明确,比如快速、幅度大。
  • 遵从图片:需要基于输入的图片内容来写,需要明确写出主体以及想做的动作或者运镜,需注意提示词不要与图片内容/基础参数存在事实矛盾。
  • 负向提示词不生效:模型不响应负向提示词。

4.1.2 多个连续动作提示词

提示词 = 主体1 + 运动1 + 运动2

提示词 = 主体1 + 运动1 + 主体2 + 运动2 …

模型对多拍动作质量有着强响应,支持时序性的多个连续动作,以及多个主体的不同动作。

4.1.3 运镜提示词

可以在提示词中使用自然语言描述你想要的镜头变化,支持环绕、航拍、变焦、平移、跟随、手持等运镜,以及镜头切换。镜头语言响应是seedance 1.0的强项。

  • 一致性多镜头:在写一致性多镜头的提示词时,需要写出镜头之间内在的联系。
  • 镜头切换:镜头的变化,通过“镜头切换”这一明确提示词来进行连接。
  • 场景变化:切镜后如果场景发生了变化,需要对新的场景进行描述。
  • 运镜参数:有运镜提示词时,基础参数要选择“不固定镜头”。
  • 文生视频适用:运镜提示词在文生视频场景也同样适用。

4.1.4 程度副词

如果想要在视频中突出动作频率与强度,或者主体的特征,合理使用程度副词。

  • 明确程度:模型无法从输入的参考图上获取到运动的程度,所以一定要在prompt中明确,否则模型会根据它自己的理解去补充,可能跟用户的意图背离。如“汽车驶过”改为“汽车快速驶过”。
  • 适当夸大:可适当夸大程度,增强视频的表现力:如“男子咆哮”改为“男子疯狂咆哮”,“翅膀扇动”,改为“翅膀大幅度扇动”,会更容易接近想要的效果。

4.2 文生视频提示词技巧

4.2.1 基础提示词结构

提示词 = 主体 + 运动 + 场景 + 镜头、风格…

主体+运动+场景是最核心和基本的要素,模型会进行提示词扩写,生成符合预期的视频。

  • 详细的人物描写:注重人物的外表、着装、姿势。
  • 环境细节的呈现:自然环境(如山脉、沙漠、瀑布等)或者建筑环境(如工作室、浴室等)的详细描述,能帮助你强调场景的视觉和感觉体验。
  • 情绪与动态的结合:通过描绘人物的情绪状态和环境动态,创造了层次丰富的叙事。
  • 氛围的渲染:可以运用对光线的描述:黄昏、清晨、昏暗、温暖的光等。

5. 常见问题案例

5.1 视频肢体崩坏如何解决?

模型有一定肢体崩坏的概率,可以多试几次抽卡选择效果好的视频,或者通过prompt避开展示手/脚部的镜头。

6. 其他AI视频生成平台

6.1 可灵2.1pro

网址:https://oaigc.cn/sign-in?tab=register&inviteCode=3bX9

  • 效果对比:经过测试,对比了可灵2.1pro的效果和当前的平台,效果基本不差。
  • 时长限制:奈何时长限制,不能更好的测试。
  • 免费版本:免费版本只能带水印下载。

7. 视频效果对比

(此处应插入视频效果对比图片)

我认为:

AI视频生成技术的发展,就像一把双刃剑。它降低了视频创作的门槛,让更多人能够参与到内容创作中来,丰富了互联网的内容生态。然而,我们也必须警惕AI可能带来的内容同质化、版权问题以及对传统视频行业的冲击。我们需要在拥抱技术进步的同时,保持独立思考,坚守创作的初心,用AI工具创作出真正有价值、有深度的内容,而不是成为AI的奴隶,生产千篇一律的“快餐式”视频。

© 版权声明
chatgpt4.0

相关文章

error: Content is protected !!