
【摘要】在推动主流媒体系统性变革背景下,本文以2025年南方报业AI应用创新实践为研究对象,系统分析了生成式人工智能(AI)技术的应用现状与发展趋势。精选国内主流媒体典型案例分析,总结创作规律,提出实操方法论,同时指出AI视频仍存在技术瓶颈。机构媒体应坚持“技术为用、内容为本”原则,严守新闻真实性底线,通过人机协同实现传播质效提升。
【关键词】系统性变革 技术突破 生成式人工智能 人机协同
生成式人工智能(AI)技术的迅猛发展正在深刻重塑媒体内容生产与传播格局。作为媒体深度融合的关键驱动力,AI技术不仅重构了内容生产流程,更推动了传播理念、叙事方式和评价体系的系统性变革。
南方报业传媒集团于2025年4月启动“百日精进,云端砺剑”系统性变革特训营,培养新型融媒人才,同时举办AI应用创新大赛,聚焦AI技术的实践应用与成果转化。本次系统性变革特训营及AI应用创新大赛,是南方报业传媒集团积极响应并具体践行党中央关于“推进主流媒体系统性变革”战略部署的关键行动,旨在通过前沿技术应用与人才培养模式的革新,探索深度融合背景下的内容生产新范式与效能提升新路径。笔者制作的AI视频代表南方周末参赛获得一等奖。
本文基于对国内主流媒体典型案例的深度剖析与实践经验的系统梳理,重点探讨人工智能技术如何赋能高端影视语言的平民化应用,并结合笔者在此次特训及参赛中的学思践悟,探究当前机构媒体AI视频生产中的技术路径与创新方法论,思考如何以先进技术应用驱动融合发展,切实创造新质生产力。研究认为,人机交互能力会成为创意类内容的关键能力,就像传统深度报道中的调查能力、思辨能力、文本能力一样。人机交互能力正在成为未来内容行业的新质生产力。唯有将新兴技术与内容价值深度融合,以技术赋能叙事、以创意激活工具,才能真正释放融媒体的传播潜能。
一、AI技术赋能视频语言革新,技术突破驱动表达升级
作为电影艺术的经典表现手法,长镜头通过单镜头持续拍摄实现一镜到底,能够营造沉浸式氛围,增强视觉真实感,在情感传递与美学表达上具有不可替代的价值。传统影视制作中,长镜头的实现高度依赖复杂的现场调度与专业设备支持,任何细微的拍摄失误都可能导致整个镜头的失败。
以“一镜到底”的数字化重构技术为代表,AI视频正在降低多种高端影视语言的制作门槛和应用成本。当前主流AI视频平台均已集成该功能,用户仅需提供首尾关键帧并输入描述指令,系统即可自动生成具有电影质感的连续镜头。传统视频合成技术在处理复杂非线性运动(如旋转、形变等)和复杂材质(如玻璃、镜面等)时存在明显局限,难以满足创意特效的制作需求。这一技术瓶颈在2023年后迎来重大突破,呈现开源与闭源双轨并行态势:2024年6月,开源项目DynamiCrafter率先实现控制首尾帧功能的民用化;同年6—8月,Luma AI、可灵、Runway等商业平台相继开放同类功能。经过多轮迭代,当前主流AI视频工具已在物理模拟准确性(如流体动力学)、镜头运动控制精度(如推拉摇移)及复杂运动表现力(如快速变形)等方面形成差异化技术优势,为高质量长镜头的AI生成提供了多元化解决方案。随着AI时代来临,年轻人对优质AI视听内容的需求日益增长,推动了相关技术功能的探索与运用,首尾帧功能最早便被运用于AIGC概念短片。不仅如此,AI技术还通过风格迁移算法,使中国风、水墨画等特定艺术风格得以高效应用于动态影像。同时,基于精准的主体一致性控制和参数化运镜技术,AI使得复杂的动态呈现和专业的镜头运动(如推拉摇移)不再依赖于昂贵设备和专业团队。更重要的是,AI打破了物理镜头的限制,实现了超现实转场、多模态信息融合、时空穿越等非常规镜头表达。AI不仅实现了单一效果,而且打通了从创意到成品的链条:基于智能搜索引擎的案头研究、依托大语言模型的文案创作、结合文生图工具的分镜设计,直至最终的视频生成。这一系列突破性发展正在重塑影视语言创作范式,驱动融媒体表达能力的升级。
随着技术成熟度的提升,AI视频逐步渗透到主流媒体的内容生产体系。其应用场景主要呈现三个特征:一是文化资源的数字化活化,如将传统IP转化为动态影像;二是重大题材的创新表达,如对科技成就的视觉化呈现;三是报道形式的边界拓展,实现从平面图文到立体叙事的跃升。这种兼具视觉震撼力与制作便捷性的内容形态,不仅契合Z世代用户的审美偏好,更通过低门槛的创作方式吸引了更广泛的内容生产者参与,形成裂变式传播效应。以2024年第十一届中国网络视听大会推出的实验性AIGC宣传片为例,该作品通过“描绘山河”“追溯历史”等主题单元的有机串联,展现了AI在跨媒介叙事方面的独特优势。这些变化极大地扩展了机构媒体在内容形态创新、叙事效率提升和传播吸引力增强等方面的可能性,为响应和践行主流媒体系统性变革中关于提升传播效能、创新表达方式的要求提供了坚实的技术支撑。
二、机构媒体AI视频生产的创新实践
在媒体深度融合与系统性变革的战略背景下,AI视频技术通过降低专业门槛、提升叙事效率,正在推动机构媒体内容生产从“专业创作”向“智能协同”的范式转变,但其艺术表现力与技术创新性之间的平衡,仍需通过持续的人机协同实践来优化。研究发现,机构媒体的AI视频生产大致可以分为三种创新路径:通过虚实融合技术实现文化资源的数字化叙事创新,借助视觉聚焦方法完成单元素动态控制,利用边界拓展实验探索非常规镜头表达。
(一)虚实融合:文化资源的数字化叙事
AI技术在文化传播领域展现出强大的视觉重构(山海经等幻想元素)和再现(老照片、历史档案等)能力,其核心优势主要体现在以下两个维度:
在视觉风格处理方面,AI通过深度学习算法实现了三大突破:首先,基于风格迁移技术,可快速生成中国风、水墨画等多样化艺术效果;其次,运用局部重绘功能,能在保持主体写实性的同时,对特定区域(如天空)进行艺术化处理;最后,通过智能色彩校正,有效解决了实拍素材的影调不统一问题。这些技术特性在文旅宣传中得到广泛应用,既保留了文化底蕴,又增强了视觉吸引力。甘肃国际传播中心《伏羲印记 薪火永继》和郑视频《吾土吾民 黄帝箴言》不约而同利用风格迁移挖掘串联公祭伏羲大典、黄帝故里拜祖大典上的传统文化和神话元素。人民日报《老友南宁》利用无缝转场挖掘壮族铜鼓上纹饰特征,匹配邕江上落日的倒影。
在历史场景再现方面,AI展现出独特的时空重构能力:一方面,它能将抽象的历史文本转化为具象的视觉场景;另一方面,通过智能镜头调度,实现历史事件的连贯叙事。以第一眼TV-华龙网《从红船星火到复兴征程 一镜到底见证中国共产党104年奋斗史》为例,作品利用相似构图转场技术,将分散的历史场景有机串联,既保证了史实准确性,又强化了叙事感染力。央视网《海上生明月 九天揽星河》将盘古开天辟地与东方红一号卫星、风伯雨师与风云气象卫星同框拍对手戏,借鉴了电影中表现双方势均力敌的环绕镜头完成转场,巧妙地表现中国航天成就背后串联古今的中式浪漫。这种“技术赋能+文化表达”的创新模式,正在重塑主流媒体的传播话语体系。
(二)视觉聚焦:静态单一元素叙事的动态控制
AI技术在静态、单一元素叙事,尤其是聚焦主体的动态控制方面展现出独特优势,其技术实现路径主要体现在两个层面:
在主体一致性层面,AI通过“基础模型+专项优化”的多层架构实现精准调控:基础模型负责整体风格定位,专项模型深度学习角色特征、边缘轮廓、空间景深等细节后进行优化。这种技术组合有效解决了复杂场景中的动态连贯性问题,如央视网《AI我中华》通过多项主体参考功能,确保了标志性建筑在动态呈现中的形态准确性。
在运镜控制层面,AI视频借鉴了成熟的电影语法体系:通过参数化控制实现推拉摇移等专业运镜,构建符合视觉认知规律的动线设计。以人民日报《大国重器“变身”神话人物有多酷》为例,作品通过连续动态镜头设计,既保持了视觉流畅性,又强化了主题表现力。这种技术应用不仅提升了内容吸引力,更通过降低专业门槛,使影视级镜头语言得以在机构媒体中普及。
(三)边界拓展:非常规镜头的创新实验
AI技术在叙事创新方面展现出突破性的表现力,可以创造出超现实、超文本的叙事方式。其技术特性主要体现在三个维度:
在信息整合层面,AI通过智能算法实现了多模态数据的无缝融合。以新华网《基石》、新民晚报《重走解放路,飞越新地标》等为例,根据叙事需求动态调整AI特效的强度、节奏和比例:如表现宏大叙事时采用快速穿越特效,聚焦历史细节时则切换为慢镜头。这种动态调节使单镜头信息承载量提升50%以上。
在表达创新方面,AI突破了传统镜头的物理限制。中国国际电视台《算法之外》通过“虚实对照”的转场设计,将技术特性转化为叙事语言,使镜头本身成为传递和平理念的符号载体。这种“技术即表达”的创新范式,拓展了影像语言的表意空间。
在文化传播维度,AI赋予静态文物和历史人物以动态叙事能力。中国新闻网《孔子神游记》运用“时空穿越”的镜头语言,不仅实现了文化符号的活化,更构建起跨时空的对话场域。这种技术应用既保留了文化内核的本真性,又增强了传播感染力。
三、技术驱动下的媒体生产逻辑转型
AI视频技术的应用实践不仅带来了工具层面的革新,更触发了内容与技术适配的媒体生产逻辑系统性转型。研究表明,不同题材类型对AI技术有着差异化的需求特征:如,文旅类内容更依赖风格迁移技术的美学强化功能,历史类题材需依托主体参考技术确保史实准确性,而科技类报道则充分发挥AI在信息整合与热点追踪方面的效率优势。AI技术如何影响机构媒体的生产,不仅关乎技术操作层面的改变,更涉及机构媒体对自身定位、内容属性及受众特征的思考。
(一)人机协同的创作机制重构
在AI技术渗透内容生产全流程的背景下,机构媒体逐步建立起“人类主导、AI赋能”的新型协作模式。该模式具有三个典型特征:首先是流程再造,形成“文本—图像—视频”的三阶段转化体系,各环节采用差异化工具组合(如ChatGPT用于脚本优化、Midjourney处理图像生成、Runway实现视频转换);其次是分工优化,将技术性工作交由AI处理,使采编人员得以聚焦核心创意;最后是价值把关,通过人工干预确保内容的人文温度与专业品质。这种人机协同机制既提升了生产效率,又维护了媒体的专业权威性。
(二)功能导向的叙事策略演进
机构媒体的AI视频应用呈现出明确的功能分化特征:在信息传递维度,通过视觉化手段强化认知效率,如新华网《超越时间“限”》运用连续转场浓缩五千年文明史;在情感共鸣维度,借助技术特效激活集体记忆,如中国青年网《穿越AI光影,礼赞在新中国巨变》用快门效果串联历史瞬间;在认知降维维度,采用具象表达解析复杂议题,如南方+《“新”动大湾区》通过微观透视展现科技成就。这种功能化叙事策略既延续了媒体的公共属性,又适应了移动传播的碎片化特征。
(三)技术约束下的创作规范建立
机构媒体利用AI挑战长镜头,并非盲目追求一镜到底的极致长度。目前机构媒体生产AI视频长镜头的时长一般控制在1分钟内,且通过分段衔接替代纯粹的一镜到底,如相同场景或相似构图的一组长镜头匹配两到三个子镜头,每个子镜头聚焦一个独立场景,再通过人工剪辑拼接。10—30秒的迷你长镜头,能较好保证人物、物体、场景的基础连贯性,将长镜头的时长控制在AI能力范围内。AI视频的画面结合了新闻性和艺术性的表达,文案是其新闻性的核心载体。机构媒体通过文案的“帽子”给出明确的新闻要素,表明新闻由头,通过文案的“靴子”传递信息、提炼观点、升华价值。
四、南方周末的AI应用实践
2025年,南方周末采取了一系列新的举措,将AI技术应用纳入系统性变革实践,加快推进媒体深度融合发展。新年献词《用你的活法定义世界的算法》罕见聚焦AI,且新年特刊所有稿件的配图都要求记者编辑自己用AI生成,完成了对全体采编人员的AI技能大普及。
同时不断探索AI应用的使用边界,不断增加相关的规范,在编前会、评报会等多个场合多次强调:
一是要树立技术应用的边界意识,确保技术驱动系统性变革中人的主导地位。将AI视为工具而非内容生产的核心主体,强调人的主体性,强调人工在新闻采写、编辑、审核中的不可替代性,避免因AI技术滥用导致新闻失实、价值观偏差或伦理争议。新闻生产中的深度采访、逻辑分析、价值判断等环节依赖采编人员的专业素养,AI难以替代人类对复杂事件的洞察与人文关怀,须保持人工主导的内容生产模式。人的主体性的另一方面是创意能力,也就是人机协同中人是居于主导地位的。
二是对新闻内容的真实性绝对优先原则。AI生成内容(如虚构事件、合成画面)绝对不允许使用在新闻报道中,从源头杜绝AI参与核心内容创作。AI生成的配图也尽量用漫画等类型而不是真实人物或生活场景类型,尽量避免让用户产生混淆或误导。在稿件、专题甚至整个客户端的包装展示上,报社也要求尽可能地优先展示新闻元素,避免在细节上破坏公众对媒体的信任。
三是严禁用AI写稿,强调全媒体人才培养在系统性变革中的不可替代性。AI写作工具虽然能够快速生成流畅的文本,但其本质是基于已有数据的概率组合,而非真正的理解与思考。技术的革新始终是手段而非目的,唯有将新兴技术与内容价值深度融合,以技术赋能叙事、以创意激活工具,才能真正释放融媒体的传播潜能。
南方报业的AI应用创新大赛“以赛代练”“以赛促训”推动成果转化。笔者使用四类AI工具完成了一部13个核心场景、90个分镜、45秒时长的微电影《广州人的运动会DNA有多强》,获得一等奖,是在系统性变革框架下对人机协同内容生产模式的一次验证。以下是基于实证的五点经验总结:
一是动作要优雅。在AI绘画领域,生成静态物体相对容易,但精准呈现动态的人体动作却充满挑战。这是因为AI对连续动作的理解是碎片化的,而非动态连贯的。AI生成图像的本质是“拼凑已知片段”,而非真正理解运动力学。当面对复杂动作时,其缺陷会集中爆发。因此可以通过策略性选择运动主题,优先选择低复杂度的动作来大幅提升生成成功率。比如马拉松,四肢交替规律,重心始终垂直,动作循环性强;比如划龙舟,划桨动作整齐划一,躯干稳定性高。慎选高难度动作,比如霹雳舞。当前阶段,选择“优雅动作”仍是性价比最高的策略。就像教孩子画画先从站立小人开始,让AI处理划龙舟比处理霹雳舞更可能产出可用结果。这不是对技术的妥协,而是对创作规律的尊重。
如果必须呈现动作复杂的项目,可以考虑第二点策略:背影更安全。因为正面面对镜头的情况下,人物面部、肢体的畸变会非常明显。既然正面不可控,那就上背面。这相当于为AI设置了一个“视觉安全区”,既能保留动态张力,又能规避最易暴露缺陷的细节。
三是特产要特训。要生成一朵在广州街头很常见的木棉花,对AI来说是非常难的。这是因为AI的视觉认知完全依赖训练数据。如果某种物体在训练集中出现频率低,AI就可能无法准确理解其特征。相比木棉花这样的地域性植物,AI更熟悉玫瑰、樱花。输入提示词“红色五瓣花”,AI可能优先生成更常见的月季而非木棉。未经学习的情况下强行生成,就会出现细节缺失。那么可以先喂给AI一张木棉花照片,让它先学习再工作。“特产特训”仍是解决AI“地域盲”最直接的手段。就像人类需要亲眼见过木棉花才能画得传神,AI也需要被“带着观察”一次,才能摆脱“纸上谈兵”的局限。
四是分而治之。AI生成复杂动态场景时常常“贪多求全”,导致构图混乱、透视崩坏。这时候可以把一个长镜头拆成两个短镜头。两个短镜头一个负责开头,一个负责结尾。中间让AI自动衔接运动轨迹。
五是记忆面包。当需要生成一系列图像时,AI往往会将同一个角色演绎成“百变星君”:发型忽长忽短、瞳色变幻莫测、服装风格跳跃式切换。这种“人格分裂”式的输出源于AI的底层逻辑缺陷:传统扩散模型每次生成都是独立采样,没有长期记忆能力。就像患有瞬间失忆症的画家,每次提笔都重新“发明”角色特征。即使输入完全相同的提示词,AI仍然可能生成不同的画面。这种不可控的变化会让创作者陷入“抽卡式创作”,必须反复生成并手动筛选,效率极低。这时,用前段画面垫图,在生成新图时强制AI参考既有特征,在前段画面的基础上去生成新的画面,相当于给AI吃了记忆面包,这样就能保持作品的一致性。
创作中仍然遇到一些难点,是目前暂未解决的。以Midjourney为例的AI工具支持部分参数控制,但光影风格、面部特征在不同分镜中仍会发生轻微变化,造成画面风格不稳定;以可灵为例的AI工具采用按量计费模式,在描述词未达理想状态前需要大量测试,试错成本难以预测;以Runway为例的AI工具制作的中长镜头难以完全替代人工动画,需使用多个短镜头拆分并用传统剪辑手段进行“黏合”,在表达高复杂叙事方面仍受限制;绝大多数AI工具制作复杂的人物动作时容易出现畸变。
五、结语
AI技术的快速发展正在深度融入主流媒体系统性变革进程,同时也在重塑媒体内容生产范式。本研究通过实证分析表明,AI视频技术已从实验性应用逐步走向规模化生产,为机构媒体在叙事创新、效率提升等方面提供了全新可能。然而需要清醒认识到,技术革新永远不能替代媒体的核心价值判断。在AI时代机构媒体应当建立“技术赋能—专业把关—价值引领”的三重保障机制,既要积极拥抱技术创新,更要坚守新闻专业精神。未来,随着多模态大模型持续进化,AI视频技术或将突破现有创作边界,但“真实是新闻的生命”这一根本原则永远不会改变。媒体从业者需在技术创新与职业操守之间保持动态平衡,才能真正实现“技术向善、传播致效”的融合发展目标。(参考文献略)
作者:
吴悠 南方周末创意内容部总监
刘宇荣 南方周末创意内容部新媒体编辑


南方传媒研究 2025年第4期总115期
欢迎订阅《南方传媒研究》
本刊邮发代号:46-582
本刊唯一投稿、合作邮箱:
nfcmyj@163.com
订阅后可查看全文(剩余80%)