《全球6G技术大会:2024年“6G+未来电视”视频应用场景需求与技术解析白皮书(33页).pdf》由会员分享,可在线阅读,更多相关《全球6G技术大会:2024年“6G+未来电视”视频应用场景需求与技术解析白皮书(33页).pdf(33页珍藏版)》请在三个皮匠报告上搜索。
1、1/32目录前言.21、从 5G 向 6G,新视频应用与新终端的发展特点及技术需求.31.1 3D 技术与应用的发展趋势.31.2 VR/XR 技术与应用的发展趋势.42、“未来电视”不同终端应用场景的特点及技术需求.52.1“未来电视”的概念与发展趋势.52.2 呈现方式多样化与视听体验沉浸化制作的特点.52.3 6G+超高清相关应用场景的发展.143、8K VR 沉浸式视频直播的技术流程与特点.203.1 8K VR 直播系统整体框架.203.2 VR 内容采集与拼接.213.3 VR 视频编码.213.4 VR 内容分发.233.5 VR 流媒体传输.233.6 云 VR.243.7 8
2、K VR 现场直播系统的技术特点.244.未来电视对 6G 移动网络的需求.285.总结.30参与单位及人员.322/32前言从中国进入 5G 时代伊始,5G+超高清技术与应用结合,成为了 5G 相关应用中发展和普及速度最快的场景。大量优质超高清内容的涌现满足了 5G 移动终端的用户体验需求,特别是 4K、8K 直播场景借助于 5G“大带宽、低延时”特性,为制作域提供了更高效、灵活的大带宽无线传输方案。同时,超高清技术作为 5G 技术拓展的核心支撑技术,赋能于多个领域的跨行业数字化转型,为工业、医疗、军事、教育等提供了更丰富的数字解决方案。随着移动通信技术的进一步发展,下一代移动通信技术 6G
3、 概念推出与更多应用场景的需求涌现,“更大带宽”、“更低延时”的技术迭代升级和超高清 8K、沉浸式交互式视频体验应用开发,推动了 VR/XR 与 3D 立体呈现等新的终端体验的快速发展。广大用户也将充分享受到新技术、新终端升级带来的全新视听和感观体验。广电总局等多部委从 2023 年开始推动中国面向“未来电视”的发展规划,“电视”这一概念将不再局限于传统平面电视这一单一平台,户外大屏、手机/PAD 等移动互联网终端、VR/AR 等交互式头显终端、新一代 3D 立体呈现终端(包括 3D LED 屏幕,应用裸眼 3D 技术的手机和 PAD 等)乃至一些还在开发中尚未面世的新型视频终端载体,都将成为
4、“未来电视”理念中的“电视”内容传播载体。每一个视频终端载体的呈现方式不同,使用场景也有差异,对于技术规格的需求也不尽相同。但是,观众对于视听体验的质量随着技术优化而不断升级的愿望是不会改变的,4K/8K 及 HDR、三维声等新型视听技术的加持,更大尺寸的平面终端,VR 等超大视角范围的交互式终端,都对 8K 分辨率、高帧率以及更大的实时传输能力提出要求;同时不可忽视的一点,用户对于不同终端之间的视频内容切换,如手机到大屏到头显等不同终端之间(“屏”与“屏“之间的,广电、运营商、自媒体等不同内容提供方的内容在不同终端之间的显示投射方式的转换)的“投射”转换的平滑程度(无缝和高同步、无延时感的信
5、号切换衔接能力),对于最终用户的体验感受同样至关重要。本白皮书主要针对于“未来电视“所涉及场景中对于多重直播应用的特点、技术需求、建议解决方案,以及与 6G 技术和应用场景如何更紧密结合,实现更多创新型的内容直播、体验及跨行业应用解决方案提供相关建议和参考。3/321、从 5G 向 6G,新视频应用与新终端的发展特点及技术需求用户对丰富应用的需求,驱动了网络技术的不断升级。从通信领域提出 6G 的概念到今天,6G 标准、技术、应用得到快速发展。技术的迭代升级也加速了应用创新,如果说 3G 推动了微博、推特等社交媒体,4G 推动了微信、电商等应用场景,5G 带来高清的移动短视频、互动直播体验,也
6、同时加速垂直行业的数字化转型。6G 网络正在逐步走来,6G 将使用中频率上段等更多频段进一步提升网络传输速率。同时需要借助新能力、新应用场景来兑现网络价值,赋能千行百业,通过应用创新加速产业和商业的正循环。6G 网络的峰值传输速率将达到 100Gbps 以上,大幅超过了 5G 网络的 10Gbps,理论上通信时延仅为 0.1 毫秒,也只有 5G 的十分之一。这样的技术规格,即使是用于专业超高清 4K/8K 广电视频制作领域,已经能够达到有线无压缩传输的技术规格,理论上可以大幅降低过去由于视频信号深度压缩带来的编解码延时,所以实际发生的延时总量(链路+处理)也将大大降低,过去无线传输所带来的时延
7、影响对专业化制作带来的不便,也将从根本解决,同时也为更多的视频应用创新带来了可能。而 5G 向着 6G 演进,将为消费者带来哪些与众不同的应用创新?这些应用创新何时能实现规模化商用落地呢?目前围绕视频应用场景,我们认为在 6G 阶段,在原有的 5G+4K/8K 超高清技术结合基础之上,裸眼 3D 的应用以及 VR/XR 等场景随着新终端不断升级将迎来新的爆发增长机会。1 1.1 1 3 3D D 技技术术与与应应用用的的发发展展趋趋势势随着 5G 技术发展,消费者业务呈现云化、3D 化和智能化的新趋势。同传统 2D 视频相比,3D 视频同样经历了漫长的发展过程,虽然受制于制作技术的复杂和成本、
8、播放终端的技术局限(包括院线和头戴式终端)、舒适性体验等不足,市场占有率一直受限,目前尚不具备替代 2D 成为主流的实力。然而观众对于 3D 体验的喜爱以及对 3D 应用场景的消费意愿却始终不减,在主题公园(迪斯尼乐园、环球影城等)、电影院线(特别是科幻类、动画等题材)中 3D 体验和影片的票房及受欢迎程度,充分证明 3D 技术与应用具备足够的市场竞争力。事实上,3D 的发展和关注度随着各种缺陷与不足,虽然不断经历起伏变化,但随着链路中各个环节技术的不断升级,几乎每十到十五年都会迎来一次爆发。上一次的爆发点是 2010 年前后随着电影阿凡达的上映,3D 数字院线普及触发了优质 3D 体验的升级
9、,以及同阶段 3D 电视面世引发销售推广热潮,3D 电视频道不断涌现,带来了一次 3D 爆发式增长。然而随着内容制作的复杂性及高昂成本,终端体验的舒适度和佩戴 3D 眼镜带来的不便,裸眼终端清晰度不足和效果不佳等问题,和后来快速普及的4K 超高清终端相比,3D 终端缺乏足够的市场竞争力,在 2016 年前后 3D 又步入低潮期。2021 年 5 月举行的谷歌 I/O 大会上,谷歌公布了全息视频聊天技术 Project Starline(3D 视频聊天室),基于计算机视觉、机器学习、空间音频和数据压缩技术打造的突破性光场显示系统,旨在取代一对一的 2D 视频电话会议,让用户感觉就像坐在真人面前一
10、样的沟通交互体验,在行业内引发了巨大反响。4/32近两年来,新一代的 3D 显示终端开始逐步成熟,包括中兴电子发布的裸眼 3D PAD,GOOVIS 等厂家推出了 可以直连 5G 手机的“头戴式家庭影院”便携型头显,将优质 3D 内容体验与 5G 移动终端紧密绑定;再加上 VR 头显终端本身也是 3D 内容体验的载体之一,新一代的便携型终端出现也为 3D 再次复苏提供了绝佳机会。伴随 3D 云化视频、裸眼 3D 通话、XR 元宇宙等应用创新,特别是超高清技术赋能于3D 内容制作与现实,将过去的高清 3D 提升到 4K 3D 水平,真实感、沉浸感大幅升级,同时对现有网络也提出更高要求,从云到终端
11、的网络传输要求更快。6G 技术让消费者未来不仅可在家里观看裸眼 3D 视频,也可在户外、地铁、公交车等地方随时用手机、专用设备体验 3D 视频等丰富应用。裸眼 3D 产业发展,离不开优秀的视频内容特别是直播内容支撑。6G 提供的网络高带宽,以及快速发展的 AIGC,将大幅提升内容创作的效率和质量,势必将极大促进 3D 裸眼视频等的产业应用的快速发展。1 1.2 2 V VR R/X XR R 技技术术与与应应用用的的发发展展趋趋势势在 5G 时代,5G+VR 已经成为了 5G 标准化应用场景之一,而各大视频和游戏平台已经出现一批虚拟现实(VR)类应用,比如 VR 全景视频、VR 云游戏等。在
12、8K 技术的加持之下,VR 视频内容的呈现效果大幅提升,特别是当苹果 VISION PRO以单目 4Kx4K 的 LED 分辨率加持,在接近 100沉浸视角下实现了 35-37PPD 的高解析力,将 VR 头显终端的还原力提升到了前所未有的高度。可以说,在 360 VR 的全沉浸视角下,8K 乃至今后更高级别的清晰度规格真正成为了刚需。随着优质 8K 及以上分辨率级别 VR 直播内容不断涌现,规模化的沉浸式内容实现高效量产,借助于 6G 大带宽的传输能力和低延时优势,为观众能够提供适配 8K 以上更高分辨率量级的高码率实时数据传输能力及低延时交互响应,高清晰的立体空间视频借助于新一代的 VR
13、头显终端,可能将真正成为互联网时代用户的新宠。同时,扩展现实(XR)作为元宇宙的重要技术支撑,越来越受到业界关注。随着头显的轻便化发展,增强现实(AR)、混合现实(MR)类应用也越来越多。目前这些头显主要通过有线或者 Wi-Fi 连接到服务器,而这限制了用户使用业务的范围。随着未来 6G 网络覆盖的逐渐完善,6G 超大带宽、超低时延、超高速率的连接特性可满足更广泛的 XR 业务的需求。随着更多新视频应用场景和终端在 6G 时代的不断涌现,我们可以预测在不远的将来,观众无论身处何处,都可以采用不同的体验方式(大屏超高清、手机竖屏、3D 电视、VR和 AR 等,或者户外车载设备、互联网接入设备、带
14、有触觉感知的体验设备)来观看节目内容,并根据自身的需求和喜好,形成多样化的观看及交互体验。5/322、“未来电视”不同终端应用场景的特点及技术需求2 2.1 1“未未来来电电视视”的的概概念念与与发发展展趋趋势势“未来电视”是一个广义的视听概念,它代表着视听产业的未来发展趋势。它不止于电视,是新的理念模式,是系统性、革命性的迭代升级。其中的主要特征包括:呈现方式多样化、视听体验沉浸化、应用场景全景化、服务形态智慧化、服务供给协同化。其中,呈现方式多样化表示,呈现载体不限于电视机,可能是生活中随处可见的各种显示介质,包括各种手持终端、可穿戴设备、室外大屏等各类显示载体;视听体验沉浸化,包括超高清
15、、沉浸式、三维声、VR/AR、MR、XR、互动视频、自由视角、立体 3D、全息成像等多种体验方式,观众可以自由选择视听服务。应用场景全景化希望实现在生活中需要视听的各种场景中应用,全方位融入群众的数字生活。服务形态智慧化则考虑将实现现实世界和虚拟世界的紧密融合,节目内容自由选择、实时交互、需求定制、智慧分发,高度人性化,将带来丰富的互动体验,满足消费者多层次需求。服务供给协同化,“未来电视”将带动行业上下、内外大协同、大融合,形成网络互联、业务互通、数据共享的全新制播体系、服务体系和管理体系。图 2.1.1 视听体验多样化和沉浸化,不同终端载体为观众提供更丰富的视听选择2 2.2 2 呈呈现现
16、方方式式多多样样化化与与视视听听体体验验沉沉浸浸化化制制作作的的特特点点一方面,面向不同媒体终端提供针对性更强的定制内容体验,已经成为了刚需。无论6/32身处何处,观众可以采用不同的体验方式(大屏超高清、3D 电视、VR 和 AR 等,或者户外车载设备、互联网接入设备、带有触觉感知的体验设备)来观看相同的节目内容,形成多样化的观看体验。图 2.2.1“未来电视“场景下将面对丰富的终端体验图 2.2.2“元演播室“复合型节目制作形态为“未来电视“提供多形式内容7/32图 2.2.3 不同拍摄前端,基于标准 4K/8K 制播系统和格式,组成复合型的制作系统形态基于此需求和应用场景,面向规模化的节目
17、制作需求,可以考虑采用不同的前端拍摄设备,如 4K/8K 讯道转播摄像机、8K VR 摄像机、4K/3D 摄像机等,遵循同一广电制作规格,连接入 4K/8K 广播级转播系统,以实现高质量的节目制作流程,最终通过编码器根据不同终端及平台的具体要求提供相应规格的直播流,再借助 5G 网络或者其他信道方式进行传输。表 2.2.1 面向不同终端的制作规格参考值另一方面,视听体验的沉浸化,是所有视频内容创作者的终极目标,也是视听技术发展的源动力。我们希望创造出更加清晰、更为真实的视觉体验,让观众获得身临其境的观感。终端的技术演进和产品设计,也希望为观众提供更佳的沉浸式体验。8/32图 2.2.4 采用巨
18、幕提供尽可能大的视角范围,是提供沉浸感体验的常规手段为了获得视听体验的沉浸感,我们首先力求为观众创造一个尽可能大的观影范围,尽量覆盖观众的有效视野,最大程度提供有效信息(包括满足视觉和听觉需求)。通常 60水平视角是一个标准,一般电影院、剧场的最佳观看位置以此定义。4K 电视也以此视角来设计合理的分辨率,基于一视角分的原则(1视角需提供不低于 60 个像素以保证观看清晰),最终将 4K 影像分辨率定义为 3840 x2160(宽高比 16:9)。而 8K(7680 x4320)则在此基础上进一步提升观影范围,加入了更多的环境边缘信息,使标准的观看视角提升到 96,观众相当于在 1 米多远的距离
19、来观看 100 寸 8K 电视。图 2.2.5 4K 和 8K 分辨率的设计和水平视角的关系VR 头显终端虽然体积不大,却能够为观众提供更大的观看视野,其专门制作拍摄的VR 沉浸式影像内容可以达到 180或者 360的观看视角,实现真正意义上“无边框“的全景体验模式。9/32图 2.2.6 VR 头显终端可提供 360的观看视角,实现完全沉浸式、无边界体验由于 VR 头显终端所配置的 LED 液晶屏的视野范围 FOV 都超过了 90视角,和 8K 大屏标准观看影像视角接近,也就是理论上这块 LED 液晶就应该具备 8K 分辨率的显示能力(PPD 接近 60),那么对应于 360的 VR 全景影
20、像,其清晰度应该满足 30K 的水平清晰度。就目前的软硬件制作与显示端的处理能力,仅能满足到 8K 视频的编解码能力,所以目前所规定的行业标准中,建议全景 360视频达到 8K 分辨率,而其 LED 液晶屏的显示范围大约能接近 HD 高清水平,距离真正的超高清体验尚有提升空间。图 2.2.6 VR 头显的观看视角大于 90,8K 分辨率的影像内容只能满足基本清晰要求随着苹果 VISION PRO 头显终端的问世,“空间视频”这一概念被广泛提及。也包括前几年由谷歌推出的裸眼 3D 全息视频聊天技术 Project Starline 项目,都可以认为是基于双眼立体视觉 S3D(Stereoscop
21、ic 3D)呈现技术的进一步升级和拓展应用。立体影像(这里主要指双目立体 S3D),基于双眼视觉产生视差和视线汇聚的原理,可以使观众感受到真实的距离和空间感。采用双镜头摄像机同步拍摄模拟人的双眼视觉方式,可以获得空间立体视频,再借助于 3D 屏幕或者 VR 头显、AR 头显终端就可以正确显示出10/32具有立体感的 3D 影像。3D 立体效果是人类感知空间感和沉浸感的重要因素,该技术可与平面影像技术、VR/AR 等显示方式相结合,根据不同终端的视场角 FOV 和 PPD 需求,输出如 4K/HD 双目3D 或者 8K 360或者 180 3D VR 等信号,提供不同的空间立体效果。图 2.2.
22、7 8K 3D 180 VR 的沉浸式节目内容(Side by Side 方式)图 2.2.7 180 3D VR 与双目 3D 的拍摄方式与输出效果3D 视频与 3D VR 视频相比,最大的区别在于视场角,3D 视频的视角范围与普通 2D视频一致,主要取决于镜头的焦段影响,为了获得较好的立体感,通常会采用中广角镜头来覆盖更多的空间范围;但是也因为普通镜头视角范围以及所采用的 16:9 画幅比所带来的限制,观众在观看普通 3D 影像时,空间感和沉浸感会收到“画框”的局限,当立体空间中的画面主体逐渐“走近”观众时,由于“画框”的存在,主体可能无法完整的呈现在观众面前,也就是所谓的无法完整的“出屏
23、”,观众会感觉不能完全融入到创作者所呈现的数字空间之中。11/32图 2.2.8 普通 3D 影像中的主体会受到“画框”限制无法完整出屏3D VR 影像是将全景拍摄和双目立体拍摄两项技术与呈现方式的优势相结合,观众可以在几乎无边框范围的数字影像中获得完全沉浸的效果,同时借助于 3D 拍摄带来的立体视差,可以获得极强的空间感,相比于普通 3D 影像,观众就可以完全进入到 3D 数字空间之中,获得真正意义上的沉浸式体验。当然,3D VR 与普通 3D 还有平面大屏幕 4K 和 8K 所获得效果不同,内容表现形式和创作手法也不同,制作的难度也不尽相同,应该讲各有优势和不足,不能单纯的评价孰优孰劣。不
24、同的制作与呈现技术可以根据不同内容进行合理的选择,也可以在相同的场景下混合使用,为观众带来不同的体验感受,这也是“未来电视”场景下面向不同终端带来的复合制作模式,让观众根据自身喜好自由选择希望的观影形式。图 2.2.9 3D 180 VR 拍摄,可以将观众真正融入虚拟空间,获得触手可及的交互感在这里,超高清视音频技术中所涉及的 HDR 高动态范围、WCG 宽色域技术、HFR 高帧率和沉浸式空间音频等,均可以赋能于以上提到各种终端显示与制作系统中,为不同终端提供最佳的技术适配,为观众带来最好的沉浸式体验。12/32图 2.2.10 数字视音频技术演进方向为了保持制作、播出平台和终端播放适配标准的
25、统一性,在 4K/8K 领域的以上应用场景,可以遵循目前国内的超高清影像制作和传输标准规范。可参考中央广播电视总台于2021 年正式对外发布了8K 超高清电视节目制播技术要求(暂行),其中定义了国内 8K超高清电视节目视音频基本技术参数执行标准。以分辨率 7680 x4320、帧率 50 帧/秒、10bit 量化、HDR 标准 HLG1000、宽色域标准 BT.2020 等作为 8K 广电制播规格要求。如 VR头显等终端可以根据自身的实际情况(如 VR 画幅比为 2:1,8K 分辨率实际为 7680 x3840)进行局部调整。13/32图 2.2.11 中央广播电视总台 2021 年 1 月发
26、布8K 超高清电视节目制播技术要求(暂行)中定义了 8K 超高清电视节目视音频基本技术参数表同时,总台还规定了 8K 超高清电视播出信号编码标准及码率:8K 超高清电视播出信号视频编码时,采用 AVS3 标准信息技术智能媒体编码第 2 部分:视频(T/AI 109.22020),对 8K 超高清信号(76804320/50P/HDR)采用基准 10 位档(profile)、10.0.60级(level),视频编码码率不低于 120Mbps。音频编码标准及码率:采用 5.1 环绕声编码,编码码率为 448Kbps。针对 8K 超高清电视互动点播,总台规定了文件格式参数为下表要求,其中视频编码要求
27、 AVS3/H.266/H.265,总码率需高于 80Mbps。可以看到,随着 8K 技术标准的提升,新型应用场景对于高带宽和低延时的实际需求,对于制作域还是传输域都提出了更高要求,特别是传输带宽、网络传输和处理时延、编解码的软硬件性能要求等,对于当下的硬件基础和网络条件都提出了新的要求和挑战。现阶段的 5G 网络,受限于传输速率,及各终端的数据处理能力,必须使用高压缩编码(如H.265 等)对 4K 和 8K 等视频内容进行处理,一方面压缩与编解码过程对于信号本身的还原效果会带来影响,同时编解码所产生的延时量也会与信道延时叠加,从而拉开了无线链路与有线链路时延的差距。在 5.5G 乃至 6G
28、 阶段,可以逐步考虑采用低压缩视频编码如JPEG-XS 等,使用更低的压缩比(如对 8K 信号采用 10:1 压缩比,将单路数据量控制在 1-10Gbps 范围内)和相对计算复杂度低的编解码处理过程获得更高质量的信号,同时降低编解码端的整体延时。14/32图 2.2.12 中央广播电视总台 2021 年 1 月发布8K 超高清电视节目制播技术要求(暂行)中定义了 8K 超高清电视互动点播文件格式参数2 2.3 3 6 6G G+超超高高清清相相关关应应用用场场景景的的发发展展5G 发展初期,将 5G+4K 作为典型应用场景,基于 5G 无线网络“大带宽”主要特性,满足超高清内容传输的需求,同时
29、借助“切片“技术,实现可靠稳定传输链路,替代有线专线网络或者光纤、卫星传输,提供更高性价比的传输方案。在此基础之上,进一步发挥网络优势,拓展应用场景,为观众提供“多视角自由切换“等新交互功能体验,实现多路 HD 或 4K 信号的并行同步传输,基于”边缘计算“部署,完成超低延时的高质量信号同步切换和处理能力,让观众获得无延迟感的内容平滑切换体验,将”大带宽“带来的高画质与”低延时“带来的强交互能力更好结合。15/32图 2.3.1 5G+超高清+多视角结合,带来更好的交互式用户体验图 2.3.2 5G+4K+多视角制作系统框图面向移动终端的竖屏制作,其制作系统本质与横屏并无区别,主要是画幅和构图
30、的变化。在制作手段上,可以直接采用摄像机竖置直接拍摄 9:16 画面,也可以基于 4K 或 8K 横屏拍摄后通过后端进行竖屏裁切输出,也可以两个方式组合使用。呈现方式也可以根据用户观看习惯和导演设计,发挥竖屏观看的特点及用户交互式需求,引入一些新的表现方式,如双屏纵向显示带来多视角、多场景体验等,与横屏的观看形式和内容形成更好的差异化。16/32图 2.3.3 2024 中央广播电视总台春晚竖屏直播采用了丰富的镜头拼接组合,为竖屏营造不同于横屏的丰富体验5G+VR 的应用同样是最先出现的 5G 落地场景之一,而随着 8K 技术逐渐成熟,VR 头显终端的配置逐步升级并支持 8K 信号的实时解码能
31、力,相比于 4K VR 在全景视频下的清晰度依然稍显不足,8K 的高分辨率真正实现了 VR 体验的清晰真实感受,5G+8K+VR 成为刚需。字节跳动旗下的 VR 平台 PICO 在 2022 年 4 月举办的王晰演唱会中首次实现 8K 3D VR实时互动演唱会,而后郑钧、汪峰的演唱会也均采用 8K 3D 180VR+实时互动的形式。这几次演唱会在清晰度、视角设置、场景交互等关键观感因素方面实现巨大突破,VR 直播体验大幅提高。图 2.2.4 PICO 8K 3D VR 郑钧演唱会直播虚实结合体验效果2023 年,4K 花园与中国移动咪咕合作,面向移动终端咪咕 VR 平台和头显终端咪咕云 VR
32、平台用户,提供定制化演艺内容 8K VR 直播,包括 LIVEHOUSE 和 CGT48 女团现场等精彩内容,为 VR 平台注入不断更新的高质量、高清晰的直播 VR 节目。区别于以往节目的现场 VR 套拍模式,该档节目的制作方式完全以 VR 终端用户的沉浸式和临场感体验为优先,还加入了虚实结合的制作手段,提供了“观众艺人面对面“近距离、沉浸式和交互式体验。17/32图 2.2.5 4K 花园与中国移动咪咕合作推出 8K VR 现场奔赴计划,为 VR 观众提供面对面的沉浸交互体验除了线上用户的 VR 头显终端,8K VR 直播应用场景还可以面向线下用户设计更多沉浸式场景和体验方式。包括将全景直播
33、影像通过大尺寸半球幕 LED 屏方式呈现,以类似 XR的技术方式,观众无需佩戴 VR 眼镜就可以获得如同身临现场的真实体验。图 2.2.6 8K VR 直播也可以在全景式 LED 屏上投放,为线下观众提供现场沉浸体验4K 花园与中国传媒大学合作在 2023 级中传开学典礼中,使用多机位 8K VR 直播系统及 VR 群播呈现方案,实现线下群体沉浸直播观影体验,该场景也可应用于更广泛的跨行业应用中,如文旅和商业活动、医疗教学直播、工业现场检测、教育教学和沉浸式体育健身等。18/32图 2.2.7 4K 花园与中国传媒大学合作在开学典礼中实现多机位 VR 直播和现场群体VR 观看图 2.2.8 6
34、G+8K VR 多机位直播及线上、线下观影体验系统框图19/32图 2.2.9 6G+8K VR 直播场景的多行业跨领域应用方式2023 年起一批新的 3D 显示终端逐渐涌现,特别是移动端手机、PAD、便携 AR 头显等产品,可以基于 5G、5.5G 技术加持实现更好的移动式立体观影体验,无论是 3D 空间视频体验,或者是基于商用 3D 模型应用开发等,在娱乐、教育、工业、医疗等场景中均能广泛应用。其终端特点相对于 VR 头显来说,更偏轻量级,制作复杂度也相对较低,更利于普及。图 2.2.10 3D LED 大屏、裸眼 3D PAD、3D 头戴头显等新型 3D 显示终端目前市面上常见的 AR
35、头显和 3D 裸眼 PAD 等移动终端,屏幕的 3D 显示分辨率通常在高清 1080P 水平,也可以支持 4K 3D 的解码,所以制作端可以根据需要来输出 4K 或 HD 级别的双目 3D 信号,其直播系统设计与 3D VR 多机位直播系统类似,主要差异在镜头选择(VR 使用鱼眼镜头,3D 一般使用中广角镜头)。在制作端需要支持实时的立体汇聚调整(3D 出入屏控制)、3D 画面误差校正(如双镜头垂直、旋转误差等)以及保证高精度的双目画面同步等功能,以避免观众在观看 3D 时出现不适感。20/32图 2.2.11 小型化多机位 5G+4K/HD 3D 直播系统3、8K VR 沉浸式视频直播的技术
36、流程与特点本章节主要针对“未来电视“场景下的 8K 直播应用中,较为复杂的典型应用场景 8K VR沉浸式视频直播流程的技术特点进行分析和描述。3 3.1 1 8 8K K V VR R 直直播播系系统统整整体体框框架架图 3.1.1 8K VR 直播系统整体框架如图 3.1.1 所示,常规 8K VR 直播系统分为 8K VR 内容采集、8K 实时拼接和编码、视频流媒体处理,CDN(Content Delivery Network)分发传输,终端流媒体传输和渲染等。主要工作流程如下:现场直播团队通过 8K VR 摄像机采集会场多路视频信号并回传到 8K 拼接和编码服务器;8K 拼接和编码服务器
37、进行实时全景视频拼接,并编码成 8K 视频流,然21/32后通过 SRT 等传输协议推流到直播流媒体服务器;直播流媒体服务器对 8K 全景直播信号进行实时处理和编码,生成适合传输和终端播放的编码格式;直播云 CDN 将已经编码的直播流分发到用户最近的边缘服务器;最后终端进行 VR 全景直播流的下载、解码、渲染和呈现。下面对上述关键业务流程进行介绍。3 3.2 2 V VR R 内内容容采采集集与与拼拼接接VR 直播要求实时的内容生产,内容采集依靠 360或 180 8K 摄像机。全景摄像机通常具有多个镜头,覆盖当前场景全部视角。生成的视频分辨率越高,则需要摄像机具有越高的分辨率以及越多的镜头数
38、量。直播时多个摄像头同步拍摄生成多个不同角度的画面内容,随后在内置模块或外置服务器上进行拼接。目前,主流的全景摄像头基本自带内置拼接模块,支持较低分辨率的实时全景拼接。而高清晰度的 8K 视频画面由于计算复杂度较高,则需要在外置的服务器上进行拼接。常用的视频拼接算法可分为基于变换的图像拼接算法和基于拼接线的图像拼接算法。基于变换的图像拼接算法的核心思想是通过对单应性矩阵进行调整,通过网格化的扭曲使重合区域拼接的缝隙尽可能减小,该算法适合小视角变换的情况。基于拼接线的图像拼接算法核心思想是通过对图像拼接线部分的重新调整,确保拼接的自然性,该算法适合大视角变换的情况。为了达到全方位、沉浸式渲染效果
39、,全景视频实际上是以球面形式呈现,然而其传输过程必须遵守现有的视频编码标准,即多相机拍摄的分视角视频在经过拼接后,需要映射成平面矩形帧。目前主流的映射方式有圆柱型映射 ERP(Equi-Rectangular Projection)和立方体映射 CMP(Cube-Map Projection)两种。圆柱型映射 ERP 方式与世界地图的产生相类似。立方体映射 CMP 首先将完整球面均分为六个区域,分别投影到立方体的六个面上,其中底面、背面和顶面需要再通过特定的旋转操作与其他三个面共同排列成矩形帧。为了提高编码效率,三个旋转面的操作原则是使排列时面与面衔接处的媒体内容保持连贯性。3 3.3 3 V
40、 VR R 视视频频编编码码VR 直播系统中存在两个编码环节,一是拼接映射的视频需要编码为 8K 的直播信号,方便再次传输至云端流媒体服务器;二是流媒体服务器需要将信号编码为不同目标码率的适合传输和终端播放的编码格式。全景视频的编码与 2D 视频编码方法相似,都需要采用混合编码框架对序列进行压缩,但是全景视频高分辨率、高形变的特点又使其比 2D 视频编码面临更多困难。将传统编码方案直接用于全景视频主要会产生以下问题:1)全景视频或多或少地存在不均匀采样,由此引入了几何失真;2)全景视频由球到面的投影增加了人工边界并导致不连续,影响空间预测效率,编码后视频码率高。以上两点都会降低视频编码效率。为
41、了克服这些困难,研究者开发了各种专用于全景视频的编码工具,以在编码效率和视觉质量之间取得更好的折衷,这些工作可分为以下几类:区域自适应平滑技术。该技术的出发点是在 ERP 投影平面中,两个极点附近的区域要比球形区域中实际对应的区域大很多,而实际上人眼对其不是很敏感,因此这些区域的变形变得不那么重要。具体方案是在编码之前对 ERP 投影平面的顶部和底部区域进行平滑处理,经过平滑处理后的编码可以节省很多比特,因为平滑区域只需要较少的变换系数。该方案的优点在于在节约码率的同时几乎不会引起22/32感知质量的下降;缺点在于难以推广到其他投影方式中。率失真优化技术。通过分析球面上的失真变化并探讨其对率失
42、真优化过程的影响,采用修改编码优化目标,实现了在球面上进行率失真优化。由于该算法是基于全景视频的质量评价指标的修改,因此可应用于各种投影。但是率失真模型的建立十分困难,由于目前它使用的依然是基于像素变化的评价指标,并不能很好地表示人的真实主观感受,优化效果仍有待提高。在流媒体服务器侧,流媒体服务器在接收到 8K 直播视频流后,需要通过转码、封装等操作,形成适合在互联网上进行传输的 Dash、HLS 等流媒体格式,并通过 CDN 网络进行分发和传输。VR 常用的视频流有两种方式:全画幅传输和基于 FoV(Field of View)的分块传输。全画幅传输方式将 360环绕画面都传输给终端,当用户
43、头部转动需要切换画面时,不需额外下载任何视频分块,因此能够较好地响应用户头部运动。该方案的缺点在于传输带宽需求非常大,现有网络条件难以有效承载。如图 3.3.1 所示,基于 FoV 的分块传输将视频在时间上切分为多个分片(Segment),将分片在空间上划分多个分块(Tile),每个分块拥有不同的码率等级。服务器对源视频进行转码,以 Tile 为基本单元保存不同码率等级的视频文件。客户端可以根据需要进行码率选择,向服务器请求指定码率等级的分块。码率选择的基本思路是为视窗内的分块请求高码率,不请求或仅以较低码率请求视窗外分块。图 3.3.1 分块 VR 视频编码基于 FoV 的分块传输方案虽然能
44、在最大程度上利用带宽,但高度依赖于视窗预测(Viewport Prediction)。预测窗口较长时,FoV 预测算法的精度非常有限,预测视窗和实际视窗偏差较大,因此终端侧的接收端缓冲区不宜过大;而网络带宽剧烈波动时,接收端需要较大长度的缓冲区以应对抖动。两者之间存在的天然矛盾极易造成视频黑边和卡顿的发生。图 3.3.2 分层 VR 视频编码为了解决该问题,一种分层传输方式开始被广泛使用。它将视频的每个分段编码成一个低分辨率(比如 2K)、全画幅的基础质量分段,以及多个高分辨率的增强质量分块。终端在观看上述编码的 VR 视频时,需要首先下载全画幅、低分辨率的基础质量分段,以获得基础观看体验;根
45、据实际网络条件,选择性下载视场内的增强质量分块。如果视窗预测是正确的,并且增强质量分块按时交付,这样视窗内的视频质量得以增强。如果预测是错23/32误的,或者增强质量分块从远端取回后已经错过了播放时限,用户仍然可以观看基于基础质量分段渲染的低质量视频。因此,这种分层全景视频传输方式流在应对动态网络和视窗预测误差方面都具备了较高的鲁棒性。3 3.4 4 V VR R 内内容容分分发发编码后的多码率全景视频将会采用与传统直播类似的方式进行 CDN 分发。CDN 通常采用层次化网络结构,包括中心节点、区域节点和边缘节点。通过 CDN 分发网络,可以快速地将 8K VR 直播视频内容推流至更接近用户的
46、边缘节点,从而大量减少直播数据流在骨干链路中的并发数量,在提升用户体验的同时,可以有效降低网络流量压力。随着 5G/6G 和 MEC(Multi-access Edge Computing)技术快速发展,CDN 边缘节点可以部署在距离用户更近的地方,比如热点区域、5G 接入网侧等,因此更能适应 8K VR 视频直播的低时延、高带宽需求。同时,借助虚拟化技术和人工智能技术,CDN 边缘节点可以更为高效地管理计算、存储和网络等资源,提供智能化的内容缓存、超分辨率视频增强、云渲染等能力。3 3.5 5 V VR R 流流媒媒体体传传输输在 8K VR 直播视频流媒体传输中,自适应码率选择和下载调度是
47、重要的关键技术之一。考虑到不同的编码方式,自适应码率选择是指在 VR 客户端在下载高分辨率 Tile 分块时,根据动态的网络链路条件,如何选择以哪个码率来下载相应的分块;而下载调度是指,应该何时下载基础质量分段,何时下载增强质量分块。自适应码率选择和下载调度算法的目标是如何在有限的带宽下为用户提供更好的用户体验,考虑视频卡顿、清晰度,以及对用户头部运动的响应速度等因素。自适应码率选择和下载调度算法依赖于视场预测的结果,为视场内的不同 Tile 选择合适的码率进行下载。由于 Tile 码率的选择会影响到视频质量、卡顿、视频质量波动等决定用户最终 QoE 的因素,因此上述问题是一个复杂的动态规划问
48、题。目前解决方案主要分为基于规则的启发式方法和基于学习的方案。传统基于规则的启发式方案计算复杂度低,但由于其通常仅考虑短期优化,总体性能差强人意;近年来,基于深度强化学习的方案引起了研究人员极大的兴趣,其优势在于在特定场景下能够学习到更优的策略,但往往会面临鲁棒性差、计算复杂度高等问题。因此,设计低复杂度、高鲁棒性的 VR 码率自适应和下载调度算法对于提升 8K VR直播用户体验至关重要。视场预测是 8K VR 直播视频流媒体传输的另一项关键技术,视场预测的准确性将直接影响用户体验和传输效率。目前视场预测主要有两种方式:一是基于用户头部运动历史轨迹进行未来视场的预测;二是基于内容本身的视觉显著
49、性特征进行预测。基于头部运动轨迹的预测方式仅适用于短时预测,即未来 12 秒的视场预测,长期预测的准确性不足;而基于视觉显著性特征的预测方式可以反映用户的共同关注区域,能够用于长时预测,但是难以体现用户的个性化行为,并且计算复杂度较高。因此,近年来视场预测的技术发展趋势是将二者结合起来进行联合预测,包括采用边端协同的视场预测方法。尽管如此,低复杂度、高准确性的视场预测方法仍然是当前面临的重要技术挑战。24/323 3.6 6 云云 V VR R8K VR 通常需要在终端侧进行解码和实时渲染,因此对于终端性能要求较高。为了降低 VR 终端成本,云 VR 方案引起了人们的广泛关注。云 VR 是指云
50、端对交互行为进行计算,并实时渲染和编码压缩后,以视频流形式推流到终端。依托于云渲染技术,云 VR 将 VR 虚拟现实的内容和计算能力部署在云端,利用高速网络将渲染后的图像和声音传输到用户终端,实现无需高性能设备也能享受沉浸式 8K VR 体验。云 VR 可大幅降低用户所需投入的硬件成本与使用门槛,用户仅需一款轻便的头戴显示器或智能手机,通过云端强劲的 GPU渲染能力,用户可尽情享受高清晰、高帧率、低延迟的 VR 体验,提升了 VR 的普及程度和便利性。云 VR 涵盖的关键技术包括:分布式计算和渲染。云 VR 将计算和图形渲染任务从终端设备卸载到云服务器上,通过云端强大的计算资源进行高效处理,减
51、轻终端设备的负担。考虑到 8K VR 直播场景,单用户对计算资源和网络带宽需求比较高,在并发用户较多下,分布式计算和渲染将成为一项重要关键技术。低时延传输技术。利用 5G/6G 网络的高带宽和低延迟,实现对云端渲染的视频流进行快速、稳定地传输到终端设备,将有助于保障用户体验的即时性和流畅性。另外,将 CDN 等计算资源下沉到网络边缘,通过在边缘节点进行数据处理,减少传输延迟,提高用户体验的响应速度,特别是在处理实时的交互和渲染任务时。用户交互技术。实时交互,确保云端执行的应用能够实时响应用户的交互操作,包括手势、头部运动等,使用户在虚拟环境中获得自然而流畅的交互体验。手势识别和追踪,实现对用户
52、手势和头部动作的高精度识别和追踪,以提供更真实的用户交互体验,增强虚拟现实的沉浸感。3 3.7 7 8 8K K V VR R 现现场场直直播播系系统统的的技技术术特特点点前面重点讨论了基于云端处理的 8K VR 直播流程。本章节讨论的直播主要以面向 B 端用户的 8K VR 本地化直播系统服务,其系统和制作标准需求以专业级内容制作规格为主。这里的 8K VR 直播,根据不同场景需要,既可以是单机位直播,也可以是多机位大转播系统级别直播。考虑到节目内容制作的实际需求,这里介绍的拍摄方案主要以 180 2D或 3D 为主;360更适合无主体的全景影像(如风光人文类 VR 纪录片)或转播现场中表现
53、环境的全景机位。专业级的 8K VR 单机位直播系统,可以由以下部分组成:25/32图 3.7.1 单机位 180 8K VR 直播系统示意框图系统可以支持单镜头 2D(4Kx4K 50P)或双镜头 3D(4Kx4Kx2 50P),可以实现所有的参数控制和影像处理。针对于 8K 3D VR 摄像机信号,可以完成实时的 VR ERP 校正(将鱼眼 180画面拉伸为等距柱状投影画面)、3D 双目影像误差校正(如光轴垂直误差的数字校正)、摄像机影调控制(画质优化处理)、摄像机参数遥控调整(如摄像机光圈、白平衡、ISO、视音频延时等关键参数等)。另外,考虑到 VR 现场制作的用户需求,本系统还可以直接
54、连接 VR 头显,将 8K VR 信号转换至 VR 头显进行实时高质量监看,帮助导演确认 VR 拍摄效果,做到“所见即所得”。单机位直播制作方式,比较适合表演方向固定的中小型舞台类表演或者类似场景的活动(如商业电商直播、医疗工业教育类培训等),观众在一个视点位置基本可以获得现场全貌也可以关注到细节。图 3.7.2 单机位 8K VR 现场直播的机位设计和拍摄效果(咪咕歌舞青春 8K VR 现场)在单机位系统基础上,可以扩展为多机位大型 8K 2D/3D VR 现场转播系统。用途一般是大型体育赛事、大型演艺活动等。26/32图 3.7.3 可用于小型节目 3 机位 8K 2D 360 VR 直播
55、的小型系统(前 1803 机位切换+后180虚拟包装缝合为 360全景)图 3.7.4 篮球比赛中 3 机位 VR 转播机位点设计图 3.7.5 支持 8K 3D VR 50P 制作的大型多机位沉浸式直播系统27/32图 3.7.6 在动感地带街舞大赛中采用 6 机位 8K 3D VR 进行直播的机位设计将多套 8K 3D 180 VR 相机直播设备,连接到广播级 8K 切换台即可进行专业级的 8KVR 直播制作。由于 8K 3D VR 信号标准为 7680 x3840(2:1)宽高比,需要 8K VR 摄像机控制处理单元在信号输出时,采用信箱模式(上下加黑边填充)将输出格式转为广电 8K 分
56、辨率标准7680 x4320(16:9),才可以进行信号传输和制作;但在前端直播系统末级,建议在编码器端,将最终的输出 VR 信号格式再调整回 2:1 宽高比 7680 x3840 信号,以适配 VR 头显终端,避免由于输出格式不当造成终端显示画面出现变形。一般根据现场节目呈现和终端输出效果的需求,也可以将 2D 摄像机拍摄画面(如 2D 直播的 PGM 或者特写镜头)以及赛事数据模板或演艺节目介绍等信息,通过 VR 处理器转换为 VR 适配的球面效果,再嵌入进 VR直播画面中;或者叠加到通过 VR 信号处理单元生成的后 180虚拟包装画面,再与前 180实拍画面缝合为 360的 VR 全景直
57、播影像。图 3.7.7.8K 3D VR 格式转换链路图制作完成的 8K VR 信号,接入主备路两台 8K 编码器中,即可进行推出 8K 流媒体信号。目前在 4K 花园与咪咕合作的 8K VR 直播场景中,主要是基于 SRT(Secure ReliableTransport)协议进行编码传输,在 8K 50P VR 视频规格下传输速率为 80Mbps,以保证足够的 8K 画面品质。28/32图 3.7.8.8K 3D VR 直播信号处理流程RTMP(Real-Time Messaging Protocol)流媒体传输协议作为公网下在高清和 4K 阶段使用较多、平台支持度较高的协议标准,通常被用
58、于较为稳定的网络环境中,对网络质量要求较高。对于 8K 编码直播推流,其高分辨率和高码率可能会需要更高的带宽和更强大的服务器支持,RTMP 在不稳定网络条件下可能会出现问题。尽管 RTMP 没有设定固定的视频码率上限,但在面对非常高的码率时可能会受到限制,特别是在不稳定的网络条件下。另外,RTMP 在传输时可能会有较大的延迟,对于要求较低延迟的应用场景可能不太合适。SRT 被设计用于在不稳定网络条件下提供可靠的流媒体传输,它包含了多种技术,例如错误纠正、动态调整带宽、重传机制等,这些特性使得 SRT 在处理高码率视频时表现更为稳定和鲁棒。在传输 8K 视频这样高分辨率和高码率的内容时,SRT
59、可能比 RTMP 更适合。因 SRT 有能力在网络条件不佳的情况下,保持较高的传输品质,而且能够灵活地调整带宽以适应不同的网络状况。即使在网络不稳定的情况下,SRT 也有可能更好地维持高码率视频的传输稳定性和质量。4.未来电视对 6G 移动网络的需求6G 移动网络和 5G 网络相比,最显著的优势在于用户的实际体验速率可以跃升至 Gbps这个级别,包括更低的时延,这也是 5G 网络所不具备的条件。用户体验速率时延=1Gbps2.5ms在“未来电视”应用场景中,前端制作域所需的实时数据处理和传输量级是远远大于用户接收和观看需求的。由于广电级别视音频信号制作对于信号质量和传输处理延时都有极高要求,过
60、往在现场转播系统中,基本都是采用非压缩视频信号规格,其 10bit 4:2:2 标准下的高清 50i、高清 50P、4K 50P 和 8K 50P 的信号数据码率分别达到 1.5Gbps、3Gbps、12Gbps、48Gbps。如此大的数据量对于无线传输来说,在 6G 时代以前,无论是 5G 还是微波等,都不可能满足,所以就必须使用高压缩编解码流程来降低数据量以便传输,而这样的代价除了图像质量下降之外,还有就是会额外增加高压缩复杂处理算法所带来的编解29/32码处理延时,从而导致为了使用 5G 无线网络进行传输,所产生的实际延时总量可能远远超出了理论值或者理想预期。6G 移动网络所带来的实际用
61、户体验速率指标,大于 1Gbps,也就意味着,无需采用复杂高压缩编码,特别是针对大数据量的 4K 乃至 8K 视频,采用 10:1 左右的前压缩比,将实际数据量降低到 1.2Gbps 和 4.8Gbps 这个量级,如 JPEG-XS 前压缩编码方式,就可以兼顾高质量图像和高编码效率,同样带来更低的编码延时。JPEG-XS 是 JPEG 国际委员会制定的新国际标准,该标准可在低压缩比的场景下,实现视觉无损压缩。JPEG-XS 是一种采用 ST 2110-22 标准基于小波算法的帧内浅压缩编码算法,可以支持到 16bit 精度,120FPS,8K 分辨率。JPEG-XS 编码复杂度低、硬件平台亲和
62、性强,现有硬件平台都可以高效支持,同时 JPEG-XS 主要在帧内进行编码,不执行时间维度方面的预测,虽然压缩比例不会很大,但会极大降低时延。这些优势可以提升制作过程中的编辑效率,降低传输过程中 8K 文件数据量太大导致的一些问题(8K 无压缩处理所需的 12-SDIx4 接口或 100G IP 流等),可以将 8K 视频以 10G带宽下传输,具备高性能和高稳定性及多层实时编辑能力。图 4.1 6G+4K/8K JPEG-XS 无线摄像机拍摄传输链路可以说,如果在确定传输稳定、可靠的前提下,6G+4K/8K JPEG-XS 的组合方案,对于高级别的专业现场制作要求,相比于过去微波传输等无线信号
63、传输解决方案,已经有了质变,同时将有线和无线机位的画质差距无限拉近,甚至可以达到差别忽略不计,同时也为轻量化制播系统设计和更多的特种应用无线拍摄场景提供了更多的创作可能性。在 ITU 定义的 6G 场景中,未来电视属于沉浸式通信(Immersive Communication)这一应用场景,也是 5G eMBB 的衍生场景。可以预期,在 6G 时代,随着网络速率的提升和传输时延的优化,包括 8K 直播等应用未来电视将会得到更好的应用。30/32图 4.2 IMT-2030 的六大场景和四大原则对于“未来电视”的后端用户应用场景需求,6G 无线网络带宽能力的大幅提升,同样可以进一步降低终端侧对于
64、 8K、3D、VR、XR 等高码率数据流的解码和处理压力,对于 8K分辨率超高清视频、8K 2D 和 3D VR 视频、4K 3D 视频等,乃至未来更高分辨率标准的2D/3D/VR 等视频内容,其数据量均数倍于常规的 4K 50P 视频,如果采用 H.265 高压缩编码如将 8K 50P 视频压缩到 100Mbps 左右,虽然可以控制在 5G 用户体验速率范围,但对于终端侧的硬件解码能力同样有很高的要求,虽然数据量看似不大,但编解码的负荷导致了硬件性能和成本增长,并不利于实际的内容传播和普及。同样,在 3D 和 VR 场景中进行交互式体验,对于低延时有很高的要求,6G 带来的更低延时和高码率有
65、助于数据处理复杂度的降低,都可以更好的支持更多复杂交互场景的设计开发。总之,6G 移动通信可以支持用户侧的互联网视频编解码可以在压缩率、处理算力和效率、延时量、数据量与最终效果等方面,重新选择新的平衡点,实现更小的最终效果妥协,为观众创造更理想的视听体验。5.总结如果说 5G 无线通信助推了超高清视频应用、VR 等场景的快速普及和技术升级发展,那么 6G 则将在此基础上,进一步放大和拓展,基于新型终端(新一代高清晰 VR 头显终端、裸眼 3D 显示终端等),为观众带来更强的沉浸式视听体验。“未来电视”是基于不同的终端载体,采用多种创作手段和制作技术,满足观众不同类型的体验需求和更自由的选择,而
66、沉浸式、临场感又是视听感受的终极目标。6G 技术和沉浸式通信场景的引入和加持,就如同高动态范围 HDR 和宽色域技术 WCG 赋能于超高清技术一样,为视听体验的技术升级插上了翅膀,将原有链路的瓶颈打开,将带来无限可能。我们也期待着,6G 无线通信技术能够尽快完善、落地、普及,同样的“未来电视”相关的视频技术和应用场景也将不断打磨和升级,希望能够在原有 5G+超高清、5G+VR 等场景的基础上,有更颠覆性的突破,真正造福于时代,满足用户高品质体验需求。31/32参考文献:1.8K JPEG-XS 制播全流程测试概述,中央广播电视总台 李岩 刘斌,20222.8K 超高清电视节目制播技术要求(暂行),中央广播电视总台,2021.13.Future Vision 2030-2040,NHK Science&Technology Research Laboratories4.ITU-R WP5D 完成了 IMT-2030(全球 6G 愿景)框架建议书,华为 陈雁,朱佩英,童文32/32参与单位及人员4K Garden 4K 花园于路(Lu Yu)ABS 广播电视科学研究院张宇(Yu Zhang)CUC 中国传媒大学媒体融合与传播国重实验室林涛(Tao Lin)Qualcomm 高通曹一卿(Yiqing Cao)